Latvijas Radio lietotnes logo


Mākslīgais intelekts ir strauji ienācis visās jomās, un nekāds izņēmums nav arī mediji. Tas spēj īsā laikā pārveidot rakstītā tekstā audio intervijas, iztulkot tekstu svešvalodā, apkopot un izsijāt lielus informācijas apjomus. Ar mākslīgā intelekta palīdzību var arī radīt tekstu, attēlus un video. Bet ko no tā var izmantot mediji, kādi riski pastāv – to skaidrojam Mediju anatomijā.

Viens no lielākajiem Latvijas interneta portāliem "TVNET" ar mākslīgā intelekta iespējām jau pērn sāka eksperimentēt praksē, bet vēl ne publiski. "TVNET Grupa" galvenais redaktors Toms Ostrovskis stāsta, ka jau tad sāka raudzīties, kas var būtiski atvieglot rutīnas darbus, un arī sāka veidot savas vadlīnijas un ētisko ietvaru, kā strādāt ar mākslīgo intelektu. Pašā pamatā ir noteikums, ka visos gadījumos, kad izmantots mākslīgais intelekts, gala pārbaudi veic cilvēks un arī lasītājam ir tiesības zināt visu, kur saturu ietekmējis  mākslīgais intelekts. Tomēr kļūdas gadās. Viena tāda, kad "TVNET" pie ziņas par smago autoavāriju Nīcas pagastā publicēja mākslīgā intelekta ģenerētu attēlu, kas maldinoši varēja izskatīties kā īsta.

Galvenais risks medijam, izmantojot mākslīgā intelekta dotās iespējas, ir iekrist uz nepatiesu informāciju. Vēl riskantāk tas ir mazāku valodu informatīvajā telpā, jo tīmeklī par daudzām lietām vienkārši ir mazāk informācijas, plus, to ir vieglāk pārpludināt ar dezinformāciju. Par to stāsta Latvijas Sabiedriskā medija faktu pārbaudītāja Anete Bērzkalne.

Mākslīgais intelekts spēj būt ļoti pārliecinošs. Izmantojot gudru valodu un piemērotus terminus, tas var izstāstīt arī pilnīgas muļķības, tādēļ galu galā būs vien jāpaļaujas uz cilvēka saprātu. Vismaz pavaicājot avotus, kur mākslīgais intelekts ir smēlies šīs ziņas, lai tad pārliecinātos savām acīm. Arī medijos bez žurnālista, vēlams ievērojot četru acu principu, neiztikt.