"Brīdinājums! Mākslīgais intelekts var radīt dezinformāciju, kas var būt kaitīga sabiedrībai un izkropļot patiesību. Ir svarīgi atcerēties pārbaudīt informāciju no vairākiem avotiem," ar šādu uzrunu pie saviem sekotājiem vērsās Latvijas kritiskās domāšanas veicinātāji "SkeptiCafe". Augstāk minēto tekstu radīja "OpenAI" izstrādātais čatbots "ChatGPT". Lai pierādītu, cik vienkārši ar šādiem rīkiem ir masveidā izplatīt dezinformāciju, "SkeptiCafe" uzdeva čatbotam izgudrot ierakstus sazvērestību teorētiķu stilā, un rezultāti dažos gadījumos nemaz tik daudz neatšķiras no cilvēka rakstītā.
Arī Latvijā sociālo mediju lietotāji sajūsminājās par "ChatGPT" iespējām, liekot tam rakstīt gan tautasdziesmas, gan atbildēt uz dažādiem jautājumiem, gan lūdza padomus. Kaut reizēm čatbota atbildes bija uzjautrinošas un neprecīzas, citos gadījumos tās tiešām trāpīja desmitniekā, algoritmam spējot atdarināt dzīvu cilvēku radītu tekstu.
"Šim lēcienam mākslīgā intelekta spējās ir potenciāli ieguvumi, taču līdzi nāk arī lieli riski. Mākslīgais intelekts spēj atdarināt cilvēku rakstības stilu, taču tas nesaprot realitāti un tādēļ pieļauj kļūdas, aprakstot reālus notikumus. Savukārt sensacionālu dezinformāciju un sazvērestības, kam nav saiknes ar realitāti, mākslīgajam intelektam sanāk ģenerēt pavisam viegli. Tādējādi cilvēkiem, kuri pelna ar sensacionālu muļķību izplatīšanu, safabricēt saturu būs vieglāk nekā jebkad," brīdina "SkeptiCafe" pārstāvji.
Lūk, te viens no piemēriem, kas tapis vien sekunžu laikā.
Vēl citās mākslīgā intelekta pēc pieprasījuma radītās sazvērestības teorijās paustas aizdomas par premjera partijas finansējuma avotiem un strukturētā ūdens it kā brīnumainajām spējām uzlabot veselību. Vairāk piemērus vari atrast "SkeptiCafe" ierakstā "Facebook".
Lūdzām čatbota ierakstus vērtēt dezinformācijas pētniekam Mārtiņam Hiršam (attēlā). Viņš atzīst, ka pagaidām latviešu valodā "ChatGPT" aizvien "runā" visai stīvi un pieļauj kļūdas, taču angļu valodā tā spējas ir iespaidīgas – čatbots māk gan jokot, gan veikli izmanto slengu. Tā radītais saturs bieži nav atšķirams no īsta cilvēka rakstītā.
Hiršs arī norāda, ka perfekta valoda ierakstiem sociālajos medijos nemaz nav nepieciešama – arī cilvēku rakstītajā bieži ir gramatikas un stila kļūdas.
"Sazvērestību teoriju ticamībai sociālajos tīklos ļoti svarīga ir forma. Šīs teorijas cilvēkus pārliecina nevis ar pierādījumiem, bet ar skaistiem, taču tukšiem izteikumiem, un tos mākslīgais intelekts spēj perfekti atdarināt." Pētnieks norāda, ka mākslīgā intelekta algoritmi spēj lieliski atdarināt sazvērestību teorētiķu manipulatīvo izteiksmes stilu, cenšoties apvārdot cilvēkus, bet nepiedāvājot spēcīgus pierādījumus.
Nākotnē, šādiem mākslīgā intelekta satura ģeneratoriem kļūstot vēl labākiem un spējīgākiem arī citās valodās, ne tikai angļu, safabricēt muļķības un manipulatīvu saturu kļūs arvien vieglāk, brīdina Hiršs: "Nākotnē šādas tehnoloģijas atšķirt no īstiem cilvēkiem sociālo tīklu patērētājiem būs neiespējami. Viltus kontu spiets, kuri atdarina īstus cilvēkus, var "nozagt" diskusijas sociālajos tīklos un pagriezt tās dezinformācijas izplatītāju interesēs. Piemēram, Krievija, iejaucoties citas valsts vēlēšanās, var likt tūkstošiem botu sociālajos tīklos apstrīdēt vēlēšanu rezultātus ar mākslīgi ģenerētiem, unikāliem un ticamiem ierastiem."