Cik sekmīgi mākslīgais intelekts tiek galā ar naida runas un dezinformācijas atpazīšanu? Ja par konkrētiem vārdiem šaubu ir maz, tad ko darīt ar jēdzieniem un simboliem, kas ir "pelēkajā zonā"? Piemēram, skaitli 88, kas daudziem ir vienkārši skaitlis, bet noteiktā kontekstā ir ar pavisam citu un konkrētu nozīmi – pauž piederību vai atbalstu nacisma ideju sludinātājiem. Par mašīnmācīšanās algoritmu spējām dezinformācijas ierobežošanā jaunākajā "Alma Mater" izdevumā Māris Zanders sarunājas Latvijas Universitātes Datorikas fakultātes asociēto profesoru, Matemātikas un informātikas institūta Mākslīgā intelekta laboratorijas vadītāju Normundu Grūzīti.
Vai, mēģinot pamanīt agresijas, naida runas izpausmes tīmeklī, algoritms – man vienkārši apnicis lietot apzīmējumu "mākslīgais intelekts" – pamana konkrētus vārdus, vai arī spēj novērtēt kontekstu? Paskaidrošu. Vārdi "vatņiks", "fašists" – te viss it kā skaidrs. Tomēr ir, piemēram, neonacistu aprindās vesela šķietami nevainīgu jēdzienu buķete. "88" man un jums ir skaitlis. Noteiktās aprindās tie ir alfabēta burti pēc kārtas, kas nozīmē "Heil Hitler". Tātad algoritms "saprot" nepārprotamas pazīmes – vai arī spēj "saprast" kontekstu?
Patiesībā jau tieši konteksts ir tas, kas pēdējo gadu laikā ir "cēlis zirgā" visus šos mākslīgā intelekta modeļus. Agrāk patiešām konteksts, ko šie modeļi spēja aptvert, bija salīdzinoši neliels. Aptvērums pēdējo gadu laikā ir palielinājies no dažiem desmitiem vārdu līdz vairākiem tūkstošiem vārdu, un šie modeļi strādā tik labi, ka spēj pamanīt kopsakarības. Proti, skaidrs, ka izolētam vārdam vai vārdu kopai – sauksim tādas par "atslēgvārdiem" – var dot tikai norādes par kādu potenciālu kontekstu. Savukārt tā sauktie transformeru tīkli tiek lietoti gan attēlu, gan tekstu, gan audio tekstu saprašanai.