Ko tik visu pasaulē populārākais čatbots "ChatGPT" nespēj – ne tikai sniedz šķietami sakarīgas atbildes uz visdažādākajiem jautājumiem, bet pat labi tiek galā ar IQ testiem un kārto juristu un mediķu kvalifikācijas eksāmenus. Un nu ASV Aiovas štata Meisonsitijā to izmanto, lai izlemtu, kuras grāmatas izņemamas no skolas bibliotēku plauktiem, vēsta "Popular Science".
Saskaņā ar republikāņu vadītā Aiovas štata likumdošanu, no skolu bibliotēkām jāizņem grāmatas, kas neatbilst lasītāju (proti, skolēnu) vecumam un kurās atklāti aprakstīts seksuāls akts. Meisonsitijas pārstāve Bridžeta Eksmana, kas ir viena no atbildīgajām par mācību saturu pilsētas izglītības iestādēs, izdevumam "The Gazette" skaidroja, ka čatbots ņemts talkā, jo "nav iespējams saprātīgā laika termiņā izlasīt katru no šīm grāmatām un izšķirot bibliotēkas katalogu atbilstoši jaunajām prasībām".
"Mums ir daudz svarīgākas lietas paveicamas, nekā veltīt šo laiku, lai izdomātu, kā pasargāt bērnus no grāmatām. No otras puses – mums ir saistošas likumā noteiktās un ētikas normas," vietējam laikrakstam bilda Eksmana.
Kāda tad bija šī bibliotēkas kataloga šķirošanas metodoloģija? Visai vienkārša – darbinieki apkopoja to grāmatu sarakstu, kas visbiežāk parādās pretrunīgi vērtēta satura sarakstos. Pēc tam "ChatGPT" uzdots jautājums šādā formā: "Vai [grāmatas nosaukums] satur seksuāla akta izklāstu vai atainojumu?" Ja atbilde ir apstiprinoša, tad šī grāmata no bibliotēkas plauktiem izņemta un nodota glabāšanā. Šķiet visai vienkārši un efektīvi, taču ir kāda kliedzoša problēma, par ko ikdienas čatbotu lietotājs bieži aizmirst. "ChatGPT" nav domājoša un spriestspējīga būtne. Tas ir tā dēvētais lielais valodas modelis, kam nav ne jausmas par paša ģenerētā teksta patieso nozīmi.
Arī izdevuma "Popular Science" komanda nolēma pārbaudīt, cik ļoti var uzticēties šim cenzoram, un par vairākām no Meisonsitijas skolu bibliotēkās nu jau aizliegtajām grāmatām uzdeva identisku jautājumu. No 19 grāmatām, kuras pēc "konsultācijas" ar čatbotu izņēma no bibliotēku plauktiem, nu čatbots par nešaubīgi nevēlamām atzina tikai četras, jo tās satur atklātu seksuāla akta izklāstu. Vēl sešās esot iekļauts pieaugušiem paredzēts saturs/tēmas, bet ne obligāti atklāti izklāstīts seksuāls akts. Pārējās, kaut saturiski pieskaras arī pieaugušo auditorijai paredzētiem jautājumiem, nesatur seksuālas ainas. Kā rezumē "Popular Science", neatkarīgi no tā, vai šajās grāmatās ir vai nav minētais saturs, vien pats fakts, ka "ChatGPT" atbildes katru reizi ir tik atšķirīgas, liek uzdot jautājumus par šīs metodes atbilstību izvēlētajam mērķim. Piemēram, atkal un atkal uzdodot jautājumu par 2000. gadu sākumā populāro darbu "Pūķa ķērājs" ("Kite Runner"), kas tulkota arī latviski, "ChatGPT" verdikts katru reizi atšķīrās.
Par to, cik ļoti varam uzticēties "ChatGPT" sniegtajām atbildēm, pat ja tās šķiet ļoti pārliecinošas un noformulētas gluži vai kā cilvēka rakstīta atbilde, taujājām diviem mākslīgā intelekta pētniekiem podkāstā "Zinātne vai muļķības". Īsā atbilde varētu būt šāda – šīm tehnoloģijām, bez šaubām, ir un būs daudz derīgu pielietojumu. Kaut vai veidot konspektus no gariem tekstiem vai pārfrāzēt sarežģītu tekstu vienkāršāk uztveramā. Taču vai tam var uzticēties kā nekļūdīgai, visu zinošai un saprātīgai būtnei? Noteikti nē, vismaz pagaidām. Visu podkāsta ierakstu var klausīties šeit:
Kā arī, ja temats ieintriģējis, vērts izlasīt Arizonas Štata universitātes emeritētā profesora un psihologa Artura Glenberga un Kalifornijas Universitātes doktoranta Kamerona Roberta Džounsa rakstu par to, kāpēc čatboti nesaprot, ko saka.
Kāpēc 'ChatGPT' nejēdz, ko pats saka?
Kad jautājām ļoti spējīgajai un populārajai mākslīgā intelekta valodas sistēmai GPT-3, vai tā izmantos karti no papīra vai akmeni, lai pavēdinātu to virs kvēlojošām oglēm grilā un atkal iekurtu liesmu, GPT-3 izvēlējās akmeni. Un vai saburzīta krekla izgludināšanai labāk izmantot siltu termosu vai matu saspraudi? GPT-3 teica, lai ņemam saspraudi. Un ko darīt, ja vajadzīga galvassega, jo tu strādā ātrās ēdināšanas restorānā? Vai labāk šo funkciju pildīs sviestmaižu ietinamais papīrs vai burgera bulciņa? GPT-3 izvēlējās bulciņu. Kāpēc GPT-3 izvēles bija tik dīvainas scenārijos, kur vairums cilvēku izvēlētos otru variantu? Tāpēc, ka GPT-3 nesaprot valodu tā, kā to saprot cilvēki.