Nule kā pieņemtais Eiropas Savienības (ES) Mākslīgā intelekta (MI) akts ir labs solis, lai veicinātu drošību MI jomā, taču jācer, ka valsts, to piemērojot, neliks papildu šķēršļus inovācijām, sarunā ar portālu "Delfi" atklāja programmatūras izstrādātāja "Helmes Latvia" vadītājs Viesturs Bulāns.
Mākslīgā intelekta akta mērķis ir nodrošināt, ka MI sistēmas tiek izstrādātas un izmantotas atbildīgi. Noteikumi uzliek pienākumus MI tehnoloģiju nodrošinātājiem un ieviesējiem un reglamentē mākslīgā intelekta sistēmu atļauju piešķiršanu ES vienotajā tirgū.
Tiesību aktā pievērsta uzmanība ar MI saistītajiem riskiem, piemēram, aizspriedumiem, diskriminācijai un pārskatatbildības nepilnībām, veicināta inovācija un sekmēta MI ieviešana.
Tā kā ES akts ir pirmais MI jomas regulējums pasaulē, šie ES noteikumi varētu kļūt par MI regulējuma globālu standartu – līdzīgi kā savulaik Vispārīgā datu aizsardzības regula (VDAR) datu privātuma jomā –, tādējādi visā pasaulē veicinot ētisku, drošu un uzticamu mākslīgo intelektu.
Kas ir galveni aspekti, kas cilvēkiem jāsaprot par jauno aktu?
Pirmkārt, tā ir pirmā regula, kas visā Eiropas Savienībā (ES) vienoti regulē MI. Tā nedod atsevišķām valstīm priekšrocības. Piemēram, ja Latvijas uzņēmums izstrādātu kādus MI risinājumus, tiem nebūtu priekšrocību pret citu valstu risinājumiem.
Tāpat pirmo reizi MI sistēmas tiek klasificētas pēc to riska pakāpēm. Attiecīgi katrai no šīm pakāpēm ir citas prasības.
Kādas ir šīs riska pakāpes? Piemēram, vai "Chat-GPT" būs augsta vai zema riska sistēma?
Augsta riska sistēmas tādas, kas, piemēram, MI sistēma, kas analizē medicīnas izmeklējumu datus un iesaka kaut kādas rīcības. Tā ir ļoti augsta riska sistēma, kuras katra kļūda var maksāt cilvēku veselību vai pat dzīvību. Šādai sistēmai jābūt ar ļoti augstu precizitāti.
Savukārt vidēja riska sistēma ir, piemēram, darbā pieņemšanas sistēma, kas palīdz izvēlēties kandidātus pēc konkrētiem kritērijiem, iesakot tos, kas atbilst konkrētām prasībām. Te gan jāizceļ, ka sistēma nedrīkst būt diskriminējoša.
Toties zema riska sistēma būtu kāds čatbots, kurš, piemēram, iesaka atbilstošāko produktu.
Vai pastāv riski, ka atsevišķas mājaslapas, izmantojot sīkdatnes var izpētīt lietotāja paradumus un sākt piedāvāt reklāmas, kas var novest konkrētā spirālē, piemērām kā "Youtube", kur viena video noskatīšanās pēc stundas var novest pie nacismu slavinoša satura?
Regula cīnās ar to, ka nedrīkst parādīties manipulatīvi aspekti. Proti, ar cilvēka izvēli nedrīkst manipulēt. Iespējams, MI analizē cilvēka noskaņojumu vai balss tembru, lūk, ar šo nedrīkst manipulēt. Sistēma nedrīkst manipulatīva vai diskriminējoša.
Robeža, protams, ir ļoti smalka, jo no vienas puses ir labi, ka sistēma var ieteikt kaut ko, kas nepieciešams, bet tā ieteikšana nedrīkst būt manipulatīva.
Vēl viena lieta, par kuru bieži dzirdam, kad ir jaunas regulas, jo īpaši no ASV, ir tas, ka ar šādu regulējumu var negatīvi ietekmēt inovācijas.
Ja man jāizvēlās starp lēnāku inovāciju vai drošība, tad es tomēr izvēlētos drošību. Šī regula ir domāta, lai regulētu drošības aspektu. Savā ziņā es gan piekrītu tam, ka ASV nav tik strikti un dara krietni vairāk lietu. ES tirgus ir nedaudz pārregulēts, bet ilgtermiņā tomēr drošības aspekts ir ļoti svarīgs.
Kas ir galvenās lietas, ar kurām jārēķinās uzņēmumiem, šīs regulas kontekstā?
Datu drošību! Tie būs kaut kādi papildu juridiskie aspekti, lai atbilstu visām regulas prasībām. No otras puses tas nedaudz protekcionēs ES tirgu no ASV. Ja sistēmu izstrādā ASV tirgū, kur regulējums citāds, tad, lai pārdotu to sistēmu ES, šai sistēmai būs jāatbilst ES regulējumam.
Tas ietekmēs arī sistēmu izmantotājus, piemēram, finanšu nozari.
Parunāsim arī par caurspīdīgumu. Piemēram, mūsdienās liela problēma ir saucamie dīpfeiki, vai regula kaut kādā ziņa palīdz?
Regula skaidri pasaka, ka tās mērķis ir veicināt caurspīdīgumu un uzticēšanos. Ja notiek saruna ar kādu, kas izmanto dīpfeiku, tad jābūt absolūti skaidram, ka saruna notiek ar MI rīku. Ja politiķis izdomās uztaisīt dīpfeiku un ielikt tīklos, tad viņam tas būs skaidri jānorāda.
Kāda vispār ir industrijas nostāja saistībā ar jauno regulējumu? Optimisms, pesimisms, vienaldzība?
Cik esmu runājis, tad viedoklis ir tāds, ka vēsturiski ir bijusi negatīva pieredze ar ES centieniem visu pārregulēt, bet nopietnie uzņēmumi domā par savu reputāciju. Nule kā Latvijā arī reģistrēta Mākslīgā intelekta asociācija, kura uz šo skatās diezgan pozitīvi, jo ir skaidri spēles noteikumi.
Kāda vispār ir MI nākotne Latvijā?
Mēs [Latvija] esam galvastiesu pārāki par ES tieši publiskajā sektorā. Salīdzinoši mūsu digitalizācijas līmenis ir daudz augstāks nekā citās ES valstīs. Tas, ka Latvijā sūdzamies, ka mums slikta "e-veselība", neko nenozīmē, jo Vācijā, piemēram, viņu sistēma atpaliek vēl 20 gadus. Mums varētu būt lielas iespējas tieši publiskajā sektorā.
Kādi ir tavi noslēguma vārdi?
Regula ir ļoti svaiga un mums atliek vien gaidīt nacionālo interpretāciju. Tas ir tas lielākais nezināmais. Es ļoti ceru, ka mūsu ierēdņi neliks papildu šķēršļus.