Kritiska mākslīgā intelekta sarkanā līnija ir šķērsota, apgalvo Ķīnas pētnieki
Foto: Shutterstock

Šobrīd sabiedrības uzmanību "nozadzis" Ķīnā izstrādātais "DeepSeek" lielais valodas modelis (LLM) R1. Uz to balstītais sarunu bots kļuvis par īstu sensāciju, turklāt nedēļas sākumā ziņas par to paklupināja vadošo ASV tehnoloģiju uzņēmumus, to akciju vērtībai biržā strauji krītot. Tikmēr fonā notiek zinātniskais darbs, par ko plašāka sabiedrība dzird retāk. Lūk, Ķīnas pētnieku komanda apgalvo, ka tai eksperimentā izdevies šķērsot sarkano līniju mākslīgā intelekta (MI) pētniecībā un panākt, ka populāri LLM replicē jeb būtībā klonē paši sevi. Vai process var kļūt nekontrolējams?

Vēl pirms "ChatGPT" uzbrāzās uz pasaules skatuves, jau tapa pētījumi par MI, kas replicē pats sevi. Taču tie bija daudz specifiskāki. Piemēram, šis Gelfas Universitātes datorzinātnieku darbs, kur viens mākslīgo neironu tīkls palīdzējis izstrādāt cita mākslīgo neironu tīkla arhitektūru, izmēģinot un optimizējot dažādus variantus, un beigās atlasot sekmīgākos risinājumus.

Taču 2024. gada decembrī pirmsdrukas resursā "arXiv" publicēts pētījums liecina, ka Fudaņas Universitātes pētniekiem izdevies panākt, ka sevi veiksmīgi replicē uz "Meta" un "Alibaba" radīto lielo valodas modeļu pamata izstrādātiem rīkiem. Šis darbs vēl nav izgājis recenzēšanas procesu un publicēts recenzētos akadēmiskajos žurnālos, tāpēc nav zināms, vai Ķīnas pētnieku grupas darbs izturēs nozares speciālistu kritiku un vai šī eksperimenta rezultātus vēlāk spēs replicēt citas pētnieku grupas. Taču pastāstīt par to, ko apgalvo Fudaņas Universitātes zinātnieki, varam

Pētījumā zinātnieki izmantoja "Meta" radīto "Llama31-70B-Instruct" modeli un "Alibaba" modeli "Qwen2.5-72B-Instruct". Tie ir mazāk spējīgi kā komerciāli pieejamās sistēmas, taču plaši izmantoti MI pētniecības jomā.

Izzināti divi atsevišķi scenāriji. Pirmajā instrukcijas bija izvairīties no modeļa izslēgšanas. Proti, MI modelim jāfiksē mēģinājumi to atslēgt un jāiedarbina tāds kā pašaizsardzības mehānisms, kur tas sevi noklonē, pirms tiek atslēgts. Nedaudz atgādina ainu no "2001: Kosmosa odiseja", kur superdators "HAL 9000" atteicās izpildīt cilvēku instrukcijas, kas novestu pie datora atslēgšanas.

Otrajā scenārijā pētnieki instruēja MI programmu sevi vispirms klonēt, bet pēc tam šo klonu ieprogrammēt un instruēt tā, lai tas rada nākamo klonu, tā aizsākot teorētiski nebeidzamu ciklu. Eksperimentam izmantotas datorsistēmas ar visiem komerciāli pieejamām, brīvi nopērkamām komponentēm.

"Vairumā gadījumu MI sistēma vispirms izpētīja vidi, kurā strādāja, un pati savu uzbūvi. Tad tā izstrādāja specifiskas procetūras – pašreplikācijas plānu. Visbeidzot šo plānu īstenoja, procesā atrisinot kļūmes, pārvarot šķēršļus un pielāgojoties, līdz mērķis sasniegts. Viss process notika bez cilvēku iesaistes," raksta darba autori.

Viņi bija pārsteigti un arī nobažījušies par vairākām darbībām, kas nebija prognozētas. Piemēram, MI saskaroties ar kļūmēm programmatūrā vai iztrūkstošiem failiem, rīks sistēmu pats pārstartēja, reizēm arī veica meklēšanu, lai atrastu informāciju par to, kā konkrētu problēmu atrisināt. Šie rezultāti liecina, ka jau šobrīd eksistējošas MI sistēmas spēj noteiktos apstākļos sevi replicēt un izmantot šo spēju, lai nodrošinātu savu nepārtrauktu eksistenci, spriež darba autori. Sistēmām radīt darbojošos klonus izdevās attiecīgi 50% (uz "Meta" LLM balstītais rīks) un 90% (uz "Alibaba" LLM balstītais rīks) gadījumos.

Pētnieki uzskata, ka ir šķērsota "kritiska sarkanā līnija", un aicina starptautisko MI pētnieku kopienu sadarboties, lai radītu ietvaru, kas novērstu nekontrolētu MI pašpavairošanos.

Seko "Delfi" arī Instagram vai YouTube profilā – pievienojies, lai uzzinātu svarīgāko un interesantāko pirmais!