Mākslīgā intelekta (MI) valodas modelis "ChatGPT" turpina pārsteigt. Un dažu labu varbūt arī padarīt bažīgu – vai drīzumā mūs ārstēs algoritms, nevis apmācīti profesionāļi? Ne gluži. Taču par asistentu mediķiem gan šādi valodu modeļi kādreiz varētu kļūt. Galu galā MI risinājumus medicīnā jau izmanto šobrīd tādās jomās kā radioloģija. Nupat populārais "ChatGPT" pierādījis savu potenciālu un gandrīz nokārtojis ASV medicīnas profesionāļu licencēšanas testu jeb USMLE (US Medical Licensing Exam).
USMLE pārbaudījumu veido trīs eksāmeni, un tas nav nekāda "viegla pastaiga parkā". Kā raksta vietne "Science Alert", lai sagatavotos šim eksāmenam, parasti vajag ieguldīt vairākus simtus stundu darba, un tematu loks ir ļoti plašs. Gan eksakto zinātņu pamati, gan jau specializēti medicīnas jautājumi, gan bioētikas situāciju analīze. Pētnieki pirms valodas modeļa "eksaminēšanas" arī pārbaudīja, vai atbildes uz šiem USMLE jautājumiem noteiktā formulējumā jau nav brīvi pieejamas tīmeklī, lai salīdzinātu, cik oriģinālas atbildes valodas modelis piedāvās.
"ChatGPT" atsevišķajos testos uzrādīja rezultātus no 52,4 līdz 75 procentiem. Lai tests tiktu uzskatīts par sekmīgi nokārtotu, jābūt ap 60 procentiem pareizu atbilžu. Tādējādi gluži izcilnieks šis algoritms nav, bet ir ļoti tuvu robežai, lai nokārtotu visu lielo eksāmenu. Kas interesanti, lielākajā daļā gadījumu valodas modelis arī izvērsti argumentēja savu atbildi un raksturoja situāciju gan oriģināli, gan korekti no klīniskā viedokļa. Turklāt tas apsteidza "PubMedGPT" – valodas modeli, kas apmācīts tieši ar medicīnas literatūru. Šim čatbotam pareizi izdevās atbildēt tikai pusē gadījumu.