Vēl pavisam nesen uzņēmumu IT speciālistiem un personāla daļas vadītājiem bija jāpievērš uzmanība tam, lai darbinieki e-pastā neizmanto nedrošas paroles, nedodas uz mājaslapām, kas var saturēt vīrusus, vai neizpauž trešajām pusēm uzņēmuma vai klientu datus. Nu esam nonākuši jaunā ērā, kur daudzi darbinieki ikdienā darba datu apstrādei izmanto ģeneratīvā mākslīgā intelekta (MI) rīkus – "ChatGPT", "Copilot", "GitHub" u. c.
Tomēr daudzi nezina, ka šie rīki izmanto mūsu ievadīto informāciju, lai "mācītos", un pastāv iespēja, ka šie dati kādā brīdī parādīsies citiem lietotājiem. Tostarp klienta sensitīvie vai konfidenciālie dati. Tāpat var gadīties, ka darbinieks šajās programmās nejauši būs radījis ar autortiesībām jau aizsargātu produktu.
Kā ar darbiniekiem pārrunāt šo rīku drošu izmantošanu, un kā uzņēmējam sevi pasargāt no darbinieku neapdomīgās rīcības sekām?
Ģeneratīvais MI – "kūrēts" saturs vai pārsteigumu ieleja
MI var veikli ģenerēt jaunas idejas un tekstus, kā arī automatizēt laikietilpīgus un garlaicīgus uzdevumus. Ļoti vienkāršojot, MI varam iedalīt ģeneratīvajā MI (parasti te domājam par lielajiem valodu modeļiem) un prognozējošajā MI (piemēram, lielo datu vai dažādi specifiski datorredzes risinājumi).
Lai turpinātu lasīt, iegādājies abonementu.
Lūdzu, uzgaidi!
Pielāgojam Tev piemērotāko abonēšanas piedāvājumu...
Abonēšanas piedāvājums nav redzams? Lūdzu, izslēdz reklāmu bloķētāju vai pārlādē lapu.
Jautājumu gadījumā raksti konts@delfi.lv