A. Klišauskas. 5 DI pavojai, kuriuos vadovai turi užsirašyti ant sienos

Generatyvinio dirbtinio intelekto (DI) įrankiai, kaip „ChatGPT“, nemažai daliai organizacijų tapo kasdieniais pagalbininkais. Tačiau kartu jie atvėrė naują duomenų nutekėjimo būdą – patys darbuotojai kartais nė to nenorėdami atskleidžia konfidencialią informaciją, ją suvesdami į išorines DI sistemas, pavyzdžiui, kai prašo sutrumpinti ar reziumuoti dokumentus su neviešais duomenimis, išskirti pagrindines galbūt konfidencialaus teksto mintis, atrašyti laišką ar panašiai. Pasekmės gali būti išties rimtos – nuo duomenų nutekėjimo iki milžiniškos reputacinės žalos, prarasto klientų pasitikėjimo.
Praktikoje generatyvinio DI rizika jau materializavosi. 2023 m. pabaigoje technologijų bendrovė „Samsung“ susidūrė su nemalonia situacija – jos darbuotojai, naudodami viešą „ChatGPT“, netyčia paviešino įmonės vidinį kodą ir kitą jautrią informaciją. Šis atvejis buvo toks rimtas, kad „Samsung“ skubiai uždraudė darbuotojams naudotis išoriniais DI įrankiais ir ėmė kurti nuosavą uždarą DI sprendimą naudoti viduje.
Registruokitės ir skaitykite šį straipsnį nemokamai
KURTI PASKYRĄNemokama registracija suteikia galimybę:
- skaityti registruotiems klientams skirtus straipsnius
- komentuoti
- gauti el. paštu esminių naujienų santrauką
Jokių kortelės duomenų palikti nereikia.