2023-06-17 16:57

J. Šovienė. Pasitikėjimas duomenų valdomame amžiuje

Nuotr. iš asmeninio archyvo
Nuotr. iš asmeninio archyvo
Kaip reguliuoti tai, kas nežinoma, tačiau gali būti ne tik naudinga, bet ir žalinga? Kokias taisykles nustatyti, kad būtų apsaugotos vartotojų teisės, bet nebūtų pakenkta dirbtinio intelekto, kurio revoliucinis poveikis lyginamas su J. Gutenbergo spausdinimo mašinos išradimu XV amžiuje, vystymuisi?

Tokie klausimai slegia teisės aktų leidėjus, politikos formuotojus bei jų įgyvendintojus – rinkų reguliuotojus. Su nerimu į juos žiūri verslas: ką sureguliuos, ką vėl uždraus, ką nubaus. Vyksta diskusijos,  kokį socialinį poveikį dirbtinio intelekto vystymasis turės asmeniniam gyvenimui, vaikų ugdymui, darbuotojams, verslams, kaip prisitaikyti prie neįtikėtinais tempais besikeičiančių rinkos sąlygų.

Norėdami judėti į priekį ir suspėti su technologijų vystymųsi, turime bėgti taip, kaip siūlo Stebuklų šalies Alisa – dvigubai greičiau. Deja, tenka pripažinti, kad neretas mūsų vis dar įsikibę tradicinės  tradicinių rinkų  priežiūros.  O tai – tarsi rąstas, pririštas prie kojos.

Koks galėtų būti netradicinis reguliavimas?

Tai turėtų būti ne šiai dienai skirtos taisyklės, bet į ateitį orientuoti principai.

Šiuo metu Europos Sąjungos institucijose svarstomu dirbtinio intelekto reguliavimu kaip tik ir bandoma sukurti palankią dirbtinio intelekto reguliavimo aplinką. Planuojamas reguliavimas remiasi įpareigojimų paslaugų teikėjams ir naudotojams nustatymu, atsižvelgiant į dirbtinio intelekto keliamos rizikos lygį. Keliančios nepriimtiną riziką, kaip pavyzdžiui, balsu valdomi žaislai manipuliuojantys vaikų elgesiu, bus draudžiamos. 

Visos didelės rizikos dirbtinio intelekto sistemos turės būti vertinamos prieš pateikiant jas į rinką ir visą jų gyvavimo ciklą. Ribotos rizikos sistemos turės atitikti minimalius skaidrumo reikalavimus, kurie leistų naudotojams priimti sprendimus naudotis jomis ar ne. Generatyviniam dirbtiniui intelektui, tokiam kaip Chat GPT, siekiama nustatyti skaidrumo reikalavimą – įpareigojimą atskleisti, kokie šaltiniai buvo panaudoti turiniui sukurti. Siekiant remti naujoves ir išvengti reguliavimo naštos, tik didelės rizikos dirbtinio intelekto programos bus griežtai reguliuojamos. Reguliavimo tikslas – užtikrinti į žmogų orientuotą ir etišką dirbtinio intelekto vystymą.

Tačiau be to, ką nuveiks europiniai bei nacionaliniai teisės aktų leidėjai, itin pagelbėtų, jei verslas prisiimtų didesnę socialinę atsakomybę, ieškotų savireguliacinių priemonių. Nelauktų, kol ateis valdžia ir nustatys žaidimo taisykles. Skaitmeniniame, duomenų valdomame, amžiuje kritiškai svarbus yra pasitikėjimas. Juk nedaug būtų prieštaraujančių, jeigu duomenys būtų naudojami moksliniais tikslais, pavyzdžiui, siekiant surasti naujus gydymo būdus. 

Tačiau, jei iš duomenų uždirba vos saujelė rinkos žaidėjų, o duomenų savininkai, t. y. vartotojai, iš to nieko negauna, tik neša visą skaitmeninio pasaulio tamsiosios realybės naštą, apie pasitikėjimą kalbėti sudėtinga. Juk kiekvienas esame susidūrę ar bent girdėję apie vaikų ir suaugusiųjų likimus laužančias patyčias, vaikų pornografiją, lošimus ar priklausomybę nuo išmaniųjų įrenginių naudojimo, drastiškai augančius elektroninių sukčiavimų atvejus.

Su dirbtiniu intelektu kovoti neprotinga. Pro kovojančius jis tiesiog praeis. Į jį turime žiūrėti kaip į galimybę kurti viešąjį gėrį. Tačiau ne tik valdžios institucijos, bet ir verslas turi rūpintis, kad neigiamas rinkų šalutinis poveikis būtų minimalus bei prisiimti atsakomybę už tamsiąją technologijų pusę. Atsakingas duomenų valdymas, skaidrus dirbtinio intelekto naudojimas, vieningi etikos standartai augintų vartotojų pasitikėjimą skaitmeninėmis rinkomis, paslaugomis. O juk to kaip tik ir reikia duomenų valdomame amžiuje.

Komentaro autorė - Jūratė Šovienė, Ryšių reguliavimo tarnybos pirmininkė

52795
130817
52791