Italijos priežiūros institucija: „ChatGPT" pažeidžia ES privatumo taisykles

Šalies duomenų apsaugos institucija „Garante“ pirmadienį teigė pranešusi San Fransiske įsikūrusiai „OpenAI“ apie ES taisyklių, vadinamų Bendruoju duomenų apsaugos reglamentu (BDAR), pažeidimus.
Pernai priežiūros institucija pradėjo tirti „ChatGPT“, kai Italijoje buvo laikinai užblokuotas pokalbių robotas, gebantis pagal žodines užklausas generuoti tekstą, vaizdus ir garsus. Atlikusi tyrimą reguliavimo institucija teigė padariusi „išvadą, jog buvo pažeistos ES privatumo taisyklių nuostatos“.
„OpenAI“ turi per 30 dienų atsakyti į kaltinimus. Į prašymą pateikti komentarą ji iš karto žurnalistams neatsakė. Pernai bendrovė teigė, kad įvykdė daugybę sąlygų, kurių reikalavo „Garante“, kad būtų panaikintas „ChatGPT“ draudimas.
Priežiūros institucija įvedė draudimą nustačiusi, kad buvo atskleisti kai kurių naudotojų pranešimai ir mokėjimo informacija. Taip pat dėl to, kad „ChatGPT“ neturėjo sistemos, kuria būtų galima patikrinti naudotojų amžių, todėl vaikai iš dirbtinio intelekto įrankio galėjo gauti jų amžiui netinkamus atsakymus.
Reguliatoriai taip pat suabejojo, ar „OpenAI“ turėjo teisinį pagrindą rinkti didžiulius kiekius duomenų, naudojamų „ChatGPT“ algoritmams mokyti, ir išreiškė susirūpinimą, kad sistema kartais gali generuoti klaidingą informaciją apie asmenis.
Augantis generatyvinių dirbtinio intelekto sistemų, tokių kaip „ChatGPT“, populiarumas taip pat sulaukia vis didesnio reguliavimo institucijų dėmesio abiejose Atlanto pusėse.
Praėjusią savaitę JAV federalinė prekybos komisija pradėjo tyrimą dėl dirbtinio intelekto startuolių „OpenAI“ ir „Anthropic“ ir jas finansavusių technologijų milžinių „Amazon“, „Google“ ir „Microsoft“ ryšių. 27 ES valstybių narių ir Jungtinė Karalystės konkurencijos priežiūros institucijos taip pat tiria „Microsoft“ investicijas į „OpenAI“.
ES šiuo metu baigia rengti pirmąjį pasaulyje dirbtinio intelekto įstatymą. Tikimasi, kad 27 bloko valstybės narės penktadienį per svarbų balsavimą jam pritars.