Itaallastele nimelt ei meeldinud, et OpenAI meeskond kasutas oma roboti treenimisel kogu internetti, seal hulgas ka netis rippunud inimeste andmeid. „Garante ütles, et vaadake, meie ei saa aru, kust on ChatGPT üldse võtnud aluse oma mudeli treenimiseks seoses isikuandmetega, mis ühel või teisel moel ChatGPT väljundist esile kerkivad,“ selgitas advokaadibüroo Eversheds Sutherland intellektuaalomandi ja andmekaitseõiguse juht vandeadvokaat Tambet Toomela. Samuti oli OpenAI meeskonnal Garante hinnangul mitmed probleemid läbipaistvusnõuete täitmisega.

Toomela sõnul on OpenAI põhimõtteliselt öelnud, et treenitud mudelis on rakendatud meetmeid isikuandmete väljafiltreerimiseks ja isikuandmete kaitseks. Lisaks peaksid vastavalt kasutustingimustele isikuandmete kaitse eest hoolt kandma ka kasutajad.

„Garante vaidles neile vastu, et internetiavarustes väga palju isikuandmeid, mis on jumal teab kuidas sinna sattunud. Open AI peab suutma põhjendada, milliseid isikuandmeid, millisel viisil, millistel eesmärkidel ja alustel on kasutatud.“ kirjeldas Toomela Itaalia andmekaitseameti ja OpenAI meeskonna vahelist lahkheli.

Kümme erinevat vastust

Toomela sõnul on erinevad testid juba näidanud, et vestlusrobot avaldab erinevate märksõnade peale ka inimeste andmeid. Need ei pruugi sugugi korrektsed olla.

„ChatGPT ise ütleb, et ärge teie isikuandmetega midagi otsige, siis ei kaasne ka mingeid rikkumisi, kuid teiste isikute privaatsuse aspektist ei ole see reaalselt saavutatav tulemus,“ teatas Toomela. Ta rääkis, et on ise katsetanud juturobotit omaenda ja tuttavate nimedega. „Mingi arusaamatu loogika järgi ütleb robot ühel päeval, et austab isiku privaatsust ega saa tema kohta midagi öelda, järgmisel päeval annab aga sama nime peale infot, kus inimene näiteks töötanud on ja mis ta muidu elus teeb.“ Kolmandal päeval võib robot taas inimese andmeid kaitsta.

Toomela tõi võrdluseks Google’i otsingumootori, mis annab alati sama vastuse, küsi kasvõi nädal aega järjest. „ChatGPT on teistmoodi, sa võid sama asja küsida kümme korda järjest ja saad iga kord erineva vastuse,“ oli Toomela kriitiline.

Andmekaitse ekspert rääkis, et robot võib inimese kohta ka täiesti eksitavat informatsiooni anda. Nii on ta näiteks tuttavate nimesid testides avastanud, et inimese andmed on kokku segatud tema vanemate omadega ja tuttav võib ChatGPT kinnitusel olla näiteks arst, näitleja ja poliitik korraga. „ChatGPT-s tuleb inimeste kohta andmeid välja siis, kui ei peaks tulema, ja pealegi veel ebaõigeid,“ nentis Toomela.

Andmekaitse ekspert Tambet Toomela nentis, et tema arvates on OpenAI meeskonnal isikuandmete õiguslikku kasutamist päris raske tõestada.

Pole veel sotti saadud

Kuigi OpenAI andis ChatGPT välja möödunud aasta novembris, keelustas Itaalia Garante vestlusroboti märtsis. Toomela sõnul on robot siiski päris uus, seetõttu ei tabatud andmekaitse tingimustest möödahiilimist varem. „Mõned kuud on läinud, kõik on seda nähtust imetlenud, aga keegi pole selle loogikatest ja kõigist õiguslikest riskidest veel lõpuni aru saanud,“ rääkis ta.

Toomela sõnas, et Itaalia oli teistest riikidest lihtsalt kiirem. „Aga ei saa välistada, et kui Itaalia poleks robotit keelustanud, oleks mõni teine riik olnud esimene,“ arutles ta.

Andmekaitseekspert tõi paralleeli Meta ja Google’iga, kes on mõlemad EL-i karmide privaatsusreeglite peale pahaseks saanud ja ähvardanud oma teenuse pakkumisest loobuda. Toomela sõnul seisab ka ChatGPT valiku ees. „Kas neil on lihtsam öelda, et teate, meil ei ole selleks aega ega ressurssi, me liigume edasi ega tegele sellega, või nad ikkagi võtavad seda tõsiselt ja tahavad oma teenust pakkuda ka Euroopas,“ rääkis Toomela, „Itaaliaga on Open AI-l läbirääkimised hetkel pooleli ja saame näha, mis on nende tulemus.“

Suurriigid ees, Euroopa kosena järel

Trall juturoboti ümber toimub praegu küll Itaalias, kuid juhtunu mõjutab kogu Euroopat, ka Eestit. „Prantsusmaa ja Saksamaa andmekaitseasutused on samuti tuld võtnud ja suhtlevad praegu väga tihedalt Garantega,“ rääkis Toomela. Tema sõnul ei ole üldse välistatud, et lähiajal toimub ChatGPT ajutine keelustamine ka nendes riikides. Vähemalt seni, kuniks asjad ei ole paremini selgitatud.

„Itaalia, Saksamaa ja Prantsusmaa on ikkagi Euroopa juhtivad riigid, ja kui nemad peaksid ChatGPT kasutamise ära keelama, siis on täiesti kindel, et sealt edasi läheb kosena kogu ülejäänud Euroopas ka,“ tõdes Toomela.

Andmekaitse eksperdi sõnul ongi praegu küsimus selles, kas me kasutame ChatGPT-d praegu viimaseid päevi või jääb Itaalia isoleeritud juhtumiks. „Keelustamine võib toimuda täiesti üleöö,“ märkis Toomela, „Võib vabalt olla, et täna kasutame õndsalt ChatGPT-d, aga homme tuleb Saksamaalt ja Prantsusmaalt otsus Itaaliaga ühineda ning ülehomme on juturobot Eestis ka kinni.“

Itaalia esitas neli tingimust

Andmekaitse Inspektsiooni (AKI) rahvusvahelise õiguse valdkonna juht Kirsika Berit Reino sõnas, et ka Eesti on ChatGPT-l mingil määral silma peal hoidnud. Juturobotit menetlema pole AKI Itaalia eeskujul siiski hakanud.

Reino rääkis, et Itaalia esitas OpenAI-le juturoboti taasavamiseks neli tingimust. OpenAI peab:

  1. looma ChatGPT-le andmekaitse tingimused ja vaatama üle õigusliku aluse

  2. looma kasutajatele võimaluse oma isikuandmeid mudelis parandada

  3. määrama vestlusroboti kasutamiseks vanusepiiri ja tõstma selle 13. eluaastani

  4. tegema Itaalia järelvalveametiga koostööd, et tõsta inimeste teadlikkust selle osas, kuidas tehisintellekt isikuandmeid treenimiseks kasutab

Itaalia teatas eelmisel nädalal ilmunud pressiteates, et kui OpenAI need tingimused täidab, saavad riigi elanikud vestlusrobotit taas kasutada.

Reino sõnul ei oska AKI praegu öelda, kui vajalikud Itaalia etteheited olid, ent 13. aprillil otsustati Euroopa Andmenõukogus luua rakkerühm, mis ChatGPT andmekaitset täpsemalt uurima hakkab. Rakkerühmas osalevate riikide hulka kuulub ka Eesti.

Itaalia jõudis vestlusroboti keelustamiseni viie kuuga. Reino sõnul võtab isikuandmete töötlemise menetlemine kõvasti aega. „Võib-olla alustas Itaalia menetlemist kohe, kui ChatGPT välja tuli,“ pakkus ta.

Seda, kui tõenäoliselt Eesti vestlusroboti keelab, Reino öelda ei osanud. Ta lausus, et keelustamine sõltub sellest, kas ja milliseid andmekaitse rikkumisi äsjaloodud rakkerühm leiab.