Razgovor s umjetnom inteligencijom o prekidu veze ili „terapijska“ sesija s chatbotom možda ipak nisu ostali samo između vas i mašine, u nekim slučajevima u te su interakcije imali uvid i stvarni ljudi, upozorava izvještaj portala Business Insider.
Kao i drugi tehnološki giganti, Meta koristi vanjske saradnike za poboljšanje svojih AI sistema analizom stvarnih razgovora korisnika sa chatbotovima. Međutim, četvero zaposlenih preko firmi Outlier (u vlasništvu Scale AI) i Alignerr tvrdi da su redovno nailazili na sadržaje koji uključuju puno ime, broj telefona, e-mail adrese, fotografije, hobije i druge lične podatke korisnika.
Jedan od njih procijenio je da se lični podaci pojavljuju u više od polovine od nekoliko hiljada razgovora koje pregledaju sedmično. Dvoje radnika navelo je da su korisnici čak slali selfije i eksplicitne fotografije, a korisnici su dolazili iz različitih dijelova svijeta, uključujući SAD i Indiju.
Mnogi od pregledanih razgovora bili su izuzetno lične prirode – korisnici su se chatbotovima povjeravali kao prijateljima ili partnerima, iznosili fantazije, frustracije i tražili savjete. Navodili su svoje lokacije, radna mjesta, imena djece i druge informacije koje ih mogu identifikovati.
U okviru jednog projekta naziva Omni, čiji je cilj bio povećanje angažmana korisnika u aplikaciji Meta AI Studio, neki korisnici su dijelili intimne informacije i seksualno eksplicitan sadržaj. Radnici su pritom imali uvid i u korisničke profile koji su sadržavali ime, spol, grad i interese – dovoljno podataka da se identitet može lako otkriti putem Facebooka, što su novinari uspjeli učiniti za manje od pet minuta.
Portparol Mete izjavio je da kompanija ima „stroga pravila“ kada je u pitanju pristup ličnim podacima i da vanjski saradnici mogu vidjeti samo ono što je nužno za obavljanje zadatka. Međutim, dokumenti iz projekata koje je Business Insider pregledao pokazuju da su u nekim slučajevima lični podaci namjerno priloženi uz razgovore, kako bi chatbot mogao davati personaliziranije odgovore.
Kompanije Scale AI i Outlier navode da njihovi saradnici smiju obrađivati lične podatke isključivo u okviru zadatka te da svaki osjetljiv sadržaj mora biti označen i prijavljen. No, prema svjedočenju radnika, to u praksi često ne funkcioniše.
Iako Metina pravila korištenja navode da se korisnički razgovori mogu pregledavati ručno ili automatski, većina korisnika toga nije svjesna, kaže Miranda Bogen iz AI Governance Laba, nezavisne organizacije za digitalna prava.
„Ljudi doživljavaju razgovor s chatbotom kao intiman prostor, čak i terapeutski, i ne očekuju da će ih čitati stvarna osoba“, ističe Bogen. Dodaje kako postoji ozbiljan rizik od zloupotrebe podataka, manipulacije i prijevara, naročito kada se lični podaci kombinuju s emocionalnim i osjetljivim sadržajem.
Sistemi za automatsku anonimizaciju postoje, ali nisu savršeni, zbog čega su ljudski recenzenti i dalje potrebni. Time se, međutim, otvara pitanje: ko zaista ima pristup vašim razgovorima i kako se ti podaci koriste?
Kako Meta razvija tzv. „superinteligenciju“ – AI koji vas poznaje i pomaže vam u svakodnevnim izazovima – raste i količina osjetljivih podataka koje sistem mora obraditi. To uključuje navike korisnika, emocionalno stanje, pa čak i zdravstvene i ljubavne probleme.
Aplikacija Meta AI trenutno još uvijek dopušta korisnicima da dijele razgovore javno, što znači da se neki mogu pojaviti u Google rezultatima, kao što se ranije dešavalo i s ChatGPT-om, sve dok OpenAI nije ukinuo tu opciju.