OpenAI je ponovo meta pritužbe, ovoga puta na privatnost u Austriji, od strane zastupničke grupe pod nazivom NOYB, što je skraćenica od None of Your Business.
U žalbi se navodi da je ChatGPT bot u više navrata davao netačne informacije o stvarnom pojedincu (koji iz razloga privatnosti nije naveden u žalbi), kako prenosi Rojters. Ovo može da predstavlja kršenje pravila privatnosti ЕU.
Četbot je navodno izmislio netačne podatke o datumu rođenja osobe, umjesto da samo kaže da ne zna odgovor na upit. AI četbotovi vole da samouvjereno izmišljaju stvari i nadaju se da ljudi to neće primijetiti. Ovaj fenomen se naziva halucinacija.
U žalbi se takođe navodi da je OpenAI odbio da pomogne u brisanju lažnih informacija, odgovarajući da je tehnički nemoguće izvršiti takvu promjenu. Kompanija je ponudila da filtrira ili blokira podatke na određenim upitima. Politika privatnosti kompanije OpenAI kaže da ako korisnici primijete da je AI četbot generisao “činjenično netačne informacije” o njima da mogu da podnesu “zahtjev za ispravku”, ali kompanija kaže da “možda neće moći da ispravi netačne informacije u svim slučajevima”.
Sklonost četbota da izmišlja stvari mogla bi da bude u suprotnosti sa Opštom uredbom o zaštiti podataka u regionu (GDPR), koja reguliše kako lični podaci mogu da se koriste i obrađuju.
“Jasno je da kompanije trenutno ne mogu da natjeraju četbotove kao što je ChatGPT da budu u skladu sa zakonima ЕU, kada obrađuju podatke o pojedincima”, rekao je u saopštenju Martje de Graf, advokat za zaštitu podataka NOYB-a. “Ako sistem ne može da proizvede tačne i transparentne rezultate, ne može se koristiti za generisanje podataka o pojedincima. Tehnologija mora da prati zakonske zahtjeve, a ne obrnuto”.
Ipak, ovo je pritužba zastupničke grupe i regulatori iz ЕU bi tek trebalo da komentarišu ovaj incident. Međutim, OpenAI je u prošlosti priznao da ChatGPT “ponekad piše odgovore koji zvuče uvjerljivo, ali su netačne ili besmisleni”. NOYB se obratio austrijskoj Upravi za zaštitu podataka i zatražio od organizacije da istraži problem.
OpenAI nije odgovorio na ovu najnoviju žalbu, ali je odgovorio na regulatornu odluku koju je ranije objavio italijanski DPA. “Želimo da naša vještačka inteligencija uči o svetu, a ne o privatnim licima”, istakla je kompanija. “Aktivno radimo na smanjenju ličnih podataka u obuci naših sistema kao što je ChatGPT, koji takođe odbija zahtjeve za privatne ili osjetljive informacije o ljudima”.
(Vijesti.ba)