На помолу нова тужба: ChatGPT воли да измишља

Г.С.
Foto: Илустрација

Четбот наводно није исправио нетачне информације о стварној особи, а из компаније ОпенАИ су рекли да не могу да интервенишу.

ОпенАИ је поново мета притужбе, овога пута на приватност у Аустрији, од стране заступничке групе под називом НОYБ, што је скраћеница од None of Your Business.

У жалби се наводи да је ChatGPT бот у више наврата давао нетачне информације о стварном појединцу (који из разлога приватности није наведен у жалби), како преноси Ројтерс. Ово може да представлја кршенје правила приватности ЕУ.

Четбот је наводно измислио нетачне податке о датуму рођенја особе, уместо да само каже да не зна одговор на упит. АИ четботови воле да самоувјерено измишлјају ствари и надају се да лјуди то неће примјетити. Овај феномен се назива халуцинација.

У жалби се такође наводи да је ОпенАИ одбио да помогне у брисању лажних информација, одговарајући да је технички немогуће извршити такву промјену.

Компанија је понудила да филтрира или блокира податке на одређеним упитима. Политика приватности компаније ОпенАИ каже да ако корисници примјете да је АИ четбот генерисао „чинјенично нетачне информације“ о нјима да могу да поднесу „захтјев за исправку“, али компанија каже да „можда неће моћи да исправи нетачне информације у свим случајевима“.

Склоност четбота да измишља ствари могла би да буде у супротности са Општом уредбом о заштити података у региону (ГДПР), која регулише како лични подаци могу да се користе и обрађују.

„Јасно је да компаније тренутно не могу да натјерају четботове као што је ChatGPT да буду у складу са законима ЕУ, када обрађују податке о појединцима“, рекао је у саопштењу Мартје де Граф, адвокат за заштиту података НОYБ-а. „Ако систем не може да произведе тачне и транспарентне резултате, не може се користити за генерисање података о појединцима. Технологија мора да прати законске захтјеве, а не обрнуто“.

Ипак, ово је притужба заступничке групе и регулатори из ЕУ би тек требало да коментаришу овај инцидент. Међутим, ОпенАИ је у прошлости признао да ChatGPT „понекад пише одговоре који звуче увјерљиво, али су нетачне или бесмислени“. НОYБ се обратио аустријској Управи за заштиту података и затражио од организације да истражи проблем.

ОпенАИ није одговорио на ову најновију жалбу, али је одговорио на регулаторну одлуку коју је раније објавио италијански ДПА.

„Желимо да наша вештачка интелигенција учи о свијету, а не о приватним лицима“, истакла је компанија.

"Активно радимо на смањењу личних података у обуци наших система као што је ChatGPT , који такође одбија захтјеве за приватне или осјетљиве информације о људима“.

 

Пратите нас на нашој Фејсбук и Инстаграм страници и Твитер налогу.

© АД "Глас Српске" Бања Лука, 2018., ISSN 2303-7385, Сва права придржана