Brian Hood, care a fost ales primar al orașului Hepburn Shire, la 120 km de Melbourne, în noiembrie anul trecut, și-a exprimat îngrijorarea cu privire la reputația sa după ce ChatGPT l-a menționat ca fiind condamnat într-un scandal de luare de mită transnațională care a implicat o filială a Băncii Rezervei Australiei la începutul anilor 2000.
Fotografie: Ilustrație
Domnul Hood a lucrat pentru Note Printing Australia, o filială a companiei, dar a fost cel care a informat autoritățile despre mituirea unor oficiali străini pentru a câștiga contractul de tipărire a bancnotelor și nu a fost niciodată acuzat, potrivit avocaților săi.
Avocații au declarat că au trimis o scrisoare de îngrijorare proprietarului ChatGPT, OpenAI, pe 21 martie, acordând OpenAI 28 de zile pentru a rectifica dezinformarea sau pentru a se confrunta cu un proces pentru defăimare.
Avocații spun că OpenAI, cu sediul în San Francisco, nu a răspuns încă la scrisoarea juridică a lui Hood. Dacă Hood dă în judecată, ar putea fi prima dată când cineva dă în judecată proprietarul ChatGPT pentru conținutul generat de acest model de inteligență artificială în rapidă evoluție.
Microsoft a integrat, de asemenea, ChatGPT în motorul său de căutare Bing încă din februarie. James Naughton, partener la firma de avocatură Gordon Legal a companiei Hood, a declarat pentru Reuters: „Acesta ar putea fi un moment de referință în sensul că aplică această lege privind defăimarea într-un nou domeniu al inteligenței artificiale.”
Daunele pentru defăimare în Australia sunt de obicei plafonate la aproximativ 400.000 de dolari australieni (269.360 de dolari americani). Avocatul Naughton a declarat că Hood nu știa numărul exact de persoane care au accesat informațiile false despre el – un factor care a determinat amenda – dar natura declarațiilor defăimătoare era suficient de gravă pentru ca acesta să solicite daune în valoare de 200.000 de dolari australieni.
Acest proces, dacă va continua, ar afecta și reputația ChatGPT pentru potențiala răspândire a dezinformării din cauza lipsei de citări în răspunsuri. Naughton a declarat: „Este dificil pentru oricine să știe ce se află în spatele informațiilor pe care le oferă și să înțeleagă cum a ajuns algoritmul la acel răspuns. Este foarte opac.”
Hoang Hai (conform Reuters)
Sursă






Comentariu (0)