Cine plătește când AI-ul greșește? Mai multe companii au dat în judecată AI-ul Google și Meta pentru că a generat informații false care le-a distrus reputația

Reprezentanții de vânzări ai Wolf River Electric, o companie de panouri solare din Minnesota, au observat o creștere neașteptată a contractelor anulate la sfârșitul anului trecut. Când au întrebat foștii clienți de ce au renunțat, răspunsurile i-au lăsat fără cuvinte, relatează NYtimes.
Clienții au spus că au renunțat după ce au aflat din căutările Google că firma ar fi încheiat un proces cu procurorul general al statului pentru practici comerciale înșelătoare. Însă compania nu a fost niciodată dată în judecată de guvern și nu a încheiat niciun astfel de acord.
Problema s-a agravat când conducerea Wolf River a verificat personal. Rezultatele căutărilor generate de Gemini, tehnologia de inteligență artificială a Google, afișau aceste informații false în topul paginii, iar mențiunile despre presupusa soluționare a procesului apăreau automat când se căuta „Wolf River Electric”.
Cu anulările în creștere și fără succes în corectarea informațiilor, Wolf River a decis să dea în judecată gigantul tech pentru defăimare.
„Am investit mult timp și energie pentru a construi o reputație bună”, a spus Justin Nielsen, fondatorul Wolf River în 2014. „Când clienții văd un semnal de alarmă ca acesta, e aproape imposibil să îi recâștigi.”
Cel puțin șase procese pentru conținut generat de instrumente AI
Acesta este unul dintre cel puțin șase cazuri de defăimare intentate în SUA în ultimii doi ani pentru conținut generat de instrumente AI care creează texte și imagini. Reclamanții susțin că tehnologia nu doar că a creat informații false și dăunătoare despre persoane sau grupuri, dar a continuat să le publice chiar și după ce companiile dezvoltatoare au fost informate despre problemă.
Spre deosebire de alte procese pentru calomnie sau defăimare, aceste cazuri încearcă să definească drept defăimător un conținut necreat de oameni, un concept nou pentru experții juridici.
„Nu există nicio îndoială că aceste modele pot publica afirmații dăunătoare”, a spus Eugene Volokh, expert în Primul Amendament la UCLA. În 2023, el a dedicat un întreg număr al publicației Journal of Free Speech Law întrebării despre defăimarea prin AI.
AI-ul, comparat cu monstrul lui Frankenstein
„Întrebarea este: cine răspunde pentru asta?” a spus Volokh.
Unul dintre primele cazuri de defăimare prin AI a fost depus în Georgia în 2023. Reclamanții au susținut că chatbot-ul ChatGPT le-a afectat reputația, afirmând fals că Mark Walters, gazdă radio și susținător al Dreptului la armă, fusese acuzat de delapidare.
În multe cazuri de defăimare din SUA, esențial este să se dovedească intenția. Dar, fiind imposibil de știut ce se întâmplă în algoritmii AI, reclamanții au încercat să dea vina pe compania care a creat codul, în acest caz OpenAI.
„Frankenstein nu poate crea un monstru care să umble și să ucidă oameni și apoi să spună că nu are nicio responsabilitate pentru asta”, a spus John Monroe, avocatul lui Walters.
În multe cazuri de defăimare din SUA, esențial este să se dovedească intenția. Dar, fiind imposibil de știut ce se întâmplă în algoritmii AI, reclamanții au încercat să dea vina pe compania care a creat codul, în acest caz OpenAI.
Momentan, niciun caz de defăimare AI nu a ajuns la juriu
„Nu poți crea un monstru și apoi să spui că nu ai nicio responsabilitate pentru ce face”, a spus John Monroe, avocatul lui Walters.
Cazul lui Walters a fost respins în mai, înainte de a ajunge în instanță, parțial pentru că jurnalistul care a folosit ChatGPT a verificat rapid informația și a constatat că era falsă. Judecătorul Tracie Cason a subliniat că un element crucial este dacă terții cred că afirmația defăimătoare este adevărată.
Până acum, niciun caz de defăimare prin AI din SUA nu a ajuns la juriu. Totuși, un alt caz, intentat în aprilie împotriva Meta de Robby Starbuck, influencer cunoscut pentru campaniile sale împotriva programelor DEI (diversitate, echitate, incluziune), a fost soluționat.
Starbuck a susținut că, derulând pe platforma X, a găsit o imagine cu informații false despre el generate de Llama, un chatbot AI al Meta. Textul afirma că Starbuck ar fi fost la Capitoliu pe 6 ianuarie 2021 și ar fi avut legături cu teoria conspirației QAnon, în timp ce el era acasă în Tennessee.
Meta a soluționat cazul în august fără a răspunde oficial la plângere, iar ca parte a acordului, l-a angajat pe Starbuck ca consilier pentru supravegherea AI-ului companiei.
