„Defăimările” AI Overviews pot ajunge să pună Google în boxa acuzaților. Cazul tocmai a fost trimis la un tribunal federal din Statele Unite
Cuprins
Motorul de căutare Google nu mai este doar un motor de căutare. De când Google a început să integreze funcția „AI Overviews”, acesta este și un chatbot cu inteligență artificială care răspunde la întrebările utilizatorilor fără ca aceștia să trebuiască să facă clic pe vreun link. Problema este că tehnologia subiacentă, marile modele de limbaj, funcționează în mod probabilistic, astfel încât tind să inventeze răspunsul atunci când nu sunt foarte sigure cum să răspundă.
O minciună credibilă.
De data aceasta, un răspuns inventat de AI Overviews ar putea să-l pună pe Google în boxa acuzaților. Reclamanta este Wolf River Electric, o companie de energie solară din Minnesota. Iar originea litigiului este, cu tot riskul de a fi redundant, o plângere care nu a existat niciodată.
Potrivit avocaților companiei energetice, căutarea termenilor „plângere împotriva Wolf River Electric” pe Google a determinat IA să răspundă cu calomnii. Ei citează un caz în care AI Overviews a răspuns că Wolf River Electric a fost dată în judecată de procurorul general din Minnesota pentru „practici de vânzare înșelătoare”, cum ar fi mințirea clienților cu privire la cât vor economisi și înșelarea proprietarilor pentru a semna contracte cu tarife ascunse.
IA a prezentat cazul cu deplină încredere, implicând patru dintre directorii companiei, pe nume: Justin Nielsen, Vladimir Marchenko, Luka Bozek și Jonathan Latcham, ajungând să afișeze o fotografie a lui Nielsen alături de acuzațiile false. Pentru a-și susține afirmațiile, IA a citat patru linkuri: trei articole de știri și un comunicat al procurorului general. Cu toate acestea, niciunul dintre linkuri nu menționa un proces împotriva Wolf River Electric.
Nu este prima dată.
Acest tip de eroare este cunoscut sub numele de „halucinație” și este foarte frecvent în modelele de limbaj, datorită modului în care acestea construiesc răspunsul prin predicția cuvintelor următoare, uneori tragând eroarea inițială până când o transformă într-o minciună credibilă, cu tot felul de ramificații inventate, ca în jocul telefonului stricat.
Când Google a început să integreze AI Overview în motorul de căutare, a trebuit să îl retragă din unele căutări, în special din cele legate de rețete și nutriție, deoarece ajunsese să recomande adăugarea de lipici în pizza sau consumul unei pietre pe zi pentru a rămâne sănătos.
Un răspuns pentru fiecare întrebare.
Wolf River Electric afirmă că, din cauza a ceea ce au citit în AI Overviews, mai mulți clienți și-au anulat contractele, în valoare de până la 150.000 de dolari. Problema este că răspunsurile AI Overviews sunt personalizate: sunt deduse pe moment, deci pot varia de la o întrebare la alta.
Avocații Wolf River Electric nu sunt îngrijorați de acest lucru, deoarece știu că se poate întâmpla din nou. „Acest proces nu vizează doar apărarea reputației companiei noastre, ci și apărarea echității, adevărului și responsabilității în era inteligenței artificiale”, spune Nicholas Kasprowicz, consilier juridic al companiei.
David împotriva lui Goliat.
Cazul a fost prezentat în martie într-un tribunal statal și tocmai a fost trimis la un tribunal federal din Statele Unite. Poate că va crea un precedent în ceea ce privește responsabilitatea unei companii de tehnologie pentru generarea și difuzarea dezinformării de către IA. Răspunsul la această întrebare ar putea marca un punct de cotitură pentru companiile de IA, care au încercat mult timp să evite responsabilitatea pentru rezultatele modelelor lor lingvistice.
Google, în apărarea sa, a calificat incidentul drept un accident inofensiv. „Marea majoritate a AI Overviews sunt precise și utile, dar, ca în cazul oricărei tehnologii noi, pot apărea erori”, a explicat un purtător de cuvânt al companiei. Google susține că a acționat rapid pentru a remedia problema imediat ce a fost adusă la cunoștință, în conformitate cu eforturile recente de a permite utilizatorilor să corecteze erorile AI.