Boții de inteligență artificială (AI) îi fascinează pe pasionații de tehnologie și sunt folosiți tot mai des de companii, de la cele mai mici până la cele mai mari, iar în destul de multe situații furnizează informații false sau înșelătoare.

Un exemplu este funcția de căutare a Google, AI Overviews, care se confruntă cu o antipatie crescândă, după ce utilizatorii au semnalat unele răspunsuri inexacte și înșelătoare la întrebări, relatează Euronews.com.

AI Overview, care a fost lansat în urmă cu două săptămâni, are scopul de a ajuta utilizatorii să răspundă la „întrebări mai complexe”, după cum explicau cei de la Google pe blogul oficial.

În schimb, a produs serie răspunsuri false, de la sfaturi cum ar fi să folosești lipici pentru a nu-ți mai aluneca pizza de pe cutie până la propagarea unor conspirații care au fost deja clarificate, cum că fostul președinte american Barack Obama ar fi musulman.

Răspunsurile date de AI Overview sunt doar cele mai recente astfel de exemple dintr-o serie de exemple în care modelele de chatbot răspund incorect.

Un studiu realizat de Vectara, un startup de inteligență artificială generativă, a constatat că chatboții de inteligență artificială au inventat informații în cam între 3 și 27% din cazuri, în funcție de bot.

Ce sunt halucinațiile AI?

Modelele de limbaj mari (LLM), care stau în spatele chatboților precum ChatGPT de la OpenAI și Gemini de la Google, învață să prezică un răspuns pe baza tiparelor pe care le observă.

Modelul calculează care va fi cel mai probabil următor cuvânt din întrebarea utilizatorului pe baza a ceea ce găsește în baza de date, explică Hanan Ouazan, partener și lider AI generativ în cadrul companiei Artefact.

„Exact așa funcționăm și noi ca ființe umane, gândim înainte de a vorbi”, a declarat Ouazan pentru Euronews.

Dar, uneori, datele pe care se bazează chatbotul pot fi incomplete sau părtinitoare, ceea ce duce la răspunsuri incorecte sau „halucinații AI”.

Pentru Alexander Sukharevsky, partener senior QuantumBlack la McKinsey, este mai corect să numim AI ca fiind o „tehnologie hibridă”, deoarece răspunsurile oferite de chatbot sunt „calculate matematic” pe baza datelor pe care le observă.

Nu există niciun alt motiv pentru care apar halucinații, susțin cei de la Google, explicând că este doar o problemă cauzată de cantitatea insuficientă de informații pe care se bazează tehnologie, ceea ce duce la presupuneri incorecte.

Google a identificat mai multe tipuri de halucinații ale inteligenței artificiale, cum ar fi predicții incorecte ale evenimentelor care ar putea să nu se întâmple efectiv sau identificarea falsă a unor amenințări inexistente.

Google recunoaște, însă, că pot exista consecințe semnificative generate de halucinațiile AI. Un exemplu ar fi utilizarea unui asistent AI pentru sectorul medical, care are rolul de a ajuta medicii să detecteze diverse tipuri de cancer și să dea rezultate eronate.

Halucinațiile AI nu sunt rele în toate cazurile

Igor Sevo, șeful AI la HTEC Group, o firmă globală de dezvoltare de produse, afirmă că aceste halucinații pot fi și utile dacă sunt folosite în scopuri creative.

„Problema este acum să facem tehnologia să facă diferența între creativitate și adevăr”, a spus el.

Evident, dacă un poet, un scriitor sau un artist plastic vrea să se folosească de AI ca instrument pentru a-și găsi noi surse de inspirație, capacitatea unui bot AI de a veni singur cu anumite propuneri în sfera creației artistice ar putea fi de folos.

De cealaltă parte, când vine vorba de a produce rezultate concrete, cum ar fi știri sau informații științifice, AI nu ar trebui să producă aceste „halucinații”.

Totul depinde de baza de date

Hanan Ouazan a explicat că acuratețea unui chatbot se rezumă la calitatea setului de date pe care îl are la dispoziție.

Dacă o sursă [de date] nu este 100% completă, ar putea spune ceva care nu este corect. Acesta este principalul motiv pentru care avem halucinații AI”, a mai spus specialistul.

Ouazan a mai spus și că AI-ul nu are nevoie nu doar de mai multe date pentru a formula răspunsuri precise, ci surse din care să-și ia informațiile de calitate.

Sukharevsky de la McKinsey spune că nu este surprins că chatboții AI fac greșeli. Acesta spune că tehnologia trebuie să le facă, astfel încât oamenii care o dezvoltă să o perfecționeze.

„Cred că, la sfârșitul zilei, este o călătorie. Nici afacerile nu oferă cele mai bune servicii pentru clienți din prima zi”, a spus el.

Un purtător de cuvânt al Google a declarat pentru Euronews Next că AI Overviews a primit multe „interogări neobișnuite” care au fost fie falsificate, fie care nu au putut fi reproduse cu exactitate, ceea ce duce la răspunsuri false sau halucinate.

Cu alte cuvinte, și căutările utilizatorilor au fost unele aberante pentru care tehnologia nu avea un model de răspuns corespunzător.

Cei de la Google susțin că au făcut „testări ample” înainte de a lansa AI Overviews și că iau „acțiuni rapide” pentru a-și îmbunătăți sistemele.

Sursa foto: ChatGPT Dall-E

Abonează-te pe
9news.ro Promo

Calculator Salariu: Află câți bani primești în mână în funcție de salariul brut »

Despre autor
Wall-Street.ro este un cotidian de business fondat în 2005, parte a grupului InternetCorp, unul dintre cei mai mari jucători din industria românească de publishing online.Pe parcursul celor peste 15 ani de prezență pe piața media, ne-am propus să fim o sursă de inspirație pentru mediul de business, dar și un canal de educație pentru pentru celelalte categorii de public interesate de zona economico-financiară.În plus, Wall-Street.ro are o experiență de 10 ani în organizarea de evenimente B2B, timp în care a susținut peste 100 de conferințe pe domenii precum Ecommerce, banking, retail, pharma&sănătate sau imobiliare. Astfel, am reușit să avem o acoperire completă - online și offline - pentru tot ce înseamnă business-ul de calitate.

Te-ar putea interesa și:



Mai multe articole din secțiunea IT & C »



Setari Cookie-uri