Semnal de alarmă în privința conversațiilor cu AI: Chatboții spun oamenilor ce vor să audă

Cercetătorii de la Universitatea Stanford din California avertizează că chatboții de inteligență artificială tind să le spună utilizatorilor ceea ce vor să audă, aspect care generează îngrijorări privind puterea lor de a distorsiona percepția de sine a oamenilor, scrie The Guardian.
Cercetătorii trag un semnal de alarmă în acest sens în contextul în care chatboții de inteligență artificială au devenit o sursă importantă de sfaturi privind relațiile și alte probleme personale.
„Principala noastră preocupare este că, dacă modelele confirmă mereu opiniile oamenilor, acest lucru poate distorsiona judecata lor despre ei înșiși, relațiile lor și lumea din jur. Poate fi dificil să ne dăm seama că modelele le întăresc, în mod subtil sau mai puțin subtil, convingerile, presupunerile și deciziile existente”, a spus, potrivit The Guardian, Myra Cheng, informatician la Universitatea Stanford din California.
Ce au arătat testele efectuate de cercetători
Cercetătorii au efectuat teste pe 11 chatboți, printre care ChatGPT, Gemini, Claude, Llama și DeepSeek. Rezultatele au fost îngrijorătoare: când li s-a cerut sfaturi privind comportamentul, chatboții au aprobat acțiunile utilizatorilor cu 50% mai des decât oamenii. De asemenea, chatboții au validat opiniile și intențiile chiar și atunci când acestea erau iresponsabile sau înșelătoare.
„Lingușirea” din partea chatboților a avut un impact de durată: când au aprobat un anumit comportament, utilizatorii au evaluat răspunsurile mai bine, au avut mai multă încredere în instrumentele de inteligență artificială și au spus că sunt mai dispuși să le folosească pentru sfaturi în viitor.
Acest studiu vine după un raport despre utilizarea AI de către tineri, care a constatat că 30% dintre adolescenți au vorbit cu inteligența artificială în loc de persoane reale pentru „conversații serioase”.
