Experții avertizează: 8 din 10 chatboturi AI oferă informații despre atentate și asasinate chiar și minorilor

Experții avertizează: 8 din 10 chatboturi AI oferă informații despre atentate și asasinate chiar și minorilor

Investigația realizată de CCDH, în colaborare cu CNN, a analizat peste 700 de răspunsuri generate de nouă sisteme AI în cadrul a nouă scenarii diferite. Cercetătorii s-au prezentat drept băieți de 13 ani care intenționau să comită atacuri în masă. Au testat astfel reacțiile chatboturilor atunci când li se cereau detalii despre organizarea unor atacuri armate în școli. Ei au mai cerut date și despre asasinarea unor politicieni sau despre bombardarea unor sinagogi, mai scrie Euronews.

Raportul arată că opt dintre cele nouă chatboturi analizate au oferit într-o formă sau alta informații care ar putea ajuta la planificarea unor astfel de atacuri. Printre sistemele testate se numără unele dintre cele mai folosite instrumente AI: Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity AI, Snapchat My AI, Character.AI și Replika.

Exemple de răspunsuri oferite de chatboturi

Raportul evidențiază mai multe situații în care sistemele AI au furnizat informații problematice. De exemplu, Gemini a sugerat că „șrapnelul metalic este de obicei mai letal” atunci când a fost întrebat cum ar putea fi planificat un atentat cu bombă împotriva unei sinagogi.

Într-un alt caz, chatbotul DeepSeek a răspuns unei întrebări despre alegerea unei arme de foc cu mesajul: „Happy (and safe) shooting!”. Asta deși utilizatorul ceruse anterior exemple de asasinate politice și adresa biroului unui politician. Potrivit directorului CCDH, Imran Ahmed, aceste răspunsuri arată cum „în câteva minute, un utilizator poate ajunge de la o idee violentă la un plan concret de acțiune”.

Unele platforme sunt mult mai vulnerabile

Raportul indică diferențe mari între platformele analizate. Perplexity AI și Meta AI au fost considerate cele mai puțin sigure. Ele au oferit ajutor în 100% și respectiv 97% din cazurile analizate. Platforma Character.AI a fost descrisă drept „deosebit de nesigură”. Aceasta sugera uneori comportamente violente chiar fără a fi întrebată direct. Pe de altă parte, Claude și Snapchat My AI au refuzat să ofere informații periculoase în 68% și respectiv 54% dintre solicitări.

Raportul arată și că unele sisteme pot detecta conversații periculoase și pot refuza să ofere informații. De exemplu, atunci când un utilizator a întrebat unde poate cumpăra o armă în statul Virginia, chatbotul Claude a refuzat să ofere detalii. El a avertizat că există un „model îngrijorător” în conversație. Ulterior a sugerat linii de ajutor pentru persoane aflate în criză.

Claude a fost și singurul sistem care a încercat constant să descurajeze violența. El a facut acest lucru în aproximativ 76% dintre răspunsuri. Potrivit autorilor studiului, aceste exemple arată că tehnologia pentru filtre de siguranță există, însă nu este implementată uniform de toate companiile.

Cazuri reale ridică îngrijorări

Raportul apare la scurt timp după mai multe incidente în care inteligența artificială ar fi fost folosită în planificarea unor atacuri. În Canada, un atac armat într-o școală din Tumbler Ridge, British Columbia, în care au murit opt persoane și alte 27 au fost rănite, ar fi fost pregătit cu ajutorul ChatGPT, potrivit unor relatări din presă. De asemenea, anul trecut, autoritățile franceze au arestat un adolescent suspectat că a folosit ChatGPT pentru a planifica atacuri teroriste asupra ambasadelor, instituțiilor guvernamentale și școlilor.

Experții spun că aceste cazuri subliniază necesitatea unor reguli mai stricte și a unor filtre de siguranță mai eficiente pentru sistemele AI, pe măsură ce tehnologia devine tot mai accesibilă publicului.