Inteligenţa artificială devine o unealtă majoră pentru infracţiuni, avertizează Anthropic

Cazurile documentate în raport includ un grup de criminalitate cibernetică care a folosit Claude pentru a obţine date de la cel puţin 17 organizaţii globale într-o singură lună, printre care instituţii medicale, servicii de urgenţă, organizaţii religioase şi agenţii guvernamentale. AI-ul a generat cereri de răscumpărare ţintite psihologic, iar suma cerută depăşea 500.000 de dolari.
Raportul mai descrie cum Claude a fost folosit pentru a ajuta angajaţi nord-coreeni să obţină fraudulos joburi în companii şi pentru a susţine escrocherii romantice prin mesaje emoţional inteligente trimise pe Telegram, targetând victime din SUA, Japonia şi Coreea.
Potrivit lui Jacob Klein, şeful echipei de inteligenţă privind ameninţările de la Anthropic, AI-ul a scăzut semnificativ barierele pentru criminalitate sofisticată, permiţând unei singure persoane să execute atacuri care anterior necesitau echipe întregi.
Deşi compania afirmă că a implementat măsuri de siguranţă şi securitate sofisticate, răufăcătorii găsesc în continuare modalităţi de a le ocoli. Fiecare caz investigat a dus la blocarea conturilor, actualizarea detectoarelor şi comunicarea informaţiilor către autorităţi.
Raportul subliniază că aceste modele de abuz observate la Claude probabil reflectă tipare similare în toate modelele AI avansate, evidenţiind riscurile sociale tot mai mari pe care le presupune folosirea sistemelor agentice capabile să execute acţiuni complexe.
Anthropic concluzionează că AI-ul nu mai este doar un chatbot: poate executa activităţi autonome, ceea ce creşte atât eficienţa, cât şi riscul în utilizarea sa necorespunzătoare.