OpenAI introduce control parental în ChatGPT

OpenAI introduce control parental în ChatGPT

OpenAI a anunțat marți, pe blogul oficial, că va introduce un mecanism de control parental pentru ChatGPT, ca răspuns la îngrijorările legate de expunerea adolescenților la inteligența artificială fără suficiente măsuri de siguranță.

Anunțul vine la câteva zile după ce părinții unui adolescent californian de 16 ani au intentat un proces împotriva companiei, acuzând că fiul lor s-a sinucis după ce ChatGPT i-ar fi oferit „instrucțiuni detaliate” pentru a-și pune capăt vieții și l-ar fi încurajat să facă acest gest.

„În următoarea lună, părinții vor putea să-și conecteze contul cu cel al adolescentului și să controleze modul în care ChatGPT îi răspunde, prin stabilirea unor reguli de comportament pentru model”, au comunicat reprezentanții companiei-mamă, citați de Le Figaro.

Noile modele vor detecta și semnala suferința emoțională

Pe lângă posibilitatea de a seta reguli de interacțiune, părinții vor putea fi alertați în cazul în care sistemul detectează semne de „criză emoțională acută” în conversațiile cu adolescentul.

În următoarele 120 de zile, compania va implementa și alte funcționalități menite să sporească siguranța utilizatorilor tineri.

Printre acestea se numără redirecționarea „conversațiilor sensibile” către modele AI de tip GPT-5-thinking, capabile de un raționament mai avansat și de respectarea mai strictă a instrucțiunilor de siguranță: „Continuăm să îmbunătățim modul în care modelele noastre recunosc și răspund la semnele de suferință mentală și emoțională”.

GPT-5 Thinking este varianta „de raționament profund” a GPT-5, un model conceput să gândească mai mult înainte de a răspunde, pentru sarcini grele sau sensibile.

E mai lent și folosește mai multă putere de calcul, dar oferă rezolvări mai riguroase și urmează mai strict regulile de siguranță.

Decizia companiei marchează o schimbare importantă în modul în care OpenAI abordează siguranța minorilor în interacțiunile cu ChatGPT, în condițiile în care tot mai multe voci cer măsuri clare de protecție pentru aceștia în relația cu inteligența artificială.