Marea Britanie vrea să interzică aplicațiile care pot realiza imagini nud deepfake ale copiilor

Ea afirmă că astfel de aplicații de „nudificare” au devenit atât de răspândite încât multe fete au încetat să mai posteze fotografii pe rețelele sociale. Cu toate că generarea sau încărcarea de imagini CSAM (Materiale conținând abuzuri sexuale asupra copiilor – n.r.) este ilegală, aplicațiile folosite pentru a crea imagini nud deepfake sunt încă legale.
„Copiii mi-au spus că sunt înspăimântați de simpla idee că această tehnologie este disponibilă, darămite folosită. Ei se tem că oricine – un străin, un coleg de clasă sau chiar un prieten – ar putea folosi un smartphone pentru a-i manipula prin crearea unei imagini nud folosind aceste aplicații personalizate”, a declarat Rachel de Souza. „Nu există niciun motiv pozitiv pentru ca aceste [aplicații] să existe”, a adăugat ea.
De Souza a subliniat că aceste aplicații AI sunt disponibile pe scară largă pe platformele principale, inclusiv pe cele mai mari motoare de căutare și magazine de aplicații. În același timp, acestea „vizează în mod disproporționat fetele și femeile tinere, iar multe instrumente par să funcționeze doar pe corpurile feminine”. Ea a adăugat că tinerii cer măsuri pentru a lua măsuri împotriva utilizării abuzive a acestor instrumente.
Comisarul solicită guvernului să introducă o interdicție totală asupra aplicațiilor care folosesc inteligența artificială pentru a genera deepfakes cu conținut sexual explicit. Ea vrea, de asemenea, ca guvernul britanic să stabilească sisteme eficiente pentru a elimina CSAM de pe internet și să recunoască abuzul sexual deepfake drept o formă dAe violență împotriva femeilor și fetelor.
Regatul Unit a luat deja măsuri pentru a interzice astfel de tehnologii prin introducerea de noi infracțiuni penale pentru producerea sau partajarea de deepfakes cu conținut sexual explicit. De asemenea, și-a anunțat intenția de a transforma în infracțiune faptul că o persoană face fotografii sau înregistrări video intime fără consimțământ