Deepfake, ti spoglio con un clic

11 novembre 2023

Deepfake, ti spoglio con un clic

di Elena Di Giulio

 

L’intelligenza sarà anche “artificiale” ma la violenza è reale. E, ancora una volta, è sul corpo delle donne. Soprattutto delle giovani e giovanissime. Quello dei video e delle foto porno deepfake non consensuali non è più un caso isolato – se pur gravissimo – circoscritto ad uno scherzo di cattivo gusto o alla vendetta di un fidanzato ma ad un fenomeno di costume che cresce a ritmo esponenziale.

Un’indagine condotta da un ricercatore in collaborazione con WIRED ha messo in evidenza come negli ultimi sette anni siano stati caricati on line oltre 244mila video porno deepfake non consensuali. Solo nei primi nove mesi di quest’anno sono stati 113milla con un amento del 54% rispetto allo scorso anno. E le previsioni dicono che il 2023 vanterà il record per numero di video prodotti rispetto a tutti gli altri anni messi insieme. Questo sui siti rintracciabili, non si contano quelli che sfuggono al controllo, le chat e le email private, ecc.

Protagoniste e vittime sono quasi sempre le donne. Ed è storia antica. Secondo un’indagine di Sensity AI riportata dal The Washington Post  in un articolo molto interessante, il 96% dei deepfake ha a che fare, in un modo o nell’altro con la pornografia. Nel 99% dei casi, le immagini generate riguardano donne, che non hanno prestato il loro consenso. Ma se fino a qualche anno fa le vittime predestinate erano attrici o personaggi pubblici oggi no. «Ora è un fenomeno che prende di mira soprattutto le ragazze – ha dichiarato Sophie Maddocks, ricercatrice e sostenitrice dei diritti digitali presso l’Università della Pennsylvania – Giovani ragazze e donne che non sono sotto gli occhi di tutti“.

Non è uno scherzo, è un reato. Ne parliamo con l’Autorità Garante per l’infanzia.

Per togliere i vestiti ad una ragazza basta un clic. Per rimediare ai danni psicologici, ma non solo, provocati dalla diffusione di questi video e di queste foto non basta una vita. E allora, se chiunque può prendere una foto di una gita scolastica e trasformarla in una foto porno, con la ragazza inconsapevolmente svestita o un video pornografico e sostituire il volto della protagonista con quello della compagna di banco come ci si può difendere? Ne abbiamo parlato con Carla Garlatti, Autorità garante per l’infanzia e l’adolescenza.

Molte vittime sono giovanissime. Fino ad oggi il messaggio che abbiamo dato è stato quello di non diffondere foto “compromettenti”, di non fidarsi di nessuno. Ma adesso come possiamo proteggerle?  

Carla Garlatti

Innanzitutto, realizzare o diffondere un deepfake con immagini pornografiche di minorenni è un reato, quello di ‘pornografia virtuale’.  Le cronache riportano di indagini delle procure in diverse città italiane nei confronti di minorenni che hanno ‘spogliato’ virtualmente compagne di classe con app di intelligenza artificiale. Mi chiedo però se i ragazzi siano consapevoli che questi comportamenti sono puniti dal Codice penale. È necessaria un’azione educativa in tal senso, sia per responsabilizzare chi usa con leggerezza certi strumenti, sia per far comprendere che non si tratta di un gioco ma di un comportamento che produce danni nell’esistenza altrui. Allo stesso tempo è importante le vittime possono reagire con una denuncia e chiedere la rimozione delle immagini. È fondamentale poi che i ragazzi sappiano che pubblicare le proprie foto li espone anche a questi rischi. A maggior ragione dovrebbero usare tale cautela i genitori o gli adulti di riferimento che spesso pubblicano, senza pensarci troppo, fotografie dei figli in situazioni anche innocenti come una festa di compleanno o una giornata al mare.

L’intelligenza artificiale dovrebbe essere un’opportunità più che un pericolo. Eppure sembra che, ancora una volta, si stia abusando di una tecnologia. È davvero un pericolo per i nostri ragazzi?

Ogni tecnologia rappresenta un’opportunità e insieme un pericolo. Non esiste soltanto il fenomeno dei deepfake, ma anche quello di attribuire una fiducia eccessiva all’intelligenza artificiale. Il modello matematico che le fa funzionare si basa su un principio probabilistico e talora i risultati ai quesiti non sono corretti o fuorvianti. Insomma, per restare nel mondo dei ragazzi, non è affatto consigliabile usare ChatGPT o intelligenze artificiali simili per fare una ricerca scolastica se non si ha un’adeguata consapevolezza della logica che utilizzano e una conoscenza dell’argomento di cui si sta parlando. Solo con quest’ultima si può capire se le risposte ottenute sono corrette. Un uso inconsapevole dello strumento può far aumentare la quantità di informazioni false o errate che si condividono in rete, con effetti nefasti. Un minorenne ha meno strumenti ed esperienza rispetto a un adulto per capire cosa si trova di fronte. È bene quindi che un primo approccio con questa complessità avvenga a scuola, sotto la guida di un educatore adeguatamente formato.

Quella delle vittime di deepkake pornografici è una storia di sopravvissute.

Un clic è la vita di una ragazza si stravolge. Per sempre. A volte anche su ‘commissione’, perché aumentano i siti nei quali si chiede “mandami la foto di chi vuoi vedere nuda e io la “spoglio” per te”. E arrivano centinaia, migliaia di immagini. E non si illuda chi pensa che sia un fenomeno americano, le cronache sono piene di queste storie anche a casa nostra.

Intanto si attende che anche in Italia arrivi il film-documentario “Another Body” dove Taylor, vittima di deepfake pornografico racconta la sua storia. E molte altre storie. La speranza è che le vittime prendano consapevolezza che devono denunciare e chiedere giustizia. E che i carnefici si possano fermare. Ma questa è davvero una flebile speranza.

Foto: Tutte le immagini di questo articolo sono frutto di IA. L'immagine di copertina è ottenuta con una Swap Face