Il Primato Nazionale mensile in edicola

Londra, 21 ott – Le foto che le ragazze minorenni condividono sui loro social media vengono utilizzate per farle apparire nude da un bot deepfake molto popolare sull’app di messaggistica Telegram: lo rivela un inquietante rapporto condotto in Gran Bretagna.

Migliaia di immagini “hard” ma fake in soli 2 mesi

Le immagini, piuttosto inquietanti, vengono create utilizzando un semplice algoritmo di intelligenza artificiale che può virtualmente rimuovere i vestiti, secondo gli autori del rapporto Sensity. Sono state condivise online più di 100.000 immagini sessuali non consensuali di oltre 10.000 donne e ragazze create utilizzando il bot, e questo solamente tra luglio 2019 e 2020.

Donne e minorenni sfruttate per la loro immagine

La maggior parte delle vittime sono delle perfette sconosciute e le loro immagini sono state raccolte dai loro social media: tutte sono donne e alcune sarebbero “visibilmente minorenni”, ha detto il team dietro il rapporto Sensity. Questa forma di deepfake porn non è nuova, si sospetta che la tecnologia alla base di questo bot sia basata su uno strumento prodotto l’anno scorso chiamato DeepNudeL’app di intelligenza artificiale è stata lanciata online ed era relativamente complicato da usare, ma ha permesso alle persone di caricare una foto di una donna e l’intelligenza artificiale avrebbe determinato l’aspetto che avrebbe avuto l’immagine magari di una tredicenne se questa fosse stata senza vestiti e dedita a pratiche hard. A quanto pare, gli utenti di Telegram hanno fatto incetta di una versione crackata di questa app.

App “spaventosamente” facile da usare

Sensity dice che ciò che rende questo bot particolarmente spaventoso è quanto sia facile da usare: richiede solo all’utente di caricare un’immagine di una ragazza, fare clic su alcuni pulsanti e quindi utilizza la sua “rete neurale” per determinare cosa ci sarebbe sotto i vestiti e produrre un nudo. Inutile dire che nel caso dei minorenni l’audience che fa crescere il valore di questa app non è di persone assennate, ma di certo di persone affini alla pedofilia. 

Telegram e “libertà di parola”

“L’innovazione qui non è necessariamente nel funzionamento dell’intelligenza artificiale”, ha detto a CNet Giorgio Patrini, CEO della società di ricerca deepfake Sensity e coautore del rapporto “ma l fatto che può raggiungere molte persone e molto facilmente”. Patrini afferma che questa nuova mossa, ovvero quella di utilizzare foto di privati ​​e “fingere” di farle fare dei film porno, è relativamente nuova e mette a rischio chiunque abbia un account sui social media. Il bot, che non è stato nominato, funziona sulla piattaforma di messaggistica privata di Telegram, che promuove fortemente l’idea della libertà di parola.

“Nessuno è al sicuro”

L’amministratore del bot, noto come “P”, ha detto alla BBC che il servizio era puramente per intrattenimento e che “non è vera violenza”. “Nessuno ricatterà nessuno con queste immagini, poiché la qualità non è realistica”. Circa il 70% di tutte le immagini utilizzate nell’app proveniva da social media o fonti private, come le foto di amici o persone che gli utenti, tra cui molti minorenni, conoscono. “Non appena condividi immagini o video di te stesso e forse non sei così consapevole della privacy di questo contenuto, chi può vederlo, chi può rubarlo, chi può scaricarlo senza che tu lo sappia, questo apre effettivamente la possibilità essere ‘sfruttato'”, ha detto Patrini a Buzzfeed News.

Ilaria Paoletti

La tua mail per essere sempre aggiornato

1 commento

  1. Una volta proponevano degli occhiali per vedere attraverso i vestiti (oggetto proposto dietro la schedina del totocalcio!)… Chi si azzardava a comprarli?! Sarebbe interessante sapere oggi i dati di vendita, uno spaccato di recente realtà eterogenica. Scherzi più pesanti a parte, siam sempre lì. A stuzzicare e guadagnare sulle patologie mentali!

Commenta