Nel 2019 un programmatore ha creato un’applicazione basata su intelligenza artificiale che, utilizzando reti neurali, è in grado di rimuovere i vestiti dalle immagini di donne facendole sembrare realisticamente nude.
Il programma chiamato “Deep Nude” utilizza reti antagoniste generative (in inglese generative adversarial network – GAN) che sono alla base dei deepfakes che a loro volta vengono utilizzati per modificare video e immagini, per esempio per sostituire il volto di una persona in un film.
Non è un software in grado di “spogliare” tutto.
Di fatto questo software non è in grado di spogliare di tutto e di più come molti giornali hanno riportato. I risultati sono molto blandi se nella foto il soggetto è ben vestito o ha scarsa illuminazione o forti contrasti.
Il risultato dell’elaborazione invece è molto veritiero se si utilizza un’immagine “già parzialmente spogliata” come una foto in bikini, frontale e con giusta illuminazione.
L’algoritmo è in grado di ricostruire con accuratezza le parti nude del corpo generando un’immagine coerente con quella fornita in input (perché di questo si tratta).
In pratica questo “robot” è stato addestrato a “studiare” le immagini sulla base di un database contenente 10.000 foto di donne nude per poi essere in grado di “eliminare” i vestiti da un corpo ricostruendo pixel per pixel la nuova immagine del corpo nudo.
L’applicazione, apparsa sul mercato a giugno 2019, ha avuto vita breve in quanto ha scatenato le ire del mondo web e dei media. A causa di questo putiferio che si è creato Alberto, nome in codice del programmatore che ha creato il software, ha ritirato l’applicazione dal mercato.
Ma mentre Alberto ha chiuso la sua attività altri hanno aperto i loro canali per svolgere attività simili.
È recente la scoperta di una tecnologia molto simile utilizzata da un bot disponibile pubblicamente su Telegram. Questa volta ha un’ interfaccia utente ancora più semplice: chiunque può inviare una foto al bot tramite l’app mobile o via web e ricevere un nudo in pochi minuti.
Interviene il Garante per la Privacy
Notizie di stampa, nei giorni scorsi, hanno riportato il caso di alcune ragazze vittime di un particolare tipo di “deep fake”, cioè video e immagini realizzati attraverso delle app che consentono di trasformare il volto, la voce e il corpo delle persone, creando veri e propri “falsi”.
Le ragazze si sono ritrovate, a loro insaputa, “spogliate” su Telegram dopo che alcuni utenti avevano manipolato le loro foto.
Preoccupato per gli effetti prodotti del software e dalla sua diffusione tra gli utenti del social, il Garante per la protezione dei dati personali ha deciso di aprire un’istruttoria nei confronti di Telegram, social già oggetto di un’attività di verifica da parte dell’Autorità.
Le gravi lesioni alla dignità e alla privacy a cui l’uso di un software simile espone le persone, soprattutto se minori, sono evidenti, considerati anche il rischio che tali immagini vengano usate a fini estorsivi o di revenge porn e tenuto conto dei danni irreparabili a cui potrebbe portare una incontrollata circolazione delle immagini, fino a forme di vera e propria viralizzazione. La facilità d’uso di questo programma rende, peraltro, potenzialmente vittime di deep fake chiunque abbia una foto sul web. Scrive il Garante sul suo sito
Il Garante chiederà a Telegram di fornire informazioni, al fine di verificare il rispetto delle norme sulla protezione dei dati nella messa a disposizione agli utenti del programma informatico, nonché di accertare l’eventuale conservazione delle immagini manipolate e le finalità di una tale conservazione.
Oltre all’avvio dell’istruttoria, il Garante sta valutando ulteriori iniziative per contrastare gli usi illeciti di questo tipo di software e contenere gli effetti distorsivi del più ampio fenomeno del deep fake.