Blog Simone
Spoglia chi vuoi con l’intelligenza artificiale
In questi giorni si sta parlando del caso che ha coinvolto Francesca Barra, giornalista, scrittrice e presentatrice italiana che ha denunciato la divulgazione su una piattaforma di immagini che la ritraggono nuda.
Le immagini, però, non sono fotografie, non sono scatti di momenti intimi condivisi da un ex o rubati da hacker. Le immagini in questione semplicemente non esistono, non sono rappresentazioni di momenti vissuti ma prodotti generati con l’intelligenza artificiale.
Nulla di nuovo (tristemente, verrebbe da aggiungere), quello della giornalista è “solo” l’ennesimo caso di divulgazione di deepfake che hanno come protagonista una donna e non aggiunge nulla a quanto già si sa sull’argomento.
L’episodio è, però, uno spunto per tornare sul tema dei deepfake e della manipolazione della realtà con l’intelligenza artificiale (ne avevamo già parlato qui), cercando di capire quali sono le azioni che possiamo compiere quando ci troviamo di fronte a episodi di questo tipo.
Cosa sono i deepfake?
Ogni giorno ci imbattiamo in deepfake ma non sempre li riconosciamo. Se sono chiaramente falsi i video che hanno come protagonisti personaggi famosi spesso defunti (ne sono un esempio i video che mostrano Stephen Hawking, che abbondano su piattaforme come X, o quello della lite tra Hitler e Michael Jackson), altri lo sono molto meno. Una cosa è certa: questi contenuti diventano sempre più credibili
Il «deepfake» altro non è che un’immagine o un contenuto audio o video generato o manipolato dall’IA che assomiglia a persone, oggetti, luoghi, entità o eventi esistenti e che apparirebbe falsamente autentico o veritiero a chi lo guarda o ascolta (così, l’AI Act). I deepfake, quindi, sono prodotti dall’uomo con l’utilizzo di intelligenza artificiale. Sono immagini che alterano la realtà partendo da foto reali o da una descrizione fatta dalla persona.
Non ci sono soltanto le immagini: con l’intelligenza artificiale si possono creare anche video iperrealistici. Sora2, che non è ancora disponibile in Europa, consente di creare avatar personalizzati caricando una foto che viene poi animata. Con il caricamento, ovviamente, condividiamo con le aziende di queste applicazioni dati biometrici.
I deepfake, però, non si utilizzano solo per immagini a sfondo sessuale. Con queste nuove tecnologie è possibile illustrare in modo realistico scene mai avvenute o far dire in video parole che non che non si direbbero mai (come avvenuto a molti politici vittime di deepfake).
Con il progredire di queste tecnologie diventa sempre più difficile riconoscere fake news e proteggersi dalle truffe, con il rischio di modificare il modo stesso in cui percepiamo la realtà e ciò che vediamo attraverso lo schermo.
In un primo momento il fenomeno ha coinvolto solo personaggi famosi (Taylor Swift, Jennifer Lawrence ecc.). Adesso, invece, complice la diffusione di programmi gratuiti che utilizzano l’AI, il fenomeno coinvolge tutti. Chiunque può diventare oggetto di azioni psicologicamente e socialmente molto dannose.
Le piattaforme che diffondono immagini di donne senza consenso non sono state tutte chiuse
Dopo il clamore mediatico del caso del gruppo Facebook “mia moglie”, dove venivano postate senza il consenso foto di mogli, compagne o ex, forse qualcuno immaginava una pulizia a tappeto del web. Purtroppo internet è uno spazio senza confini o limiti e ripulirlo è un’impresa impossibile, soprattutto ora che l’intelligenza artificiale rende le cose ancora più semplici e alla portata di tutti.
Il sito sul quale sono state diffuse le immagini di Francesca Barra, che ha subito denunciato l’episodio, si chiama socialmediagirls e conta più di 7 milioni di iscritti e una sezione molto particolare che viene descritta così “spoglia chi vuoi con l’intelligenza artificiale”.
Caratteristica di queste immagini è l’estrema verosimiglianza. Sono finte, ma talmente credibili da sembrare vere.
Siti come socialmediagirls, phica o mia moglie diventano ricettacoli di misoginia e commenti umilianti che desensibilizzano gli uomini dal concetto di limite e di umiliazione (proprio quando giorno dopo giorno si verificano nuovi casi di femminicidio). Ma tutto ciò è legale?
Diffondere deepfake è reato
L’Italia è il primo paese europeo che ha approvato una legge contro i deepfake. In base a tale legge, la diffusione o la pubblicazione senza il consenso della persona ritratta di immagini, video o voci falsificati o alterati tramite AI è un reato ed è punibile se provoca un danno ingiusto e se le immagini sono idonee a creare un dubbio sulla loro genuinità. Chi diffonde o pubblica tali immagini è punito con la reclusione da 1 a 5 anni.
Per agire contro questo reato, però, è necessaria la querela, cioè una dichiarazione da parte della persona offesa. La querela non è necessaria solo se si procede d’ufficio o se il reato è commesso contro un minore, una persona inferma o una pubblica autorità.
Fare i conti con le nuove tecnologie
Dover fare i conti con i deepfake è una delle sfide più importanti imposte dalla diffusione di sistemi di intelligenza artificiale. A tal proposito il Garante per la protezione dei dati personali ha rilasciato un vademecum. Come evidenziato dal Garante, i deepfake possono riguardare politici o opinion leader, con lo scopo di influenzare l’opinione pubblica. Sono uno strumento in più che va a favorire la diffusione di fake news e disinformazione e possono privare le persone della “autodeterminazione informativa” (cioè del diritto di far sapere di loro solo ciò che decidono di condividere), come pure ad incidere sulla loro libertà decisionale.
Come difendersi?
In attesa che aziende come Meta e Google trovino degli strumenti di contrasto contro i deepfake, la prima difesa deve venire dagli utenti.
La diffusione e condivisione di immagini false senza il loro consenso della persona ritratta è un reato. La prima cosa da fare è, quindi, sporgere querela presso i Carabinieri o la procura entro sei mesi dalla scoperta del contenuto. La querela non deve indicare per forza l’autore del reato (che potrebbe anche essere uno sconosciuto).
In secondo luogo, si può segnalare l’accaduto alla polizia postale.
Un consiglio è quello di fare screenshot o copiare l’indirizzo del sito in cui è caricato il contenuto e allegarli alla querela e alla segnalazione.
Altro consiglio è quello di ridurre al minimo il materiale che può essere utilizzato per creare deepfake. Questo vuol dire prima di tutto rendere il profilo privato sui social. In secondo luogo, implica postare il meno possibile immagini proprie e dei propri familiari o amici (soprattutto se minori).
Il problema spesso sono i tempi di risposta delle piattaforme. Spesso, infatti, è possibile richiedere la rimozione del contenuto, ma i tempi di reazione delle principali piattaforme sono lunghi e le foto continuano a circolare.
Deepfake e deepnude possono inoltre essere segnalati al Garante della privacy.






Concorsi
Concorsi scuola
Professionisti
Università