AI e codice penale: il nuovo reato contro i deepfake

L’intelligenza artificiale è ormai parte della vita quotidiana di tantissime persone, lavoratori e studenti.
Da quando è stato rilasciato ChatGPT (novembre 2022) e si è diffuso l’uso dell’AI generativa anche ai non addetti ai lavori, i legislatori di tutto il mondo si sono interrogati su cosa fare e come dare delle regole a uno strumento che sembrava non conoscerne e non volerne.
L’Unione europea, che di regolamentazione ne sa qualcosa, ha approvato a giugno 2024 l’AI Act, cioè il regolamento (UE) 2024/1689 e oggi anche l’Italia ha fatto un primo passo per dare delle regole all’uso di questa nuova tecnologia estremamente pervasiva.
Il 10 ottobre 2025, infatti, entra in vigore la L. 132/2025 , cioè la legge italiana che contiene principi e deleghe in materia di intelligenza artificiale, cui seguiranno diversi decreti attuativi. L’Italia è il primo Stato membro dell’UE ad approvare una normativa nazionale sull’intelligenza artificiale.
In questo articolo focalizziamo i punti salienti della nuova legge, con particolare attenzione alle novità che riguardano il codice penale.
Una legge antropocentrica
La legge contiene principi e deleghe in materia di intelligenza artificiale, ma non solo. Tra i 28 articoli che compongono il provvedimento, infatti, si possono trovare anche una serie di regole applicabili a diversi ambiti strategici (tra tutti, ma solo a titolo di esempio, sanità e lavoro) in cui l’AI entrerà o è già entrata in gioco.
Alla base dell’approccio italiano c’è una visione dichiaratamente antropocentrica: l’uomo è al centro nel rapporto con la macchina e lo sviluppo dei sistemi di intelligenza artificiale deve avvenire in sua funzione.
Un esempio di tale visione è la modifica alla legge sul diritto d’autore. Dal 10 ottobre, infatti, le opere tutelate dalla normativa italiana saranno solo quelle frutto dell’ingegno umano, mentre prima si faceva riferimento al solo ingegno. L’inserimento può sembrare ridondante, perché l’ingegno è associato all’intelligenza e alla creatività che sono caratteristiche umane, ma se si pensa alla facilità con la quale un testo può essere prodotto da una macchina (a prescindere dalla sua qualità o dal suo valore) è facile comprendere perché sia stato necessario aggiungere l’aggettivo “umano” per garantire la tutela giuridica dell’opera.
I principi da applicare quando si usa l’intelligenza artificiale
Tornando alla legge recentemente approvata dal Parlamento, questa richiama i diritti fondamentali e ribadisce la centralità di principi quali la trasparenza, la proporzionalità, nonché la sicurezza e la protezione dei dati personali e il principio di riservatezza e quello di non discriminazione.
In base a questa legge, tutti i processi che coinvolgono l’intelligenza artificiale (relativi al suo sviluppo e al suo utilizzo) devono garantire il «rispetto dell’autonomia e del potere decisionale dell’uomo» e la sorveglianza di quest’ultimo sui prodotti dell’AI. La legge non demonizza l’intelligenza artificiale ma tutti gli strumenti basati su quest’ultima devono essere governati dall’uomo che deve supervisionare l’output dell’AI.
Questi i principi generali contenuti nella L. 132/2025 sull’intelligenza artificiale. Vediamo ora le novità relative al diritto penale e, in particolare, il nuovo reato di illecita diffusione di contenuti generati o alterati con l’intelligenza artificiale.
Cosa prevede il nuovo reato contro i deepfake?
Uno degli usi più diffusi dell’intelligenza artificiale generativa riguarda la creazione di immagini e video. Ad oggi infatti è sufficiente un cellulare per generare una foto o un video estremamente realistici, utilizzando come base l’immagine di una persona.
Esempi più eclatanti sono stati i casi di deepfake riguardanti le celebrità (come il caso di Taylor Swift o quello di Rose Villain), ma tutti possono diventare vittime di questa pratica (e qualcuno, in modo anche inconsapevole, può diventare anche carnefice). È accaduto pochi giorni fa a Foggia, dove una diciannovenne ha visto comparire sui muri della sua città foto (false) che la ritraevano nuda. Molto spesso le vittime di queste pratiche sono le donne (principali bersagli anche di reati come il revenge porn). Le forme di tutela sono ancora pochissime e quasi sempre necessitano dell’intervento delle piattaforme sulle quali i contenuti generati con l’intelligenza artificiale vengono fatti girare.
Preso atto di questa situazione, il Parlamento ha provato ad arginare il fenomeno con la legge sull’intelligenza artificiale. Il nuovo art. 612quater c.p. ha proprio l’obiettivo di evitare la diffusione di immagini create con l’AI che riguardano persone.
Il reato si chiama illecita diffusione di contenuti generati o alterati con l’intelligenza artificiale ed è forse la novità più rilevante e impattante della legge sull’intelligenza artificiale. Vediamo dunque cosa prevede il nuovo reato.
Commette il reato chi provoca un danno ingiusto ad una persona cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati utilizzando l’intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità. La pena è la reclusione da 1 a 5 anni. Per perseguire questo reato, però, sarà necessaria la richiesta della persona offesa, cioè della persona soggetto dell’immagine (è infatti un reato perseguibile a querela). La richiesta non è necessaria se le vittime sono persone incapaci, per età o infermità, o se sono pubbliche autorità a causa delle funzioni esercitate.
Non sarà solo chi genera l’immagine o il video a essere punito, ma anche chi lo condivide. Dal 10 ottobre, dunque, converrà pensare qualche secondo in più prima di condividere qualcosa sui social o su un chat di gruppo, poiché il non aver generato il materiale controverso non salverà da un processo e (forse) da una condanna.
Pene più severe per chi usa l’AI per commettere reati
Per cercare di limitare i possibili usi distorti dell’intelligenza artificiale, ci sono state ulteriori modifiche al codice penale. In particolare, oggi il codice ha due nuove circostanze aggravanti, una comune e una speciale.
Come spesso accade, è stato modificato anche l’art. 61 del codice, che disciplina le circostanze aggravanti comuni. La L. 132/2025 ha previsto un aumento di pena per chi commette un reato utilizzando sistemi di intelligenza artificiale. La circostanza si applica quando tali sistemi rappresentano sono utilizzati come mezzo insidioso, ostacolato la pubblica o privata difesa, o aggravato le conseguenze del reato.
Infine, è stata inserita una circostanza aggravante ad effetto speciale (cioè una circostanza che fa aumentare la pena di più di 1/3) per il delitto di attentato contro i diritti politici del cittadino. L’art. 294, che prevede tale reato, punisce con la reclusione da 1 a 5 anni chi con violenza, minaccia o inganno impedisce in tutto o in parte l’esercizio di un diritto politico o determina un soggetto ad esercitarlo in modo difforme dalla sua volontà. Se questi fini sono realizzati con strumenti di intelligenza artificiale, dal 10 ottobre, la pena sarà da 2 a 6 anni.
Vuoi studiare il diritto penale in modo facile e veloce? Il Compendio di diritto penale affronta tutti i temi di diritto penale generale e della parte speciale con un linguaggio chiaro e in modo completo. Per una preparazione ottimale, affianca alla lettura del Compendio il Codice esplicato, ideale per gli studenti universitari e per i concorsisti.