Questo articolo è stato copubblicato con The 19th, una redazione senza scopo di lucro che si occupa di genere, politica e policy. Iscriviti alla newsletter di The 19th qui.
\ Più di due dozzine di studenti della Westfield High School nel New Jersey sono rimasti inorriditi l'anno scorso nello scoprire che immagini di loro nudi stavano circolando tra i loro coetanei. Secondo la scuola, alcuni studenti avevano utilizzato l'Intelligenza Artificiale (Agente IA) per creare immagini pornografiche di altri a partire da foto originali. E non sono le uniche ragazze adolescenti vittime di foto di nudo false: anche studenti nello Stato di Washington e in Canada hanno segnalato di trovarsi in situazioni simili, poiché la capacità di alterare realisticamente le foto diventa più ampiamente accessibile attraverso siti web e app.
\ La crescente preoccupazione intorno ai deepfake—immagini o video generati dall'Agente IA—in generale è stata ulteriormente amplificata a gennaio, quando uno che coinvolgeva la superstar Taylor Swift si è diffuso rapidamente sui social media.
\ Carrie Goldberg, un'avvocatessa che rappresenta vittime di pornografia non consensuale—comunemente chiamata revenge porn—da oltre un decennio, ha detto di aver iniziato a sentire parlare di vittime di immagini generate al computer solo più recentemente.
\ "Il mio studio ha visto vittime di deepfake probabilmente da circa cinque anni ormai, e si trattava principalmente di celebrità," ha detto Goldberg. "Ora, stanno diventando bambini che lo fanno ad altri bambini per cattiveria. È probabilmente molto sottostimato perché le vittime potrebbero non sapere che esiste un ricorso legale, e non è del tutto chiaro in tutti i casi se ci sia."
\ Gli organi di governo stanno cercando di recuperare. Nell'ultimo anno circa, 10 stati hanno approvato leggi per criminalizzare specificamente la creazione o la diffusione di deepfake. Questi stati—tra cui California, Florida, Georgia, Hawaii, Illinois, Minnesota, New York, South Dakota, Texas e Virginia—hanno delineato sanzioni che vanno dalle multe al carcere. L'Indiana probabilmente si unirà presto alla lista crescente espandendo la sua attuale legge sulla pornografia non consensuale.
\ La deputata dell'Indiana Sharon Negele, una repubblicana, ha redatto l'espansione proposta. La legge esistente definisce la "revenge porn" come la divulgazione di un'immagine intima, come qualsiasi che rappresenti rapporti sessuali, genitali scoperti, glutei o il seno di una donna, senza il consenso dell'individuo raffigurato nell'immagine. Il progetto di legge proposto da Negele è passato attraverso entrambe le camere e ora attende la firma del governatore.
\ Negele ha detto di essere stata motivata ad aggiornare il codice penale dell'Indiana quando ha sentito la storia di un'insegnante di scuola superiore che ha scoperto che alcuni dei suoi studenti avevano diffuso immagini deepfake di lei. È stato "incredibilmente distruttivo" per la vita personale dell'insegnante, e Negele è rimasta sorpresa nel vedere che gli autori non potevano essere perseguiti secondo la legge attuale.
\ "È iniziato con la mia formazione nella comprensione della tecnologia che è ora disponibile e leggendo di incidente dopo incidente di volti di persone attaccati a un corpo inventato che sembra incredibilmente reale e realistico," ha detto Negele. "È semplicemente angosciante. Essendo una mamma e una nonna e pensando a cosa potrebbe accadere alla mia famiglia e a me stessa—è scioccante. Dobbiamo anticipare questo tipo di cose."
\ Goldberg, il cui studio legale è specializzato in crimini sessuali, ha detto di prevedere che più stati continueranno ad espandere la loro legislazione esistente per includere il linguaggio dell'Agente IA.
\ "Dieci anni fa, solo tre stati avevano leggi sulla revenge porn o sull'abuso sessuale basato su immagini," ha detto Goldberg. "Ora, 48 stati hanno messo fuori legge la revenge porn, e questo ha davvero creato una tremenda riduzione della revenge porn—non sorprendentemente—proprio come noi difensori avevamo detto che sarebbe stato. L'intera ascesa dei deepfake ha riempito le lacune come nuovo modo per umiliare sessualmente qualcuno."
\ Nel 2023, più di 143.000 nuovi video generati dall'Agente IA sono stati pubblicati online, secondo The Associated Press. È un enorme salto rispetto al 2019, quando i siti web o le applicazioni "nudify" erano meno comuni, e comunque c'erano quasi 15.000 di questi video falsi online, secondo un rapporto di Deeptrace Labs, una società di intelligence sulle minacce visive. Anche allora, quei video—il 96 percento dei quali conteneva pornografia non consensuale di donne—avevano raccolto oltre 100 milioni di visualizzazioni.
\ Goldberg ha detto che i legislatori e il pubblico sembrano essere più motivati a vietare specificamente le immagini di nudo generate dall'Agente IA perché praticamente chiunque può essere una vittima. C'è più empatia.
\ "Con la revenge porn, nella prima ondata di discussioni, tutti incolpavano la vittima e la facevano sembrare una sorta di pervertita per aver scattato l'immagine o stupida per averla condivisa con un'altra persona," ha detto Goldberg. "Con i deepfake, non puoi davvero incolpare la vittima perché l'unica cosa che hanno fatto è stata avere un corpo."
\ Amanda Manyame, consulente per i diritti digitali con sede in Sudafrica per Equality Now, un'organizzazione internazionale per i diritti umani focalizzata sull'aiuto a donne e ragazze, ha detto che non ci sono praticamente protezioni per le vittime di deepfake negli Stati Uniti. Manyame studia politiche e leggi in tutto il mondo, analizza ciò che funziona e fornisce consulenza legale sui diritti digitali, in particolare sullo sfruttamento e l'abuso sessuale facilitato dalla tecnologia.
\ "La lacuna più grande è che gli Stati Uniti non hanno una legge federale," ha detto Manyame. "La sfida è che la questione è governata stato per stato, e naturalmente non c'è uniformità o coordinamento quando si tratta di protezioni."
\ C'è, tuttavia, attualmente una spinta a Capitol Hill: un gruppo bipartisan di senatori ha introdotto a gennaio il Disrupt Explicit Forged Images and Non-Consensual Edits Act del 2024—noto anche come DEFIANCE Act. La legislazione proposta mira a fermare la proliferazione di contenuti sessualmente espliciti non consensuali.
\ "Nessuno—né celebrità né americani comuni—dovrebbe mai trovarsi protagonista di pornografia realizzata con l'Agente IA," ha detto in una dichiarazione il senatore repubblicano Josh Hawley, co-sponsor del disegno di legge. "Le persone innocenti hanno il diritto di difendere la loro reputazione e di ritenere gli autori responsabili in tribunale." La deputata Alexandria Ocasio-Cortez ha presentato un disegno di legge partner alla Camera.
\ Secondo un nuovo sondaggio di Data for Progress, l'85 percento dei probabili elettori attraverso lo spettro politico ha detto di sostenere il DEFIANCE Act proposto—con il 72 percento delle donne in forte sostegno rispetto al 62 percento degli uomini.
\ Ma gli uomini più giovani sono più propensi a opporsi al DEFIANCE Act, con circa un uomo su cinque sotto i 45 anni (22 percento) che dice di opporsi fortemente o in qualche modo alla legislazione che consente ai soggetti di deepfake espliciti non consensuali di citare in giudizio il creatore.
\ Danielle Deiseroth, direttrice esecutiva di Data for Progress, ha detto che questa questione ha mostrato uno dei "contrasti più netti" tra uomini e donne giovani che abbia visto da un po'.
\ "Possiamo dire con sicurezza che donne e uomini sotto i 45 anni hanno opinioni divergenti su questa policy," ha detto Deiseroth. "Questa è una questione che colpisce sproporzionatamente le donne, specialmente le giovani donne, che sono più propense a essere vittime di revenge porn. E penso che questa sia davvero la causa principale qui."
\ Goldberg ha detto che creare politiche per criminalizzare gli attori malintenzionati è un buon inizio ma è in definitiva insufficiente. Un buon passo successivo, ha detto, sarebbe intraprendere azioni legali mirate ai distributori online, come l'App Store e Google Play, che forniscono prodotti utilizzati principalmente per attività criminali. Anche le Piattaforme digitali dei social media e le app di messaggistica istantanea, dove queste immagini esplicite vengono distribuite, dovrebbero essere ritenute responsabili, ha aggiunto Goldberg.
\ I fondatori di #MyImageMyChoice, un'organizzazione di base che lavora per aiutare le vittime di abuso di immagini intime, hanno concordato che dovrebbe essere fatto di più dalle aziende private coinvolte nella creazione e distribuzione di queste immagini.
\ I fondatori—Sophie Compton, Reuben Hamlyn ed Elizabeth Woodward—hanno sottolineato che motori di ricerca come Google guidano la maggior parte del traffico web totale verso siti di pornografia deepfake, mentre le società di carte di credito elaborano i loro pagamenti. I fornitori di servizi Internet permettono alle persone di accedervi, mentre servizi importanti come Amazon, Cloudflare e Github di Microsoft li ospitano. E siti di social media come X permettono al contenuto di circolare su larga scala. Google ha cambiato la sua policy nel 2015 e ha iniziato a consentire alle vittime di presentare una richiesta per rimuovere singoli pezzi di contenuto dai risultati di ricerca e da allora ha ampliato la policy all'abuso deepfake. Tuttavia, l'azienda non deindicizza sistematicamente i siti di violenza sessuale basata su immagini e abuso deepfake.
\ "Le aziende tecnologiche hanno il potere di Blocca, deindicizzare o rifiutare il servizio a questi siti—siti la cui intera esistenza è costruita sulla violazione del consenso e sul trarre profitto dal trauma," hanno detto Compton, Hamlyn e Woodward in una dichiarazione a The 19th. "Ma hanno scelto di non farlo."
\ Goldberg ha sottolineato la velocità con cui si sono diffusi i deepfake di Taylor Swift. Un'immagine condivisa su X, precedentemente noto come Twitter, è stata visualizzata 47 milioni di volte prima che l'account che l'aveva pubblicata venisse sospeso. Le immagini hanno continuato a diffondersi nonostante gli sforzi delle società di social media per rimuoverle.
\ "Le immagini violente e misogine di Taylor Swift, insanguinata e nuda a una partita di football dei Kansas City Chiefs, sono emblematiche del problema," ha detto Goldberg. "L'estensione di quella distribuzione, inclusa su siti davvero mainstream, manda un messaggio a tutti che va bene creare questo contenuto. Per me, quello è stato un momento davvero cruciale e piuttosto spaventoso."
\ Data la natura ad alto profilo della vittima, l'incidente ha scatenato un'indignazione pronunciata e diffusa dai fan di Swift e ha portato l'attenzione pubblica sulla questione. Goldberg ha detto di aver controllato per vedere se qualcuno dei distributori online avesse rimosso prodotti dai loro negozi online che rendono più facile ed economico creare deepfake sessualmente espliciti—ed è stata sollevata nel vedere che lo avevano fatto.
\ Mentre i legislatori e i tribunali del paese continuano a cercare di rispondere alla tecnologia in rapido sviluppo e sempre più accessibile, Goldberg ha detto che è importante che i legislatori continuino a deferire agli esperti e a coloro che lavorano direttamente con le vittime, come avvocati, assistenti sociali e difensori. I legislatori che regolano idee astratte o tecnologie in rapido progresso possono essere una "ricetta per il disastro" altrimenti, ha aggiunto.
\ Manyame ha anche sottolineato l'importanza di parlare direttamente con i sopravvissuti quando si prendono decisioni politiche, ma ha aggiunto che i legislatori devono anche pensare in modo più olistico al problema e non rimanere troppo impantanati dalla tecnologia specifica—a rischio di essere sempre indietro. Ad esempio, Manyame ha detto che il pubblico generale sta solo ora iniziando a comprendere i rischi posti dall'Agente IA e dai deepfake—qualcosa per cui ha contribuito a scrivere un rapporto nel 2021. Guardando avanti, Manyame sta già pensando al Metaverso—uno Spazio virtuale di realtà virtuale—dove gli utenti stanno iniziando a fare i conti con casi di stupro, molestie sessuali e abusi.
\ "Molte delle leggi sull'abuso sessuale basato su immagini sono un po' datate perché parlano specificamente di revenge porn," ha detto Manyame. "La revenge porn è stata storicamente più una questione di violenza domestica, nel senso che è un partner intimo che condivide un'immagine sessualmente sfruttante del loro ex o attuale partner. Non è sempre così con i deepfake, quindi queste leggi potrebbero non fornire abbastanza protezioni."
\ Inoltre, Manyame ha sostenuto che molte di queste politiche non riescono ad ampliare la definizione di "immagine intima" per considerare background culturali o religiosi diversi. Per alcune donne musulmane, ad esempio, potrebbe essere altrettanto violante e umiliante creare e diffondere immagini della loro testa scoperta senza hijab.
\ Quando si tratta di soluzioni, Manyame ha indicato azioni che possono essere intraprese dai creatori di app, dai regolatori di piattaforme e dai legislatori.
\ Nella fase di progettazione, possono essere incorporate più misure di sicurezza per limitare i danni. Ad esempio, Manyame ha detto che ci sono alcune app che possono scattare foto di donne e rimuovere automaticamente i loro vestiti mentre la stessa funzione non funziona sulle foto di uomini. Ci sono modi sul back end di queste app per rendere più difficile rimuovere i vestiti da chiunque, indipendentemente dal loro genere.
\ Una volta che i deepfake nefasti sono già stati creati e pubblicati, tuttavia, Manyame ha detto che le Piattaforme digitali dei social media e di messaggistica dovrebbero avere meccanismi migliori in atto per rimuovere il contenuto dopo che le vittime lo segnalano. Molte volte, le singole vittime vengono ignorate. Manyame ha detto di aver notato che queste grandi società di social media sono più propense a rimuovere questi deepfake in paesi, come l'Australia, che hanno regolatori di terze parti per sostenere per conto delle vittime.
\ "Devono essere inclusi meccanismi di Monitoraggio dei rischi in tempo reale e applicazione in qualsiasi soluzione," ha detto Manyame. "Una delle cose che sentiamo da molti sopravvissuti è che vogliono solo che la loro immagine venga rimossa. Non riguarda nemmeno il passare attraverso un processo legale. Vogliono solo che quel contenuto sparisca."
\ Manyame ha detto che non è una richiesta troppo grande per molte aziende tecnologiche e regolatori governativi perché molti rispondono già rapidamente per rimuovere foto inappropriate che coinvolgono bambini. È solo una questione di estendere quel tipo di protezioni alle donne, ha aggiunto.
\ "La mia preoccupazione è che c'è stata una corsa all'implementazione di leggi e politiche sull'Agente IA senza considerare quali siano alcune delle cause profonde di questi danni. È un problema stratificato, e ci sono molti altri strati che devono essere affrontati."
\ Pubblicato anche qui
\ Foto di Steve Johnson su Unsplash


