X tenta di arginare i deepfake bloccando la modifica delle foto con Grok
- 🛡️ Cosa cambia su X: l’interruttore per bloccare le modifiche con Grok
- ⚠️ Perché X interviene: abusi, preoccupazioni e pressioni dei regolatori
- 🔒 Accesso a Grok e limiti già introdotti: gratis bloccati, abbonati ancora abilitati
- 🧩 Come funziona davvero il blocco (e cosa non copre)
- 📱 Disponibilità e usabilità: solo iOS, niente web e niente retroattività
- 🧠 Deepfake e immagini non consensuali: perché le misure “parziali” non bastano
- 🔎 Cosa possono fare gli utenti: attenzione alle impostazioni e ai contenuti condivisi
X ha introdotto una nuova opzione nell’app per iOS con l’obiettivo di limitare la manipolazione delle immagini tramite Grok, il chatbot di intelligenza artificiale integrato nel social. La mossa arriva in un contesto di crescente attenzione globale verso i rischi legati ai deepfake e, più in generale, all’uso improprio degli strumenti di generazione e modifica delle immagini basati su IA.
La novità consiste in un interruttore che consente agli utenti di impedire che le proprie foto vengano modificate da terzi attraverso specifiche modalità di utilizzo di Grok. È un passo che punta a rafforzare la tutela dei contenuti pubblicati, ma che, nei fatti, sembra offrire una protezione circoscritta e non totale.
🛡️ Cosa cambia su X: l’interruttore per bloccare le modifiche con Grok
La nuova funzionalità, disponibile nell’app X per iOS, permette di attivare un’opzione che impedisce ad altri utenti di richiedere a Grok la modifica automatica di una foto associata a un post specifico. In pratica, l’utente può scegliere di “blindare” quel contenuto rispetto a una particolare forma di editing generativo.
L’idea è semplice: se una foto viene pubblicata su X, un altro utente potrebbe tentare di ottenere una versione alterata dell’immagine chiamando in causa Grok in una conversazione. Con l’interruttore attivo, questa strada viene bloccata per quel post.
⚠️ Perché X interviene: abusi, preoccupazioni e pressioni dei regolatori
L’introduzione del blocco nasce come risposta a preoccupazioni sempre più diffuse e alle pressioni dei regolatori, dopo una serie di casi di abuso registrati all’inizio dell’anno. In quel periodo, il software era stato utilizzato per generare immagini pedopornografiche o nudità non consensuali partendo da foto reali caricate sul social network.
Questi episodi hanno riacceso il dibattito su responsabilità delle piattaforme, protezione delle vittime e necessità di controlli più efficaci sugli strumenti di IA generativa. In questo scenario, X prova a mettere un primo argine, almeno su una specifica modalità di manipolazione delle immagini.
🔒 Accesso a Grok e limiti già introdotti: gratis bloccati, abbonati ancora abilitati
In precedenza, la modifica generativa era stata bloccata per gli account X gratuiti. Tuttavia, gli abbonati paganti possono ancora accedervi utilizzando il bot. Questo elemento è rilevante perché indica che la capacità di effettuare editing tramite Grok non è stata rimossa in modo uniforme per tutti gli utenti, ma resta disponibile in determinate condizioni.
La nuova opzione su iOS si inserisce quindi in un quadro di restrizioni parziali: da un lato si limita l’accesso per alcune categorie di account, dall’altro si aggiunge un controllo puntuale che l’utente può attivare sul singolo contenuto.
🧩 Come funziona davvero il blocco (e cosa non copre)
Test indipendenti hanno evidenziato che l’efficacia dello strumento appare limitata e circoscritta. Il blocco, infatti, agisce solo sul meccanismo di modifica generativa attivato citando il chatbot Grok in una conversazione e chiedendo di modificare automaticamente una foto.
In concreto, una volta attivato l’interruttore:
si impedisce ad altri utenti di menzionare l’account di Grok nelle risposte a quel post specifico per richiedere la modifica dell’immagine;
non si elimina del tutto la possibilità che foto postate da terzi vengano usate come base per un editing tramite IA in altri contesti.
Resta quindi possibile, ad esempio, tentare un’operazione di editing aprendo una nuova conversazione o chattando con Grok nei messaggi privati. In altre parole, l’interruttore non impedisce che l’immagine venga riutilizzata come “input” altrove: limita soltanto una specifica scorciatoia operativa legata alle risposte sotto quel post.
📱 Disponibilità e usabilità: solo iOS, niente web e niente retroattività
Un ulteriore limite riguarda la disponibilità e l’integrazione dell’opzione nell’esperienza d’uso. L’interruttore:
non è presente nella versione web di X;
non può essere applicato ai contenuti pubblicati in precedenza;
è nascosto all’interno dei menu di editing fotografico, invece di essere integrato nelle impostazioni generali sulla privacy.
Questi aspetti incidono sulla reale efficacia della misura: se l’opzione non è immediatamente visibile e non è centralizzata nelle impostazioni privacy, è più probabile che molti utenti non la attivino. Inoltre, l’impossibilità di applicarla retroattivamente lascia scoperti i contenuti già pubblicati, che spesso sono proprio quelli più esposti perché circolano da tempo e possono essere stati salvati o ricondivisi.
🧠 Deepfake e immagini non consensuali: perché le misure “parziali” non bastano
Il caso evidenzia un problema più ampio: quando la manipolazione delle immagini è resa semplice e accessibile da strumenti di IA, la protezione deve essere progettata per coprire l’intero ciclo di abuso, non solo una singola modalità di utilizzo. Bloccare la menzione di Grok sotto un post può ridurre alcune azioni immediate e visibili, ma non impedisce che la stessa immagine venga usata in altri flussi, come conversazioni separate o canali privati.
Per gli utenti, questo significa che la nuova opzione può essere utile come barriera aggiuntiva, ma non va interpretata come una garanzia contro la creazione di deepfake o contro la generazione di nudità non consensuali a partire da foto pubblicate sul social.
🔎 Cosa possono fare gli utenti: attenzione alle impostazioni e ai contenuti condivisi
In attesa di soluzioni più robuste e integrate, la novità su iOS rappresenta un controllo in più che vale la pena conoscere, soprattutto per chi pubblica immagini personali. Considerando i limiti emersi, l’approccio più prudente resta quello di valutare con attenzione quali foto caricare e con quale livello di esposizione pubblica.
In sintesi, l’interruttore introdotto da X è un segnale di risposta alle criticità emerse e alle pressioni esterne, ma la sua portata è per ora ristretta: agisce su un caso d’uso specifico, non è disponibile ovunque e non copre i contenuti già pubblicati. Per arginare davvero i deepfake e gli abusi legati all’IA generativa, serviranno misure più complete, coerenti tra piattaforme e più facili da trovare e attivare.
Leggi anche: Xiaomi condizionatore radar

