N. 07 | L'AI ora deve firmarsi (ma questo non risolve il problema)
Tool, watermark e il paradosso della fiducia digitale: cosa succede quando chiediamo alle macchine di dichiararsi
Ci sono momenti in cui un contenuto ti colpisce non perché è strano, ma perché è troppo giusto. Un testo senza sbavature. Un volto senza imperfezioni. Una voce che sa esattamente quando fare una pausa.
E lì ti viene il dubbio. Non se sia bello, ma se sia vero. O meglio: se sia umano.
Questa edizione della Cassetta degli AI-trezzi nasce da quella sensazione. E da una mattina passata in una scuola, a parlare di manipolazione digitale, reputazione, fiducia. Di contenuti che sembrano veri e di altri che vorremmo fossero falsi. E da una domanda che mi sono portato dietro per giorni: e se l'intelligenza artificiale iniziasse a firmare tutto quello che fa? Il convegno a cui ho partecipato si intitolava Intelligenza Artificiale e manipolazione (qui la registrazione completa). Un titolo che non lascia spazio a interpretazioni. Si è parlato di rischi, ma anche di fragilità. Di giovani, di reputazione, di come basta un contenuto messo nel posto sbagliato per cambiare tutto.
Tra gli spunti è emerso anche un caso ancora pieno di zone grigie: quello di un ragazzo finito sotto i riflettori, forse per attività borderline legate al mondo del cracking. Non era una storia di AI generativa, almeno non in senso stretto. Ma il punto era proprio questo: non serve un deepfake per alterare la percezione. Basta un sospetto. Una voce. Un file senza mittente.
È una questione che non riguarda solo la tecnologia, ma il nostro bisogno crescente di sapere da dove viene un contenuto. Di attribuire. Di verificare. Di firmare.
E allora ho pensato: forse il problema non è l'AI che genera, ma l'assenza di responsabilità. L'analfabetismo della provenienza. E da qui, la corsa ai watermark, alle etichette, ai bollini che ci dicano subito: questo è artificiale, questo no.
Ma siamo sicuri che basti una firma per sapere davvero con chi abbiamo a che fare?
E mentre noi ci interroghiamo su questi temi, la Cina ha già deciso di imporre una risposta per legge.
Dal primo settembre 2025, in Cina diventerà obbligatorio apporre etichette esplicite e watermark invisibili su tutti i contenuti generati da intelligenza artificiale: testi, immagini, video, audio. Non solo firme nei metadati, ma veri e propri segnali visivi o sonori che dicano chiaramente: "Questo è stato creato da un'AI".
L'obiettivo dichiarato è trasparenza. Ma come spesso accade, le intenzioni si scontrano con le interpretazioni. Perché obbligare un contenuto a rivelare la sua origine cambia le regole del gioco. Chi lo pubblica, chi lo modera, chi lo riceve: tutti devono adeguarsi.
E allora ecco il punto: la questione della firma non è solo tecnica. È politica, culturale, sociale. Una firma obbligatoria è anche un filtro. Un'etichetta che decide cosa è legittimo e cosa no. E da qui nasce la corsa ai tool per scoprire chi ha fatto cosa.
Ecco perché in questa Cassetta ho deciso di non parlare (solo) di AI che genera, ma di AI che si dichiara.
🔧 Ok, apriamo la Cassetta.
Perché se l'origine dei contenuti inizia a contare più del contenuto stesso, allora ci servono strumenti per riconoscerla. Non plugin miracolosi o filtri magici, ma tool che ti aiutano davvero a capire chi ha fatto cosa.
Soprattutto con le immagini: a volte basta un dettaglio — uno sfondo troppo omogeneo, un riflesso sbagliato, una mano con sei dita — per farti scattare il dubbio. E oggi, quel dubbio, puoi almeno provare a scioglierlo.
Ecco tre strumenti (più un paio di bonus) che ho testato e che fanno proprio questo: non creano, ma tracciano. Non generano, ma interrogano.
1️⃣ SynthID – Il timbro invisibile (di Google)
Chi genera immagini con l'AI oggi lo sa: basta un clic e ottieni una grafica da copertina. Ma chi le guarda non ha modo di sapere se dietro c'è un disegnatore, un prompt… o entrambi.
SynthID è un sistema sviluppato da DeepMind che inserisce un watermark invisibile nei contenuti generati (immagini, audio, testo). Non altera il file ma lo rende riconoscibile per chi ha gli strumenti giusti.
🧩 L'ho testato con immagini create da Imagen, il modello di Google: il watermark è lì, silenzioso, persistente anche dopo modifiche. Non lo vedi, ma c'è. E può fare la differenza tra "contenuto" e "prova".
🔎 Quando usarlo: se crei contenuti visivi con AI e vuoi garantirne la tracciabilità. O se lavori su piattaforme dove "sapere chi ha fatto cosa" è un tema ogni giorno più urgente.
2️⃣ GPTZero – Il detective del testo
Il testo è forse il contenuto più subdolo: può sembrare umano anche quando non lo è. Anzi, spesso è proprio lì che l'AI dà il meglio di sé. E quindi come fai a capire se l'ha scritto una persona… o un prompt ben calibrato?
GPTZero è uno strumento pensato proprio per questo. Analizza parametri come la perplessità e la burstiness (quanto varia il ritmo di scrittura) per stimare se un testo è stato generato da un modello linguistico.
📋 L'ho provato con un articolo da blog, due mail sospette e un saggio universitario: in tutti e tre i casi ha dato una valutazione attendibile, ma non infallibile. Più che una sentenza, è un segnale d'allarme.
🔎 Quando usarlo: se devi controllare contenuti ricevuti (mail, testi scolastici, presentazioni) o se vuoi testare quanto "umano" suona ciò che scrivi con l'AI. Non per punire, ma per capire.
3️⃣ Azure AI Video Indexer – Il lettore nascosto (consigliato, ma non testato)
Non è uno strumento che ho provato in prima persona, ma diversi addetti ai lavori me ne hanno parlato con entusiasmo. Azure AI Video Indexer è una piattaforma di Microsoft che va oltre la semplice analisi visiva: interpreta video interi, estrae informazioni da audio, immagini e trascrizioni, e può essere personalizzata per individuare elementi specifici nei contenuti multimediali.
🎥 L'idea è potente: non solo "vedere" se un contenuto è generato, ma "capire" cosa contiene davvero. Voce, volti, testo: tutto viene scomposto e indicizzato. Un modo per entrare nelle pieghe del contenuto, non solo per riconoscerne l'origine, ma anche per analizzarne la struttura narrativa e informativa.
🔎 Quando usarlo: se lavori con grandi quantità di video e hai bisogno non solo di sapere se un pezzo è autentico, ma anche di capire cosa dice, chi lo dice e come. Ideale per chi fa fact-checking, analisi media o lavora in ambito legale e giornalistico.
🧠 La Critica alla Critica dell'AI
Siamo entrati in una fase in cui chiediamo all'AI di firmare tutto: immagini, testi, voci. Ma lo facciamo davvero per sapere da dove vengono le cose… o per sentirci più sicuri?
Firmare un contenuto sembra un gesto semplice, quasi etico. Ma rischia di diventare una scorciatoia. Una forma di fiducia automatica, concessa non in base a ciò che leggiamo o guardiamo, ma alla presenza (o assenza) di un'etichetta. È un po' come fidarsi di un pacco solo perché ha il timbro giusto. Non sappiamo cosa c'è dentro, ma lo accettiamo comunque.
E qui nasce il paradosso: più pretendiamo trasparenza dalle macchine, più diventiamo pigri nel cercarla noi. Demandiamo il giudizio a un watermark, invece di allenare lo sguardo critico. Ma un'etichetta non è un'intenzione. Un marchio digitale non racconta il contesto, né la responsabilità.
C'è una sottile differenza tra sapere chi ha fatto cosa… e sapere perché l'ha fatto. Ed è proprio lì, nel perché, che si gioca la parte più difficile di questo nuovo paesaggio informativo.
Se mettiamo un bollino su tutto ciò che è artificiale, cosa succede a tutto ciò che è ambiguo? A tutto ciò che è vero, ma scomodo? A tutto ciò che nessuno vuole firmare?
La firma è un inizio. Ma la fiducia, quella vera, richiede qualcosa di più.
📬 Hai trovato utile questa Cassetta? Condividila con chi si chiede (o dovrebbe chiedersi) da dove arrivano i contenuti che guarda ogni giorno.
Ah non sei nemmeno iscritto? Cosa aspetti?
🗨️ Hai domande, spunti, dubbi o storie da raccontare? Scrivimi. Le vostre segnalazioni sono il punto di partenza delle prossime newsletter.
Ci vediamo al prossimo numero — possibilmente, con qualche domanda in più e la testa ben accesa.
Alla prossima Cassetta degli AI-trezzi.
Ma perché? Se quel che leggo è una cretinata rimane una cretinata indipendente da chi l'ha scritta... Se è una cosa intelligente mi ha arricchito indipendente da chi o cosa l'ha scritta. Tutto il resto è inutile e non valeva la pena di perdere tempo per leggerlo... Comunque dietro un azione di un ai c'è sempre un umano che ha dato una direzione e un avvio ad un processo per generare un output. L'ai altro non è che la simulazione di stratificazioni di connessioni, dove ogni connessione ha un valore condizionato dalla ciclicità di input con output noti durante la fase di addestramento. È una scatola dove entrano numeri ed escono numeri. Se la nostra vita è condizionata da una cosa simile sarebbe meglio rimettere tutto in discussione, quello che siamo diventati , anziché continuare ad affannarsi per bloccare il nulla !