Cerca
Close this search box.

Basterà un marchio nell’acqua per salvarci dal crollo della fiducia nei media?

Prospettive e limiti dell’utilizzo e regolazione del watermarking per evitare il crollo della fiducia nei mezzi di comunicazione nell’era dell’AI generativa.

Contenuti falsi, manipolati e travianti sono sempre esistiti, ancor più dopo l’introduzione del digitale che con Photoshop e altri strumenti di editing grafico ci permette, con un po’ di pazienza e conoscenza tecnica, di costruire le immagini che vogliamo noi. Ma con l’avvento negli ultimi mesi dell’AI generativa diventa possibile per tutti creare testi persuasivi personalizzati in ogni lingua e non solo immagini e audio finti ma presto anche interi video, con sistemi sempre più a portata di tutti, sicuramente già a portata di stati o organizzazioni che vogliano influenzare la politica o anche solo commettere crimini.
Un assaggio di quanto succederà lo abbiamo visto con la pubblicazione di una foto generata dall’AI con fumo vicino un edificio pubblico presentata come un attentato al Pentagono che ha provocato panico a Wall Street.

Il rischio di inquinare il discorso pubblico è forte. E’ già successo da metà dello scorso decennio tramite l’utilizzo dei social network ma ora il fenomeno può cambiare marcia. E l’utilizzo di questi strumenti per frodi, minacce o danni alle singole persone sta crescendo.

Scienziati, industriali e policymaker stanno cercando soluzioni tecnologiche e legislative per evitare il tracollo della fiducia nei mezzi di comunicazione.

Cerchiamo di capire quali sono le prospettive e i limiti di questi approcci.

La soluzione principale proposta è il cosiddetto watermarking digitale. Dato un contenuto digitale (testo, audio, immagine o video) viene introdotto nell’originale dell’informazione ulteriore (visibile a occhio nudo o rilevabile solo tramite un apposito programma di verifica) che non sia rimuovibile. Nel caso venga rimossa, il contenuto risultante non è più uguale all’originale, e la differenza è rilevabile a occhio nudo oppure dal programma di verifica. Le informazioni aggiuntive possono contenere dei metadati relativi ai contenuti, l’autore, la proprietà o la provenienza.

La soluzione digitale ispirata alla metafora della filigranatura della carta, ad es., quella delle banconote, procedimento creato già nel XIII secolo per identificare la provenienza di una pagina.

Nel caso dell’AI generativa l’idea è che un contenuto prodotto artificialmente porti sempre con se un watermarking che ne dimostri l’origine artificiale, ad es., che un testo è stato prodotto da ChatGPT, un’immagine da Midjourney.

La seconda soluzione proposta è quella di ricorrere all’intelligenza artificiale per identificare se un dato contenuto è stato creato da una AI generativa. Ad es., OpenAI ha proposto già a gennaio un classificatore per identificare se un testo non è creato da un umano, ma lo ha recentemente dismesso perchè non efficace.

Un altro metodo più complesso è usare il watermark per certificare la provenienza di un contenuto.

Ovviamente qualsiasi soluzione non può essere efficace se non nel contesto di un quadro regolativo, che, nel mondo del digitale, non può che essere globale e adottato da tutti gli attori.

Inoltre come tutte le tecnologie va inserita in un contesto sociotecnico in cui va valutata l’applicabilità e l’impatto sull’utente.

E qui cominciano ad emergere la difficoltà del problema…

Partendo dagli aspetti tecnici, emergono già alcune limitazioni.

  1. Il watermarking può funzionare su immagini, audio e video, ma è più difficile che funzioni sui testi. Ad es., basta chiedere a ChatGPT di parafrasare il testo e il watermark testuale sparisce.
    Questo lo sa anche il Governo Americano, che ha incontrato i grandi player e ha fatto promettere attenzione per il tema: se nell’abstract del documento finale si parla di watermarking per l’AI in generale, nel testo si parla solo di materiale audiovisivo prodotto da AI generativa.
  2. Il watermarking stesso può essere manipolato. Non solo nel senso che il watermark potrebbe essere stato rimosso, ma anche che un’immagine autentica venisse marchiata come prodotta dall’AI: immaginate la disputa che nascerebbe se una immagine autentica circolasse anche in versione watermarked. Come faremmo a sapere che non sia un falso?
  3. Se il watermark è visibile, la qualità del contenuto ne risente. Ma se è invisibile nasce il problema di doversi fidare dell'”ente certificatore” che solo può rilevare l’autenticità del contenuto. In un contesto globale o in situazioni altamente critiche come un’elezione diventa difficile fidarsi di chiunque. E comunque lasciare la verifica solo ai grandi player dell’AI fa perdere trasparenza e li elegge a “gatekeeper” della autenticità.
  4. L’AI generativa opensource diventa progressivamente alla portata di tutti, e già lo è per i governi e grandi player in tutto il mondo, quindi esisteranno sistemi AI senza watermark.
  5. Paradossalmente il watermark può diventare un’arma contro dissidenti che vogliono usare queste tecnologie ma non possono rivelare l’origine di un contenuto. Anche solo la possibilità che questo possa succedere diventa un incentivo all’autocensura.

Ma al di là degli aspetti tecnici, esistono altri problemi quando guardiamo al più ampio sistema sociotecnico:

  1. Si è visto che tentativi passati di certificare l’informazione o segnalarne la non veridicità possono portare comunque l’utente a fraintendimenti, nonché scatenare teorie complottiste.
  2. Anche solo le etichette di fact-checking usate dai social sono a volte percepite come uno strumento paternalistico, punitivo e contenente bias.
  3. Certificare l’origine di una immagine come prodotta dall’AI non vuol dire certificarne la sua non veridicità.
  4. Ormai anche una fotocamera di un cellulare manipola le immagini per abbellirle: dove è il confine per l’applicazione del watermark?
  5. La sola presenza di sistemi di autenticazione mina la fiducia complessiva nel sistema di informazione, creando scetticismo anche verso i contenuti autentici.

Trovate l’articolo completo su MIT Technology Review: Why watermarking AI-generated content won’t guarantee trust online. The need for transparency around AI-generated content is clear, but the value of measures like watermarks is not
di Claire Leibowiczarchive

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto