(Adnkronos) – L’intelligenza artificiale sta trasformando radicalmente il panorama della disinformazione. David Puente, vicedirettore e responsabile del progetto fact-checking del giornale online “Open”, osserva con l’Adnkronos che oggi deve confrontarsi con un nemico molto più potente, rapido e, spesso, invisibile. "La vera difficoltà è che con l’AI si possono creare contenuti difficili da tracciare”, spiega. “Le immagini generate artificialmente non hanno una fonte primaria riconoscibile, rendendo quasi impossibile risalire al 'paziente zero'". Se in passato si poteva smascherare una bufala tornando all’origine di una foto o di un video, ora i contenuti sono sintetici, e spesso sono già virali quando scatta l’allarme sulla loro veridicità. Le guerre a Gaza e in Ucraina sono il campo di battaglia perfetto per mistificatori e propagandisti: “Ma una cosa è quando Chef Rubio ha fatto circolare immagini di bambini uccisi in Siria spacciandoli per palestinesi, o quando Mosca diffonde video in cui si vedrebbero bandiere russe sventolare dai palazzi di Odessa, ma in realtà sono stati girati a Chabarovsk, nell’Estremo Oriente russo. Altra cosa è dover combattere con immagini generate dal nulla”. Certo, in alcuni dei video fatti con l’AI le persone hanno sei dita, o si accartocciano quando escono dal centro della scena, o hanno sui vestiti scritte e numeri inventati. “Ma la qualità migliora ogni settimana, e quasi tutti guardano i filmati dal telefono su piccoli schermi e senza notare dettagli su cui si sofferma chi cerca l’autenticità”, aggiunge Puente, che non vede una soluzione neanche nelle (vagheggiate) norme che dovrebbero imporre i watermark, gli ‘stampi’ sulle immagini, per certificarne l’origine sintetica: “Quei bollini possono essere coperti, sfocati, ritagliati. E neanche i metadati sono una garanzia: un video creato con Sora di OpenAI o Veo di Google ha delle ‘tracce’ per risalire alla sua origine, ma se quel video viene salvato nuovamente registrando lo schermo, si perde ogni tracciabilità”. La fondazione creata dal defunto Yevgeny Prigozhin, capo della Wagner, ha diffuso falsi dossier contro l’Ucraina, in cui si sosteneva che Kiev stesse selezionando geneticamente soldati per creare nuove generazioni di forze armate da schierare contro i russi. “Una bufala totale, ma il video originale, girato da un ginecologo che filmava le sue pazienti, aveva un watermark, poi coperto. Era stato anche tagliato per cambiare le proporzioni del filmato, cosa che rende ancora più complesso risalire alla fonte”. C’è lo strumento delle Community Notes, adottate già da X e ora da Facebook e Instagram, con cui chiunque, registrandosi con determinate credenziali, può segnalare contenuti e contribuire alla moderazione collettiva. "Il problema – racconta Puente – è che a volte la nota viene presa per buona anche prima di essere votata dagli utenti registrati. Si innesca un effetto domino: se conferma ciò in cui la gente già crede, viene subito considerata vera, anche se è sbagliata". E così un piccolo esercito di sedicenti debunker finisce per alimentare la confusione. Un recente caso riguarda una foto che secondo Grok (il chatbot di Elon Musk) era di una bambina yazida in Siria nel 2014, quando in realtà era un’immagine recente da Gaza. L’errore non solo è diventato virale, ha creato un testacoda: la manipolazione sta nella smentita e non nel contenuto originale. La facilità con cui oggi si possono generare foto e video realistici ha alzato l’asticella. "Non è solo la qualità dell’immagine – osserva Puente – ma il fatto che non esistano riferimenti nel passato: se una foto AI rappresenta un bambino ferito, ma quel bambino non esiste, come fai a verificarla?" A questo si aggiunge la difficoltà tecnica: gli strumenti disponibili online per scoprire contenuti generati artificialmente, spesso, danno risultati fallaci. "Una mia foto del 2006 scannerizzata è stata identificata al 100% come creata con l’AI. Lo stesso per la figurina di Baggio ai Mondiali del ’94!". E’ un problema di pixel, di sfondi sfocati e dunque poco credibili, ma principalmente di macchine prodigiose che hanno ancora molti limiti. Il dilemma non risparmia neanche le fonti tradizionalmente più affidabili. "Ci sono stati casi in cui agenzie fotografiche hanno diffuso materiale errato. Un video attribuito a bombardamenti in Pakistan, in realtà girato in Palestina, è finito sui telegiornali". Altro esempio: “Dopo il 7 ottobre mi sono arrivate da più persone in Medio Oriente le immagini di una fossa comune. Secondo loro era l’esercito israeliano che ci riversava cadaveri palestinesi. Invece risaliva al conflitto siriano. Immagina cosa sarebbe successo se fosse stata accreditata in quel modo. La verità è che in certi casi bisogna avere il coraggio di arrivare secondi, fermarsi un attimo, fare altre verifiche. Cosa che spesso non piace alle testate che devono stare sempre sul pezzo”. Uno degli aspetti più pericolosi dell’AI applicata all’informazione è l’illusione di imparzialità. "Un’AI allenata in Russia cosa dirà sugli ucraini? Che Zelensky è un cocainomane e i soldati sono tutti nazisti”. Bias culturali e politici sono trasmessi agli algoritmi, con i chatbot che creano contenuti apparentemente neutri ma in realtà profondamente orientati. "A me una volta mi danno del pro-pal e il minuto dopo del filosionista. Ma anche i fact-checker sono umani, fanno errori, e purtroppo vengono etichettati a seconda delle convenienze del momento". Nonostante le difficoltà, il lavoro dei fact-checker resta centrale. "Siamo sempre di più, anche se in un mondo ideale il nostro mestiere non esisterebbe. Ci siamo strutturati in network internazionali, collaboriamo tra colleghi. Ci aiutiamo a vicenda per tracciare la provenienza delle bufale e cercare di rallentare la loro diffusione. Ci diamo regole etiche, creiamo delle procedure standard di verifica per limitare al minimo gli errori. Ma io non voglio che la gente mi dica 'mi fido di te'. Neanche io devo fidarmi troppo di me stesso, o finirei nella stessa trappola” (di Giorgio Rutelli) —media-comunicazionewebinfo@adnkronos.com (Web Info)
Home Notizie dall'Italia e dal mondo David Puente e l’irrealtà aumentata. “L’AI ha cambiato (in peggio) la lotta...