di Francesco Santoianni per Avanti.it


Vietare l’Intelligenza Artificiale per scongiurare convincenti foto e video fake? Anche così l’inganno può essere svelato e, come promesso, cominciamo a rivelare qualche segreto di bottega su come smascherarli.

Tu dammi le fotografie e io ti darò la guerratelegrafò l’editore William Hearst al suo fotografo Frederick Remington che, nel 1898, non trovava a Cuba nessuna scena che giustificasse una invasione USA. Sì, ma se non c’è nessuna immagine da mettere sui giornali per giustificare una guerra, che si fa? Si fanno fotografie false. A cominciare dai famosi “fotomosaici” finalizzati a criminalizzare La Comune di Parigi del 1870 e realizzati dal fotografo francese, Eugène Appert sovrapponendo alle facce di comparse quelle di comunardi. Oggi, ovviamente, nell’era del fotoritocco, i fotomosaici non convincerebbero nessuno (anche per un dettaglio che mi era sfuggito ed evidenziato dall’ottimo Massimo Mazzucco) soprattutto perché, abituati a foto ad alta risoluzione, ci accorgeremmo subito di anomalie quali difetti nel ritaglio, ombre fuori posto, luminosità difformi… tutti assenti nelle foto fake realizzate con moderni software o con l’Intelligenza Artificiale. Dove, perciò, è meglio concentrare l’attenzione su altri elementi. Ad esempio, i riflessi negli occhi delle persone fotografate. Questi dipendono dalle fonti di luce (sole, finestre, lampade…) che illuminano i soggetti e hanno forme ben precise: se non sono uguali per tutti i soggetti, vuol dire che le persone ritratte insieme non erano tutte materialmente nello stesso luogo e che, quindi, la foto è contraffatta.

Sempre a proposito di occhi. Il tallone di Achille dei video realizzati con l’Intelligenza Artificiale sono lo sbattere delle palpebre. Nel mondo reale, infatti, gli individui sbattono le ciglia con una specifica cadenza (si va, mediamente, dai due ai 10 secondi), e ogni battito di ciglia richiede tra un decimo e quattro decimi di secondo; attualmente i video deepfake non riescono a riproporre questa cadenza fissa. Buona norma, inoltre, nei video sospetti controllare le pupille dei soggetti, estraendo fotogrammi da verificare, uno per uno; l’apparire di improvvise incongruenze quali il posizionamento delle pupille, scintillii o soggetti riflessi non presenti contemporaneamente nei due bulbi oculari dovrebbero mettere in allarme. E se non vi va di verificare i video analizzandoli fotogramma per fotogramma, procuratevi un software che circola, in forma beta, in Rete: Video Authenticator; o iscrivetevi gratuitamente alla piattaforma Azure.

Ma torniamo a parlare di foto fake; per smascherarle ottimo il servizio fornito da Forensically. Buona regola, comunque, quando si vuole esaminare una foto sospetta è lavorare su quella con la più elevata risoluzione, nella quale, cioè, i dettagli se pur ingranditi non risultano “sgranati”. Solitamente, l’immagine a più elevata risoluzione che trovate su internet è la più antica, quella cioè dalla quale sono state ricavate tutte le altre (che poi sono state rese più “leggere” con il JPG per essere rapidamente caricate sulla Rete. Per trovarla, il motore di ricerca più indicato è Tineye (che vi segnala anche la data di immissione dell’immagine su Internet) ma anche Google immagini o Bing immagini vanno bene. Con questo sistema, ad esempio, è stato possibile documentare che una strage attribuita da Repubblica alla polizia di Assad era stata commessa, tre anni prima, da jihadisti o che le aree del viso di una presunta manifestante, fonti di “rivoli di sangue”, non rivelavano ad un ingrandimento né tagli né abrasioni.

Spesso poi le foto fake non sono foto ritoccate bensì rappresentano situazioni e contesti diversi da quelli specificati dalle didascalie. Tra i modi per smascherarle, soffermarsi sui vestiti; ad esempio quelli estivi di decine di presunti “profughi russi” che in pieno inverno raggiungevano la frontiera con la Finlandia. Lo smascheramento di una foto fuori contesto, inoltre, può essere dato dalla presenza in questa di elementi che non esistevano al momento dello scatto della foto come il tipo di selciato della strada (evidenzibile, ad esempio da Street View). Concentratevi, inoltre sulla presenza di oggetti che non giustificano quanto affermato in didascalia. Come la piscina presente in quella che veniva presentata come una “scuola elementare bombardata con napalm per ordine di Assad”; “napalm” che, tra l’altro aveva lasciato intatti non solo oggetti in plastica ma il velo di donne riprese mentre entravano per farsi “curare” in improbabili ospedali gestiti da “ribelli siriani”.

Questa faccenda di comparse che, soprattutto in Siria, hanno animato video destinati a TV occidentali per alimentare la guerra la approfondiremo nella prossima puntata dove affronteremo il ruolo dei “crisis actors” nella realizzazione di fake news. A proposito di questi ricordiamo la davvero curiosa storia di un intraprendente fotografo algerino che vendeva on line ad agenzie di stampa o a “corrispondenti di guerra” (i quali, verosimilmente, trovavano più comodo rivolgersi a lui invece di rischiare la vita fuori dai loro alberghi) foto di “vittime della guerra in Siria” da lui debitamente truccate. Intervistato da al-Jazeera, è poi scomparso insieme all’elenco dei suoi clienti.

Fonte:

https://www.lantidiplomatico.it/dettnews-intelligenza_artificiale_come_smascherare_foto_e_video_fake/6119_49513/

Di BasNews

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito web utilizza i cookie per migliorare la facilità d'uso. Se utilizzi il sito accetti l'utilizzo dei cookie.