CatDialeg
CatDialeg
CatDialeg
CatDialeg
Què és el “deepfake”, la propera generació de notícies falses? Què és el “deepfake”, la propera generació de notícies falses?

Què és el “deepfake”, la propera generació de notícies falses?

La intel·ligència artificial ja fa possible la generació de contingut audiovisual totalment fals. Què és, com funciona i com es pot combatre el “deepfake”?
FocusMónZPortada Izquierda 14 Gener, 2019 CatDialeg 0
0 / 5 (0 votes)

Inici » Historic » Què és el “deepfake”, la propera generació de notícies falses?

Fins ara, l’onada de noticies falses que assola internet ha afectat sobretot textos i imatges. Els vídeos, en canvi, se segueixen considerant generalment com evidència irrefutable d’un fet.

No obstant, això ja està canviant degut a la intel·ligència artificial, que permet la manipulació tant de les imatges en moviment com del so d’un vídeo.

Robert Chesney i Danielle Citron anomenen aquest fenomen “deepfake”: àudios i vídeos extremadament realistes i que mostren algú fent o dient quelcom que mai ha fet o dit.

El principi informàtic del “deepfake”

Els “deepfakes” són possibles gràcies als avenços en l’àrea del “aprenentatge profund” (“deep learning”). L’aprenentatge profund consisteix en emprar un conjunt d’algoritmes que aprenen a identificar patrons i replicar-los servint-se dels exemples proveïts per vastes bases de dades.

Aprofitant aquesta tecnologia, els “deepfakes” funcionen mitjançant un doble algoritme anomenat GAN en que un d’ells s’enfronta a l’altre. El primer, anomenat “generador”, crea contingut mitjançant aprenentatge profund. Per exemple, fabricant una imatge artificial d’un gat gràcies a l’estudi de milers de fotografies reals de gats. El segon algoritme, el “discriminador”, està programat per detectar la imatge falsa. Com els dos algoritmes s’enfronten, el “generador” esdevé cada cop més precís, fins al punt que es fa difícil distingir la imatge real de l’artificial.

En aquesta senzilla mostra de la tecnologia, un usuari ha canviat la cara del actor Harrison Ford a Indiana Jones per la de Nicolas Cage.

Possibles aplicacions

Si bé la cara de Nicolas Cage pot semblar divertida en el cos de Harrison Ford, aquest vídeo de Barack Obama generat amb el mateix mètode mostra els perills del “deepfake”.

Les aplicacions perverses són fàcils d’imaginar. Només cal pensar en els devastadors efectes que pot tenir un vídeo del president nord-americà planejant un cop d’estat a un país sud-americà, o d’un militar occidental cremant una copia de l’Alcorà, per adonar-se’n dels efectes potencialment devastadors del “deepfake”.

En l’època de les xarxes socials, quan la informació circula tant ràpid que impossibilita la verificació a temps, el “deepfake” pot provocar conflictes a una escala molt superior a les noticies falses tradicionals.

Gràcies als programes de “deepfake” que ja existeixen, alguns dels quals són inclús gratuïts, un petit grup terrorista o inclús un individu pot fàcilment induir a l’error de l’opinió pública. El “deepfake” demostra que estem arribant a un punt en que es fa impossible distingir la informació veraç de la falsa.

El programa emprat per canviar la cara a Harrison Ford, anomenat FakeApp, és gratuït. A dia d’avui, produir un “deepfake” ja és tan senzill com disposar del programa adequat i tenir la paciència de reunir el material audiovisual de base que serveixi al doble algoritme per aprendre.

Com defensar-se del “deepfake”?

Robert Chesney i Danielle Citron apunten a que existeixen diverses solucions tecnològiques que podrien servir per a contenir els “deepfakes”. Un projecte de l’Universitat d’Albany als Estats Units permet detectar “deepfakes” a través de moviments anormals al parpellejar. No obstant, aquest tipus de solucions, tal i com apunten els autors, serviran com a base per a millorar la tecnologia i fer-la encara més imperceptible.

Una altra solució és l’atribució de certificats d’autenticitat als vídeos i imatges en el moment de la seva creació. Es tracta de inserir-los un codi en les seves metadades que sigui resistent als canvis, com fa la tecnologia “blockchain”. No obstant, aquest tipus de solucions requeririen que tots els aparells de captació de imatges i so incorporessin sistemes de certificació, i que les xarxes socials exigissin als usuaris la càrrega de contingut autentificat. Ambdues condicions semblen incertes avui en dia.

Finalment, existeixen solucions legals com per exemple obligar els propietaris de xarxes socials, sota pena de multa, a retirar determinats continguts que facin per exemple apologia de la violència. El problema, en aquest cas, és qui decideix què es considera apologia i que no. El control del “deepfake” pot fàcilment esdevenir censura.

La millor forma de fer front al “deepfake” sembla doncs que és la conscienciació de la població, o com diuen els anglosaxons, incrementar la “resiliència” (resistència) dels ciutadans davant el risc d’engany. En definitiva, cal que aprenguem a viure envoltats de mentires i al mateix temps no hi caure.

Print Friendly, PDF & Email

CatDialeg

No hi ha comentaris

Sigues el primer en deixar un comentari

L'adreça electrònica no es publicarà. Els camps necessaris estan marcats amb *

Ús de cookies

Aquest lloc web utilitza cookies perquè vostè tingui la millor experiència d'usuari. Si continua navegant està donant el seu consentiment per a l'acceptació de les esmentades cookies i l'acceptació de la nostra política de cookies, punxi l'enllaç per a major informació. ACEPTAR

Aviso de cookies