Casa Opinions Alguna cosa ens pot protegir de les falles profundes? | ben dickson

Alguna cosa ens pot protegir de les falles profundes? | ben dickson

Taula de continguts:

Vídeo: ¿Qué son los deepfakes? Los trucos para detectar las falsificaciones de videos. (De novembre 2024)

Vídeo: ¿Qué son los deepfakes? Los trucos para detectar las falsificaciones de videos. (De novembre 2024)
Anonim

A finals del 2017, la placa base va informar sobre una tecnologia d’IA que podria canviar cares en vídeos. Aleshores, la tecnologia, que més tard es va anomenar deepfakes, va produir resultats bruts i greixos i es va utilitzar sobretot per crear vídeos porno falsos amb famosos i polítics.

Dos anys després, la tecnologia ha avançat enormement i és més difícil de detectar a simple vista. Juntament amb les notícies falses, els vídeos falsificats s'han convertit en una preocupació per la seguretat nacional, sobretot a mesura que s'apropen les eleccions presidencials del 2020.

Des que van sorgir resultats profunds, diverses organitzacions i empreses han desenvolupat tecnologies per detectar vídeos manipulats per IA. Però hi ha una por que, un dia, la tecnologia d’avions profunds serà impossible de detectar.

Els investigadors de la Universitat de Surrey van desenvolupar una solució que podria solucionar el problema: en lloc de detectar què és fals, demostrarà el que és veritat. Està previst que es presenti a la propera Conferència sobre Computer Vision and Recognition Recognition (CVPR), la tecnologia, anomenada Archangel, utilitza AI i blockchain per crear i registrar una empremta digital impermeable per a vídeos autèntics. L’empremta digital es pot utilitzar com a punt de referència per verificar la validesa dels mitjans de distribució en línia o emesos per televisió.

Utilitzant AI per signar vídeos

La manera clàssica de demostrar l’autenticitat d’un document binari és utilitzar una signatura digital. Els editors fan servir el seu document mitjançant un algoritme criptogràfic com SHA256, MD5 o Blowfish, que produeix un "hash", una curta cadena de bytes que representa el contingut d'aquest fitxer i es converteix en la seva signatura digital. Si utilitzeu el mateix fitxer mitjançant l’algoritme hashing es produirà en qualsevol moment el mateix hash si el seu contingut no ha canviat.

Els hashes són sensibles als canvis en l'estructura binària del fitxer font. Quan modifiqueu un sol byte al fitxer hashed i el torneu a executar a través de l'algorisme, produeix un resultat totalment diferent.

Però mentre els hashes funcionen bé per a fitxers i aplicacions de text, presenten reptes per a vídeos, que es poden emmagatzemar en diferents formats, segons John Collomosse, professor de visió per ordinador de la Universitat de Surrey i responsable del projecte per a Archangel.

"Volíem que la signatura fos la mateixa, independentment del codec amb què es comprimeix el vídeo", diu Collomosse. "Si agafo el meu vídeo i el converteixo, per exemple, de MPEG-2 a MPEG-4, aquest fitxer tindrà una longitud totalment diferent, i els bits hauran canviat completament, la qual cosa produirà un hash diferent. El que necessitàvem era un algorisme d’haver conscient del contingut."

Per solucionar aquest problema, Collomosse i els seus col·laboradors van desenvolupar una profunda xarxa neuronal sensible al contingut contingut al vídeo. Les xarxes neuronals profundes són un tipus de construcció de IA que desenvolupa el seu comportament mitjançant l’anàlisi de grans quantitats d’exemples. Curiosament, les xarxes neuronals també són la tecnologia al cor de les profunditats profundes.

En crear deepfakes, el desenvolupador alimenta la xarxa amb imatges de la cara d’un subjecte. La xarxa neuronal aprèn les característiques de la cara i, amb prou formació, es converteix en capaç de trobar i canviar les cares en altres vídeos amb la cara del subjecte.

La xarxa neuronal d’Arcàngel s’estrena en el vídeo que fa la seva empremta digital. "La xarxa està mirant el contingut del vídeo en lloc dels seus bits i bytes subjacents", diu Collomosse.

Després de la formació, quan executeu un nou vídeo a la xarxa, el validarà quan contingui el mateix contingut que el vídeo font independentment del seu format i el rebutjarà quan sigui un vídeo diferent o hagi estat manipulat o editat.

Segons Collomosse, la tecnologia pot detectar una modificació tant espacial com temporal. Les manipulacions espacials són canvis realitzats en fotogrames individuals, com ara les modificacions de canvi de cara fetes a deepfakes.

Però les falles profundes no són l'única manera com es poden manipular els vídeos. Menys discutits, però igualment perillosos, són els canvis intencionats a la seqüència de fotogrames i a la velocitat i la durada del vídeo. Un recent i ben manipulat vídeo manipulat de l'altaveu de la casa, Nancy Pelosi, no va utilitzar deepfakes, però es va crear mitjançant l'ús minuciós de tècniques d'edició simples que la van fer confosa.

"Una de les formes de manipulació que podem detectar és l'eliminació de segments curts del vídeo. Es tracta de manipulacions temporals. I podem detectar fins a tres segons de manipulació. Així doncs, si un vídeo té diverses hores i només en treu tres segons aquest vídeo, podem detectar-ho ", diu Collomosse, que afegeix que Archangel també detectarà canvis realitzats a la velocitat del vídeo original, com es va fer al vídeo Pelosi.

Registre de l'empremta digital a la Blockchain

El segon component del projecte Archangel és una blockchain, una base de dades a prova d’informació on es pot emmagatzemar nova informació però no canviar-la, ideal per a arxius de vídeo que no fan canvis als vídeos un cop registrats.

La tecnologia Blockchain es basa en monedes digitals com Bitcoin i Ether. És un registre digital que mantenen diversos partits independents. La majoria de les parts han d’acordar els canvis realitzats a la cadena blockchain, cosa que impossibilita que un partit únic es pugui ajuntar unilateralment amb el registre.

Tècnicament és possible atacar i canviar el contingut d’una blockchain si més d’un 50 per cent dels participants coincideixen. Però a la pràctica, és extremadament difícil, especialment quan molts partits independents la mantenen la blockchain amb objectius i interessos diversos.

La blockchain d'Archangel és una mica diferent de la blockchain pública. Primer, no produeix cryptocurrency i emmagatzema només l’identificador, l’empremta digital conscient del contingut i el hash binari de la xarxa neuronal del verificador per a cada vídeo en un arxiu (les cadenes de bloqueig no són adequades per emmagatzemar grans quantitats de dades, i és per això que el vídeo en si i la xarxa neuronal es guarden fora de la cadena).

A més, és un blockchain autoritzat o "privat". Això vol dir que, a diferència de la blockchain de Bitcoin, on tothom pot gravar noves transaccions, només les parts autoritzades poden emmagatzemar nous registres a la blockchain Archangel.

Actualment, Archangel està sent jutjat per una xarxa d’arxius del govern nacional del Regne Unit, Estònia, Noruega, Austràlia i Estats Units: Per emmagatzemar informació nova, tots els països implicats han de subscriure l’addició. Però, si bé només els arxius nacionals dels països participants tenen dret a afegir registres, tots els altres han llegit accés a la blockchain i poden utilitzar-lo per validar altres vídeos amb l'arxiu.

  • IA i Machine Learning Machine Exploit, Deepfakes, ara és més difícil de detectar IA i Machine Learning Exploit, Deepfakes, ara més difícil de detectar
  • Els vídeos Deepfake són aquí i no estem preparats Els vídeos Deepfake són aquí i no estem preparats
  • La nova IA d'Adobe detecta cares Photoshoppedes La nova IA d'Adobe detecta les cares Photoshop

"Aquesta és una aplicació de blockchain per al bé públic", diu Collomosse. "Segons el meu parer, l'únic ús raonable de la blockchain és quan teniu organitzacions independents que no necessàriament confien les unes en les altres, però sí que tenen aquest interès en aquest objectiu col·lectiu de confiança mútua. I el que busquem és assegurar els arxius nacionals de govern de tot el món, de manera que puguem subscriure la seva integritat mitjançant aquesta tecnologia ".

Com que la creació de vídeos falsificats és cada cop més fàcil, ràpida i accessible, tothom necessitarà tota l’ajuda que pugui obtenir per assegurar la integritat dels seus arxius de vídeo, especialment els governs.

"Crec que els descobriments són gairebé com una cursa d'armes", afirma Collomosse. "Com que la gent produeix resultats profunds cada cop més convincents, i algun dia es pot arribar a ser impossible detectar-los. Per això, el millor que podeu fer és intentar provar la projecció d'un vídeo".

Alguna cosa ens pot protegir de les falles profundes? | ben dickson