Casa Negocis L'ajut i l'aprenentatge automàtic exploten, descobriments profunds, ara més difícils de detectar

L'ajut i l'aprenentatge automàtic exploten, descobriments profunds, ara més difícils de detectar

Taula de continguts:

Vídeo: DeepFake Detector AIs Are Good Too! (De novembre 2024)

Vídeo: DeepFake Detector AIs Are Good Too! (De novembre 2024)
Anonim

A mesura que ens dirigim a la propera temporada de les campanyes electorals presidencials, voldreu tenir compte dels possibles perills que els vídeos falsos en línia comporten mitjançant la intel·ligència artificial (AI) i l'aprenentatge automàtic (ML). Utilitzant el programari AI, les persones poden crear vídeos profunds (breus per a "aprenentatges profunds i falsos") en què s'utilitzin algoritmes ML per realitzar un intercanvi de cara per crear la il·lusió que algú ha dit alguna cosa que no va dir o que és algú. no ho sóc. Els vídeos profunds es mostren en diversos escenaris, des de l'entreteniment fins a la política fins al món corporatiu. No només els vídeos profunds poden influir injustament en les eleccions amb missatges falsos, sinó que poden provocar vergonya personal o provocar missatges de marca enganyosos si, per exemple, mostren un CEO que anuncia un llançament de producte o una adquisició que realment no va passar.

Deepfakes formen part d'una categoria de IA anomenada "Generative Adversarial Networks" o GAN, en què dues xarxes neuronals competeixen per crear fotografies o vídeos que apareguin reals. Els GAN consisteixen en un generador, que crea un nou conjunt de dades com un vídeo fals, i un discriminador, que utilitza un algorisme ML per sintetitzar i comparar dades del vídeo real. El generador continua intentant sintetitzar el vídeo fals amb el vell fins que el discriminador no pugui dir que les dades són noves.

Tal com va assenyalar Steve Grobman, vicepresident i conseller delegat de tecnologia (CTO) de McAfee a la Conferència RSA del març del març a San Francisco, hi ha fotografies falses des de la invenció de la fotografia. Va dir que canviar fotos ha estat una tasca senzilla que podeu realitzar en una aplicació com Adobe Photoshop. Però ara aquest tipus de funcions d’edició avançada també s’estan convertint en vídeo i ho estan fent mitjançant eines de programari d’alta capacitat i d’accés fàcil.

Com es creen els deepfakes

Tot i que la comprensió dels conceptes d'AI és útil, no és necessari ser un científic de dades per crear un vídeo profund. Només implica seguir algunes instruccions en línia, segons Grobman. A la RSA Conference 2019 (vegeu el vídeo anterior), va donar a conèixer un vídeo profund amb el Dr. Celeste Fralick, científic de dades de dades i enginyer principal principal de McAfee. El vídeo deepfake va il·lustrar l'amenaça que presenta aquesta tecnologia. Grobman i Fralick van mostrar com un funcionari públic en un vídeo que deia que alguna cosa perillosa podria enganyar el públic perquè pensés que el missatge és real.

Per crear el seu vídeo, Grobman i Fralick van descarregar el programari deepfake. Després van fer un vídeo de Grobman testimoniant davant el Senat dels Estats Units el 2017 i van sobreposar la boca de Fralick a la de Grobman.

"Vaig utilitzar comentaris públics de lliure accés per crear i formar un model ML; això em va permetre desenvolupar un vídeo profund amb les meves paraules que sortien de la boca", va dir Fralick a l'audiència RSA de l'escenari. Fralick va dir que els vídeos profunds es podrien utilitzar per a la guerra d’informació i explotació social.

Per realitzar el seu vídeo a fons, Grobman i Fralick van utilitzar una eina que un usuari de Reddit va desenvolupar anomenat FakeApp, que utilitza algoritmes i fotografies ML per intercanviar cares en vídeos. Durant la presentació de RSA, Grobman va explicar els passos següents. "Hem dividit els vídeos en imatges fixes, hem extret les cares i els hem netejat ordenant-los i netejant-los a Instagram".

Els scripts de Python van permetre a l'equip de McAfee construir moviments de boca perquè el discurs de Fralick coincidís amb la boca de Grobman. Després van necessitar escriure alguns scripts personalitzats. Grobman va dir que el desafiament de crear un fons profund convincent és quan característiques com el sexe, l'edat i el to de la pell no coincideixen.

Ell i Fralick van utilitzar llavors un algoritme final d'AI per combinar les imatges de Grobman testimoniant davant el Senat amb el discurs de Fralick. Grobman va afegir que va trigar 12 hores a entrenar aquests algoritmes de ML.

McAfee va exposar els passos que va dur a terme per crear un vídeo profund en la sessió RSA 2019. Va utilitzar un programari deepfake anomenat FakeApp i entrenament de models de ML per alterar el vídeo de Grobman amb el discurs de Fralick. (Crèdit d'imatge: McAfee).

Les conseqüències dels deepfakes

Els vídeos profunds creats amb pirates informàtics poden causar molts problemes: tot això, des dels funcionaris governamentals que difonen desinformacions falses fins a celebritats per la vergonya de no trobar-se en vídeos que realment no estaven a les empreses que perjudicaven la classificació del mercat de valors. Conscients d’aquests problemes, els legisladors al setembre van enviar una carta a Daniel Coats, director nord-americà d’Intel·ligència Nacional, per demanar-li una revisió de l’amenaça que suposaven les revoltes profundes. La carta advertia que països com Rússia podrien utilitzar fons en les xarxes socials per difondre informació falsa. Al desembre, els legisladors van presentar la Malicious Deep Fake Prohibition Act de 2018 per il·legalitzar el frau en relació als "registres audiovisuals", que es refereixen a resultats profunds. Resta veure si passarà la factura.

Com s'ha esmentat, les celebritats poden patir vergonya a causa dels vídeos en què les seves cares han estat superposades a les cares de les estrelles porno, com va ser el cas de Gal Gadot. O imagina’t que un director general suposadament anunciava notícies sobre productes i enfonsaria les accions d’una empresa. Els professionals de la seguretat poden utilitzar ML per detectar aquest tipus d’atacs, però si no es detecten a temps, poden provocar danys innecessaris a un país o a una marca.

"Amb deepfakes, si saps què estàs fent i saps a qui has de dirigir-te, realment pots arribar a un vídeo convincent que causi molts danys a una marca", va dir la doctora Chase Cunningham, analista principal de Forrester Research.. Va afegir que, si distribuïu aquests missatges a LinkedIn o Twitter o feu servir un formulari de bot, "podeu triturar l'estoc d'una empresa basada en un vídeo total falsos sense esforçar-vos una mica".

A través de vídeos profunds, els consumidors podrien enganyar-se a creure que un producte pot fer alguna cosa que no pot. Cunningham va assenyalar que, si un director general del fabricant d'automòbils va dir en un fals contingut que la companyia ja no fabricaria vehicles amb gas i després difondria aquest missatge a Twitter o LinkedIn en aquest vídeo, llavors aquesta acció podria danyar fàcilment una marca.

"Curiosament de la meva recerca, la gent pren decisions en funció de títols i vídeos en 37 segons, va dir Cunningham." Així que us podeu imaginar si podeu obtenir un vídeo amb una durada de més de 37 segons, podeu aconseguir que la gent prengui una decisió basada en ja sigui de fet o no. I això és terrorífic ".

Atès que les xarxes socials són un lloc vulnerable on els vídeos deepfake poden anar virals, els llocs de xarxes socials estan treballant activament per combatre l’amenaça d’atropols. Facebook, per exemple, desplega equips d’enginyeria que poden detectar fotos, àudio i vídeo manipulats. A més d’utilitzar programari, Facebook (i altres empreses de mitjans de comunicació social) contracten persones per buscar manualment aplicacions profundes.

"Hem ampliat els nostres esforços continus per combatre els mitjans manipulats per incloure la solució a fons", va dir un representant de Facebook en un comunicat. "Sabem que la continua aparició de totes les formes de mitjans manipulats presenta reptes reals per a la societat. És per això que invertim en noves solucions tècniques, aprenent de la investigació acadèmica i treballant amb altres de la indústria per entendre els fons i altres formes de mitjans manipulats. ".

No tots els deepfakes són dolents

Tal com hem vist amb el vídeo educatiu deepfake de McAfee i els còmics deepfake videos de la tarda nit, alguns vídeos profunds no són necessàriament dolents. De fet, si bé la política pot exposar els perills reals dels vídeos profunds, la indústria de l’entreteniment sol mostrar només el seu aspecte més lleuger.

Per exemple, en un episodi recent de The Late Show With Stephen Colbert, es va mostrar un divertit vídeo deepfake en el qual la cara de l’actor Steve Buscemi estava superposada al cos de l’actriu Jennifer Lawrence. En un altre cas, l’humorista Jordan Peeler va substituir un vídeo de l’expresident Barack Obama parlant amb la seva pròpia veu. També han aparegut vídeos en línia humorístics com aquests en línia, en què la cara del president Trump es superposa a la cara de la cancellera alemanya, Angela Merkel, mentre parla la persona.

De nou, si els vídeos deepfake s’utilitzen amb finalitat satírica o humorística o simplement com a entreteniment, les plataformes de mitjans socials i fins i tot les cases de producció de pel·lícules les permeten o usen. Per exemple, Facebook permet aquest tipus de contingut a la seva plataforma i Lucasfilm va utilitzar un tipus de recreació digital per presentar a una jove Carrie Fisher al cos de l’actriu Ingvild Deila a "Rogue One: A Star Wars Story".

Grobman de McAfee va assenyalar que algunes de les tecnologies que hi ha darrere dels deepfakes estan utilitzades amb la duplicació de les acrobàcies en la realització de moviments per mantenir els actors segurs. "El context és tot. Si es tracta de propòsits còmics i és obvi que no és real, això és un ús legítim de la tecnologia", va dir Grobman. "Reconèixer que es pot utilitzar per a tot tipus de propòsits diferents és clau".

(Crèdit imatge: Statista)

Com detectar vídeos profunds

McAfee no és l’única empresa de seguretat que experimenta com detectar vídeos falsos. En el seu article publicat a Black Hat 2018 titulat "AI Gone Rogue: Exterminating Fakes Deep Before Cause Amenace", dos experts en seguretat de Symantec, el responsable de la resposta de seguretat Vijay Thaware i l'enginyer de desenvolupament de programari Niranjan Agnihotri, escriuen que han creat una eina per detectar vídeos falsos basats en Google FaceNet. Google FaceNet és una arquitectura de xarxes neuronals que els investigadors de Google van desenvolupar per ajudar a verificar i reconèixer la cara. Els usuaris entrenen un model FaceNet sobre una imatge determinada i després poden verificar la seva identitat durant les proves posteriors.

Per intentar aturar la difusió de vídeos profunds, AI Foundation, una organització sense ànim de lucre centrada en la interacció humana i AI, ofereix un programari anomenat "Reality Defender" per detectar contingut fals. Es pot escanejar imatges i vídeos per veure si s’han modificat mitjançant AI. Si ho tenen, obtindran una "filigrana de l'AI honesta".

  • La guia empresarial per a l'aprenentatge automàtic La guia empresarial per a l'aprenentatge automàtic
  • PornHub, Twitter prohibició de porno "Deepfake" Porno modificat per AI PornHub, Twitter Prohibit "Deepfake" Porno modificat per AI
  • Les darreres tecnologies Deepfake et faran ballar com Bruno Mars Les últimes tecnologies Deepfake et faran ballar com Bruno Mars

Una altra estratègia és tenir present el concepte de Zero Trust, que significa "mai confieu, sempre verifiqueu", un lema de ciberseguretat que significa que els professionals de les TI han de confirmar que tots els usuaris són legítims abans de concedir els privilegis d'accés. Serà escèptic de la validesa del contingut de vídeo. També voldreu que el programari amb funcions d'analítica digital detecti contingut fals.

A la recerca de Deepfakes

En endavant, caldrà ser més prudents amb el contingut de vídeo i tenir en compte els perills que poden presentar a la societat si s’utilitza malament. Tal com va assenyalar Grobman, "En un termini proper, la gent ha de ser més escèptica del que veuen i reconèixer que es pot fabricar vídeo i àudio."

Per tant, mireu amb escèptic els vídeos polítics que veieu mentre ens dirigim a la propera temporada electoral i no confieu en tots els vídeos amb líders corporatius. Perquè el que escolteu pot no ser el que es va dir realment, i els vídeos enganxats a fons poden tenir el potencial de danyar realment la nostra societat.

L'ajut i l'aprenentatge automàtic exploten, descobriments profunds, ara més difícils de detectar