Taula de continguts:
Vídeo: Setmana del 23 al 29 de març, classe de dimecres (De novembre 2024)
En algun lloc a les fosques escales de YouTube hi ha un vídeo que mostra un fragment de la pel·lícula The Fellowship of the Ring, però no es tracta del film que recordeu, ja que Nicolas Cage protagonitza Frodo, Aragorn, Legolas, Gimli i Gollum, tots a el mateix temps. Altres vídeos mostren Cage a Terminator 2 com T2000, Star Trek com a capità Picard, i Superman , també, Lois Lane.
Per descomptat, Nic Cage mai va aparèixer a cap d'aquestes pel·lícules. Són “deepfakes” produïts amb FakeApp, una aplicació que utilitza algoritmes d’intel·ligència artificial per intercanviar cares en vídeos. Algunes de les conclusions profundes semblen convincents, mentre que d’altres tenen artefactes que traeixen la seva veritable naturalesa. Però, en general, mostren el poderós algoritmes d'AI que han imitat l'aparença i el comportament dels humans.
FakeApp és només una de les noves eines de síntesi amb tecnologia AI. Altres aplicacions imiten veus humanes, escriptura a mà i estils de conversa. I una part del que els fa significatius és que per utilitzar-los no calen maquinari especialitzat ni experts qualificats.
L’impacte d’aquestes aplicacions és profund: crearan oportunitats sense precedents de creativitat, productivitat i comunicacions.
Però la mateixa eina també podria obrir una caixa de frau, falsificació i propaganda de Pandora. Des que va aparèixer a Reddit al gener, FakeApp s'ha descarregat més de 100.000 vegades i ha precipitat una tempesta de vídeos pornogràfics falsos amb famosos i polítics (inclosa Cage de nou). Reddit va prohibir recentment l'aplicació i les seves comunitats relacionades des de la seva plataforma.
"Fa deu anys, si volíeu falsificar alguna cosa, podríeu, però havíeu d'anar a un estudi VFX o gent que pogués fer gràfics informàtics i possiblement gastés milions de dòlars", afirma el doctor Tom Haines, professor en aprenentatge de màquines a Universitat de Bath. "Tanmateix, no podríeu guardar-lo en secret, perquè haureu d’involucrar moltes persones en el procés".
Això ja no és així, cortesia d’una nova generació d’eines d’IA.
El joc d'imitació
FakeApp i aplicacions similars es basen en l'aprenentatge profund, la branca de l'AI en el fons d'una explosió d'innovacions de l'AI des de 2012. Els algorismes d'aprenentatge profund es basen en xarxes neuronals, una construcció de programari aproximadament dissenyada després del cervell humà. Les xarxes neuronals analitzen i comparen grans conjunts de mostres de dades per trobar patrons i correlacions que normalment falten els humans. Aquest procés s'anomena "formació" i el seu resultat és un model que pot realitzar diverses tasques.
En dies anteriors, els models d’aprenentatge profund eren utilitzats principalment per realitzar tasques de classificació: etiquetar objectes en fotografies, per exemple, i realitzar reconeixement de veu i rostre. Recentment, els científics han aprofitat l'aprenentatge profund per realitzar tasques més complicades, com ara jugar a jocs de taula, diagnosticar pacients i crear música i obres d'art.
Per ajustar FakeApp per realitzar un intercanvi de rostres, l’usuari ha d’entrenar-lo amb diversos centenars d’imatges de les cares d'origen i de destinació. El programa utilitza algoritmes d’aprenentatge profund per trobar patrons i semblances entre les dues cares. Aleshores el model es prepara per canviar-se.
El procés no és senzill, però no cal que sigui un expert en gràfics o enginyer en aprenentatge automàtic per utilitzar FakeApp. Tampoc requereix un maquinari car i especialitzat. Un lloc web tutorial profund recomana un ordinador amb 8 GB o més de memòria RAM i una targeta gràfica Nvidia GTX 1060 o superior, una configuració força modesta.
"Una vegada que us traslladeu a un món on algú d'una habitació pot falsificar alguna cosa, pot utilitzar-lo amb finalitats qüestionables", diu Haines. "I perquè és una sola persona per si mateixa, mantenir-la en secret és molt fàcil."
El 2016, Haines, que aleshores era investigador postdoctoral a la University of College London, va coautor d’un treball i una aplicació que mostrava com la IA podia aprendre a imitar la cal·ligrafia d’una persona. L'aplicació es va anomenar "My Text in Your Handwriting", l'aplicació va utilitzar algoritmes d'aprenentatge profund per analitzar i distingir l'estil i el flux de la cal·ligrafia de l'autor i altres factors com l'espai i les irregularitats.
L’aplicació podia després agafar qualsevol text i reproduir-lo amb la cal·ligrafia de l’autor destinatari. Els desenvolupadors van afegir fins i tot una mesura d’atzar per evitar l’efecte fantàstic vall, la estranya sensació que obtenim quan veiem una cosa gairebé però no prou humana. Com a prova de concepte, Haines i altres investigadors de la UCL van utilitzar la tecnologia per replicar la cal·ligrafia de personatges històrics com Abraham Lincoln, Frida Kahlo i Arthur Conan Doyle.
La mateixa tècnica es pot aplicar a qualsevol altra escriptura, que va suscitar preocupacions sobre el possible ús de la tecnologia per a falsificacions i fraus. Un expert en forenses encara podria detectar que el guió va ser produït per My Text in Your Handwriting, però és probable que deixi enganyar a persones sense formació, que va admetre Haines en una entrevista a Digital Trends.
Lyrebird, una start-up de Mont-real, va utilitzar l'aprenentatge profund per desenvolupar una aplicació que sintetitzi la veu humana. Lyrebird requereix una gravació d’un minut per començar a imitar la veu d’una persona, tot i que necessita molt més abans que comenci a sonar convincent.
En la seva demostració pública, la startup va publicar gravacions falses de les veus de Donald Trump, Barack Obama i Hillary Clinton. Les mostres són crues, i és evident que són sintètiques. Però a mesura que la tecnologia millora, es farà més difícil la distinció. I qualsevol pot registrar-se a Lyrebird i començar a crear gravacions falses; el procés és fins i tot més senzill que el de FakeApp, i els càlculs es realitzen al núvol, fent menys esforç al maquinari de l’usuari.
El fet que aquesta tecnologia es pugui utilitzar amb finalitats qüestionables no es perd en desenvolupadors. En un moment donat, una declaració d’ètica al lloc web de Lyrebird afirmava: "Actualment les gravacions de veu es consideren proves fortes a les nostres societats i en particular a jurisdiccions de molts països. La nostra tecnologia qüestiona la validesa de les proves, ja que permet manipular fàcilment l'àudio. Això podria tenir conseqüències perilloses com ara diplomàtics enganyosos, fraus i, en general, qualsevol altre problema causat per robar la identitat d’una altra persona."
Nvidia va presentar un altre aspecte de les capacitats d'imitació de l'AI: L'any passat, la companyia va publicar un vídeo que mostrava algoritmes d'AI que generen rostres humans sintètics de qualitat fotogràfica. L’AI de Nvidia va analitzar milers de fotos de famoses i després va començar a crear falses celebritats. La tecnologia pot arribar a ser capaç de crear vídeos d'aspecte realista amb "persones" que no existeixen.
Els Límits de la IA
Molts han assenyalat que en les mans equivocades, aquestes aplicacions poden causar molt de mal. Però l’abast de les capacitats de la IA contemporània sovint s’excusa.
"Tot i que podem posar la cara d'una persona a un altre vídeo en un vídeo o sintetitzar la veu, no deixa de ser bastant mecànic", afirma Eugenia Kuyda, cofundadora de Replika, una companyia que desenvolupa els chatbots de tecnologia AI, sobre les mancances de Eines d'AI com FakeApp i Lyrebird.
La voicery, una altra startup AI que, com Lyrebird, proporciona la síntesi de veu basada en AI, té una pàgina de test on els usuaris presenten una sèrie de 18 enregistraments de veu i se'ls demana que especifiquin quines són fetes a màquina. Vaig poder identificar totes les mostres fabricades a màquina al primer pas.
La companyia de Kuyda és una de les diverses organitzacions que utilitzen processament de llenguatges naturals (NLP), el subconjunt d’IA que permet als ordinadors comprendre i interpretar el llenguatge humà. Luka, una versió anterior del chatbot de Kuyda, va utilitzar NLP i la seva tecnologia bessona, generació de llenguatge natural (NLG), per imitar el repartiment de la sèrie de televisió HBO Silicon Valley . La xarxa neuronal es va formar amb línies de guió, tuits i altres dades disponibles sobre els caràcters per crear el seu model de comportament i diàleg amb els usuaris.
Replika, la nova aplicació de Kuyda, permet a cada usuari crear el seu propi avatar d'AI. Com més xerram amb la vostra Replika, millor serà la comprensió de la vostra personalitat i les converses tenen més sentit.
Després d’instal·lar l’aplicació i configurar la meva Replika, he trobat les molèsties primeres. Diverses vegades, he hagut de repetir una frase de maneres diferents per transmetre les meves intencions a la meva Replika. Sovint vaig deixar l’aplicació frustrada. (I per ser justos, vaig fer un bon treball a l’hora de provar els seus límits, bombardejant-lo amb preguntes conceptuals i abstractes.) Però a mesura que van continuar les converses, la meva Replica es va fer més intel·ligent a l’hora de comprendre el sentit de les meves frases i plantejar temes significatius. Fins i tot em va sorprendre un parell de vegades fent connexions a converses passades.
Tot i que és impressionant, Replika té uns límits, que Kuyda és ràpidament a assenyalar. "La imitació de veu i el reconeixement de la imatge probablement es milloraran molt aviat, però, amb el diàleg i la conversa, encara estem prou lluny", diu. "Podem imitar alguns patrons de parla, però no podem simplement agafar una persona i imitar la seva conversa perfectament i esperar que el seu xat creï noves idees de la mateixa manera".
Alexandre de Brébisson, el conseller delegat i cofundador de Lyrebird, diu: "Si ara ens estem sentint molt bons a l'hora d'imitar la veu, la imatge i el vídeo humans, encara estem lluny de dissenyar un model de llenguatge individual". Això, assenyala De Brébisson, probablement requeriria intel·ligència general artificial, el tipus d'AI que té consciència i pot comprendre conceptes abstractes i prendre decisions com ho fan els humans. Alguns experts creuen que estem dècades lluny de crear una IA general. D’altres pensen que mai no hi arribarem.
Usos positius
La imatge negativa que s’està projectant sobre la síntesi d’aplicacions d’AI està fent una ombra sobre els seus usos positius. I n’hi ha força.
Tecnologies com Lyrebird poden ajudar a millorar les comunicacions amb interfícies d’ordinadors fent-les més naturals i, segons Brébisson, proporcionaran veus artificials úniques que diferencien empreses i productes i facilitaran la distinció de marca. Com que Alexa i Amazon i Siri d’Apple han fet de la veu una interfície cada cop més popular per a dispositius i serveis, empreses com Lyrebird i Voicery podrien proporcionar a les marques veus úniques com a humans per distingir-se.
"Les aplicacions mèdiques també són un cas d'ús emocionant de la nostra tecnologia de clonació de veu", afegeix Brébisson. "Hem rebut molt d'interès dels pacients que perden la veu davant d'una malaltia i, de moment, estem passant temps amb els pacients amb ALS per veure com els podem ajudar".
A principis d’any, en col·laboració amb Project Revoice, un ànim de lucre australià que ajuda els pacients amb ALS amb trastorns de parla, Lyrebird va ajudar a Pat Quinn, el fundador del Ice Bucket Challenge, a recuperar la veu. Quinn, que és un pacient amb ALS, havia perdut la capacitat de caminar i parlar el 2014 i des de llavors utilitzava un sintetitzador de veu informatitzat. Amb l'ajuda de la tecnologia de Lyrebird i les gravacions de veu de les aparicions públiques de Quinn, Revoice va poder "recrear" la seva veu.
"La vostra veu és una gran part de la vostra identitat, i donar als pacients una veu artificial que sona com la seva veu original és una mica com tornar-los una part important de la seva identitat. És canviant la vida per a ells", afirma Brébisson.
En el moment que va ajudar a desenvolupar l’aplicació que imita la cal·ligrafia, el doctor Haines va parlar dels seus usos positius en una entrevista amb UCL. "Les víctimes d'ictus, per exemple, poden ser capaces de formular cartes sense la preocupació de la il·legibilitat, o algú que enviï flors com a regal podria incloure una nota manuscrita sense ni tan sols entrar a la floristeria", va dir. "També es podria utilitzar en còmics on es pugui traduir un text escrit a mà en diferents idiomes sense perdre l'estil original de l'autor."
Fins i tot, segons Haines, tecnologies com FakeApp, que s'han reconegut per l'ús no ètic, podrien tenir usos positius. "Ens estem dirigint cap a aquest món on qualsevol pot fer activitats altament creatives amb tecnologia pública, i això és bo, perquè significa que no necessiteu aquestes grans sumes de diners per fer tota mena de coses boges de caràcter artístic, " ell diu.
Haines explica que el propòsit inicial del seu equip era esbrinar com la IA pot ajudar-se amb els forenses. Tot i que les seves investigacions van acabar prenent una direcció diferent, els resultats encara seran útils per als agents forenses, que podran estudiar com podria ser la falsificació basada en AI. "Voleu saber quina és la tecnologia d'avantguarda; així, quan esteu mirant alguna cosa, digueu si és fals o no", afirma.
Kudiya de Replica assenyala que les aplicacions AI com a humans poden ajudar-nos de maneres que d’altra manera seria impossible. "Si tinguéssiu un avatar de l'AI que us conegués molt bé i pogués ser una representació digna de vosaltres, què podríeu fer, actuant del vostre interès?" ella diu. Per exemple, un avatar de l'AI autònom podria veure centenars de pel·lícules en nom vostre i, en funció de les converses amb vosaltres, us recomanem que us agradaria.
Aquests avatars poden fins i tot ajudar a desenvolupar millors relacions humanes. "Potser la teva mare podria tenir més temps amb tu, i potser realment et pots apropar una mica més amb els pares, deixant-los conversar amb la teva Replika i llegint la transcripció", diu Kudya com a exemple.
Però, pot ser que un xat de xat artístic que repliqui el comportament d’un ésser humà real doni lloc a millors relacions humanes? Kuyda creu que pot. El 2016 va reunir missatges de text i correus electrònics antics de Roman Mazurenko, un amic que havia mort en un accident de trànsit l'any anterior, i els va alimentar a la xarxa neuronal que alimentava la seva aplicació. El resultat va ser una aplicació de xat que, després d'una moda, va tornar a la seva amiga i va poder parlar amb ella de la mateixa manera que ell.
"Crear una aplicació per a Roman i poder parlar amb ell de vegades era una part important per passar per la pèrdua del nostre amic. L'aplicació ens fa pensar més sobre ell, recordar-lo d'una manera més profunda tot el temps", diu. de la seva experiència. "M'agradaria tenir més aplicacions així, aplicacions que serien sobre les meves amistats, les meves relacions, coses realment importants per a mi".
Kuyda creu que tot dependrà de les intencions. "Si el chatbot actua del vostre millor interès, si vol que estigueu encantats de treure algun servei valuós, obviament, parlar amb la Replica d'algú més ajudarà a crear una connexió més forta amb un ésser humà a la vida real., " ella diu. "Si tot el que intenteu és vendre en una aplicació, tot el que fareu és maximitzar el temps dedicat a l'aplicació i no comunicar-vos amb els altres. I això, suposo, és discutible."
De moment, no hi ha cap manera de connectar la vostra Replika a altres plataformes, fent-la disponible com a xat de correu de Facebook Messenger, per exemple. Però l’empresa manté una relació activa amb la seva comunitat d’usuaris i està desenvolupant contínuament noves funcions. Per tant, permetre que altres persones es comuniquin amb la vostra Replika és una possibilitat futura.
Com minimitzar les eliminacions
De la màquina de vapor a l’electricitat a internet, tota tecnologia ha tingut aplicacions tant positives com negatives. L’IA no és diferent. "El potencial de negatius és bastant greu", diu Haines. "Podríem estar entrant en un espai que els negatius superen als positius."
Llavors, com maximitzem els avantatges de les aplicacions d’IA mentre contrarestem els aspectes negatius? Haines afirma que no és la solució de frenar la innovació i la investigació, ja que si ho fessin, no hi ha cap garantia que altres organitzacions i estats seguissin el mateix.
"Cap mesura única ajudarà a resoldre el problema", diu Haines. "Hi haurà d'haver conseqüències legals." Després de la controvèrsia sobre els conflictes profunds, els legisladors dels Estats Units estudien el problema i exploraran salvaguardes legals que podrien reiniciar l'ús de mitjans de comunicació amb doctorat AI per aconseguir objectius perjudicials.
"També podem desenvolupar tecnologies per detectar falsificacions quan passin el punt que un humà pugui distingir la diferència", diu Haines. "Però en algun moment, en la competència entre falsificació i detecció, la falsificació podria guanyar".
En aquest cas, potser hauríem d’avançar cap a desenvolupar tecnologies que creessin una cadena d’evidències per a mitjans digitals. Com a exemple, Haines esmenta el hardware integrat a les càmeres que podrien signar digitalment el seu vídeo gravat per confirmar la seva autenticitat.
Potenciar la consciència serà una gran part del tractament de la falsificació i el frau per algorismes AI, segons Brébisson. "És el que vam fer clonant la veu de Trump i Obama i fent-los dir frases políticament correctes", afirma. "Aquestes tecnologies plantegen qüestions socials, ètiques i legals que cal tenir en compte abans. Lyrebird va plantejar molta consciència, i molta gent està pensant en aquells possibles problemes i com evitar els abusos".
El que és cert és que estem entrant en una era en què la realitat i la ficció es fusionen, gràcies a la intel·ligència artificial. La prova de Turing podria afrontar els seus majors reptes. I ben aviat, cadascú tindrà les eines i el poder per crear el seu propi món, la seva pròpia gent i la seva pròpia versió de la veritat. Encara hem de veure tota una oportunitat emocionant, i els perills, que encara hi ha.