Taula de continguts:
Vídeo: Amazon Echo - SNL (De novembre 2024)
Un dispositiu Amazon Echo va enregistrar recentment la conversa privada d’un usuari i la va enviar a un dels seus contactes sense el seu coneixement ni consentiment. Això torna a suscitar preocupacions sobre la seguretat i la privadesa dels altaveus intel·ligents. Tanmateix, com es va fer evident, el estrany comportament d'Alexa no formava part d'un sinistre complot d'espionatge, sinó que va ser causat per una sèrie de fallades vinculades atribuïdes al funcionament de l'altaveu intel·ligent.
L’escenari és un cas d’avantguarda, el tipus d’incident que passa molt poques vegades. Però també és un estudi interessant en els límits de la tecnologia d’intel·ligència artificial que alimenta l’Echo i altres dispositius anomenats “intel·ligents”.
Massa confiança en núvol
Per entendre les ordres de veu, els altaveus intel·ligents com Echo i Google Home es basen en algorismes d'aprenentatge profund, que requereixen un gran poder informàtic. Com que no disposen dels recursos informàtics per realitzar la tasca localment, han d’enviar les dades als servidors al núvol del fabricant, on els algorismes AI transformen les dades de parla en text i processen les ordres.
Però els altaveus intel·ligents no poden enviar tot el que escolten als seus servidors al núvol, perquè això exigiria al fabricant que emmagatzemés quantitats excessives de dades als seus servidors, la majoria dels quals no serien inútils. L’enregistrament i l’emmagatzematge accidental de converses privades que es produeixen a les cases dels usuaris també suposaria un repte de privadesa i podria tenir problemes als fabricants, especialment amb les noves normatives de privadesa de dades que posen severes restriccions a la manera com emmagatzemen i utilitzen les empreses de tecnologia.
És per això que els altaveus intel·ligents estan dissenyats per activar-se després que l'usuari pronunciï una paraula com "Alexa" o "Hey Google". Només després d’escoltar la paraula de despertar, comencen a enviar l’entrada d’àudio dels seus micròfons al núvol per a l’anàlisi i el processament.
Si bé aquesta funció millora la privadesa, presenta els seus propis reptes, com va destacar el recent incident Alexa.
"Si la paraula -o alguna cosa que em sembla molt- s'envia a la meitat d'una conversa, Alexa no tindrà cap context anterior", afirma Joshua March, director general de Conversocial. "En aquest moment, escolta molt durament tots els comandaments relacionats amb les habilitats que heu configurat (com la seva aplicació de missatgeria). En la seva majoria, la privadesa es millora molt limitant el context al qual Alexa posa atenció (com no es tracta de gravar ni escoltar cap de les vostres converses normals), tot i que en aquest cas es va retrocedir ".
Els avenços en informàtica de vora poden ajudar a alleujar aquest problema. A mesura que l’IA i l’aprenentatge profund es troben més i més en dispositius i aplicacions, alguns fabricants de maquinari han creat processadors especialitzats per realitzar tasques d’AI sense dependre massa dels recursos al núvol. Els processadors AI de Edge poden ajudar dispositius com Echo a comprendre i processar millor les converses sense violar la privadesa dels usuaris enviant totes les dades al núvol.
Context i intenció
A banda de rebre peces d’àudio disparades i fragmentades, l’AI d’Amazon lluita per comprendre els matisos de la conversa humana.
"Si bé durant els darrers anys s'han aconseguit grans avenços en l'aprenentatge profund, que permeten al programari comprendre la parla i les imatges millor que mai, encara hi ha molts límits", afirma March. "Si bé els assistents de veu poden reconèixer les paraules que estàs dient, no necessàriament tenen cap mena de comprensió real sobre el significat o la intenció que hi ha darrere. El món és un lloc complex, però qualsevol sistema d'AI actualment només pot manejar molt casos específics d’ús estret."
Per exemple, els humans tenim moltes maneres de determinar si una frase està dirigida cap a nosaltres, com ara el to de la veu o seguint indicis visuals, per exemple, la direcció que busca el parlant.
En canvi, Alexa presumeix que és el destinatari de qualsevol frase que conté la paraula "A". És per això que els usuaris solen activar-lo de forma accidental.
Una part del problema és que exagerem les capacitats de les aplicacions actuals d'AI, sovint posant-les a la par o per sobre de la ment humana i confiant massa en elles. Per això ens sorprèn quan fracassen de forma espectacular.
"Aquí es tracta que part del tema" AI "ha estat tan agressivament comercialitzat que els consumidors han col·locat una quantitat de fe no conservada de fe en productes relacionats amb aquest terme", afirma Pascal Kaufmann, neurocientífic i fundador de Starmind. "Aquesta història il·lustra que Alexa té moltes capacitats i una comprensió relativament limitada de com i quan s'han d'aplicar adequadament".
Els algorismes d’aprenentatge profund són propensos a fallar quan s’enfronten a configuracions que es desvien de les dades i escenaris per als quals s’està entrenant. "Una de les característiques definidores de l'AI a nivell humà serà la competència autosuficient i la comprensió veritable del contingut", afirma Kaufmann. "Aquesta és una part crucial per considerar veritablement una IA" intel·ligent "i vital per al seu desenvolupament. La creació d'assistents digitals conscients de si mateixos, que aportin una comprensió completa de la naturalesa humana, marcaran la seva transformació d'una divertida novetat en una de veritable diversió. eina útil."
Però la creació d'AI de nivell humà, també coneguda com a IA general, és més fàcil que fer. Durant moltes dècades, hem estat pensant que està a la volta del sol, només quedar-nos consternats, ja que els avenços tecnològics han demostrat el complicat que és la ment humana. Molts experts creuen que la persecució de l'IA general és inútil.
Mentrestant, la IA estreta (com es descriuen les tecnologies actuals d’intel·ligència artificial) encara presenta moltes oportunitats i es pot solucionar per evitar que es repeteixin errors. Per dir-ho clar, l’aprenentatge profund i l’aprenentatge automàtic continuen naixent, i empreses com Amazon actualitzen constantment els seus algorismes d’IA per abordar els casos d’avantguarda cada cop que passin.
Què hem de fer
"Es tracta d'un camp jove i emergent. La comprensió del llenguatge natural és especialment en la seva infància, així que hi podem fer moltes coses", afirma Eric Moller, CTO d'Atomom X.
Moller creu que els algorismes d’AI d’anàlisi de veu es poden ajustar per entendre millor l’entonació i la inflexió. "Utilitzar la paraula" Alexa "en una frase més àmplia sona diferent que una invocació o una ordre. Alexa no hauria de despertar-se perquè heu dit aquest pas", diu Moller. Amb prou formació, l'AI ha de ser capaç de distingir quins tons específics es dirigeixen a l'altaveu intel·ligent.
Les empreses tecnològiques també poden formar la seva IA per poder distingir quan rep soroll de fons en lloc de parlar-ne directament. "La conversa de fons té una signatura auditiva única que els humans som molt bons per agafar i ajustar selectivament. No hi ha cap motiu perquè no puguem entrenar els models d'AI per fer el mateix", diu Moller.
Com a precaució, els ajudants de l'AI han de valorar l'impacte de les decisions que prenen i implicar decisions humanes en els casos en què volen fer alguna cosa que sigui potencialment sensible. Els fabricants haurien d’incloure més garanties en les seves tecnologies per evitar que s’enviï informació sensible sense el consentiment explícit i clar de l’usuari.
"Tot i que Amazon va denunciar que Alexa va intentar confirmar l'acció que va interpretar, algunes accions han de ser gestionades amb més cura i tenir un nivell més alt de confirmació de la intenció de l'usuari", diu Sagi Eliyahi, director general de Tonkean. "Els humans tenim els mateixos problemes de reconeixement de la parla, de vegades a les peticions que es poden equivocar. A diferència d'Alexa, però, un humà és més probable confirmar absolutament que entenen una sol·licitud poc clara i, el que és més important, mesurar la probabilitat d'una petició en comparació amb les peticions anteriors."
Mentrestant…
Mentre que les empreses de tecnologia finalitzen les seves aplicacions d’IA per reduir els errors, els usuaris hauran de prendre la decisió final sobre quant volen estar exposats als possibles errors que puguin cometre els seus dispositius amb tecnologia AI.
"Aquestes històries mostren un conflicte amb la quantitat de dades que la gent està disposada a compartir en contra de la promesa de les noves tecnologies d'AI", afirma Doug Rose, expert en ciències de dades i escriptor de diversos llibres sobre IA i programari. "Pot ser que es molesti a Siri per ser lent. Però la millor manera per aconseguir una intel·ligència més gran és invadir les nostres converses privades. Així doncs, una pregunta clau durant la propera dècada és la quantitat que permetrem a aquests agents de la IA analitzar el nostre comportament. ?"
"Quina família col·locaria un assistent humà al saló i deixaria que aquesta persona escoltés qualsevol tipus de conversa tot el temps?" afirma Kaufmann, el neurocientífic de Starmind. "Almenys hauríem d'aplicar els mateixos estàndards als dispositius anomenats" AI "(si no més alts) que també apliquem als éssers intel·ligents humans quan es tracta de privadesa, secret o fiabilitat".