Taula de continguts:
Vídeo: TOUT SAVOIR SUR LE PER ( PRICE EARNING RATIO ) (De novembre 2024)
Recentment, Google ha tornat a presentar Duplex per revelar explícitament als amfitrions dels restaurants i al personal del saló que parlen amb Google Assistant i que s'estan registrant.
En ajustar Duplex, Google ens permet refer algunes d'aquestes crítiques. Però, per què és tan important que les empreses siguin transparents sobre la identitat dels seus agents d’IA?
Els ajudants d'AI poden servir a propòsits dolents?
"Existeix una expectativa creixent que quan fas missatges a un negoci poguessis estar interaccionant amb un chatbot alimentat per IA. Però quan en realitat escoltes parlar un ésser humà, generalment esperes que sigui una persona real", afirma Joshua March, CEO. de Coversocial.
March diu que al principi som persones que tenen interaccions significatives amb AI de forma regular i els avenços en el camp han creat la por que els pirates informàtics puguin explotar agents AI per a propòsits maliciosos.
"En els millors casos, els AI amb intencions malicioses podrien ofendre a la gent", afirma Marcio Avillez, SVP de Networks de Cujo AI. Però Marcio afegeix que potser ens enfrontem a amenaces més terribles. Per exemple, la IA pot aprendre patrons lingüístics específics, facilitant l’adaptació de la tecnologia per manipular persones, suplantar víctimes i atacs de vishing stage (phishing de veu) i activitats similars.
Molts experts coincideixen que l’amenaça és real. En una columna de CIO, Steven Brykman va exposar les diferents maneres d’explotar una tecnologia com Duplex: "Almenys amb els humans que truquen humans, encara hi ha un factor limitant; un humà només pot fer tantes trucades per hora i per dia. Els humans hem de pagar, fer pauses i així successivament. Però un chatbot de la IA podria literalment fer un nombre il·limitat de trucades a un nombre il·limitat de persones de manera il·limitada."
En aquesta fase, la majoria del que escoltem és especulació; encara no sabem l’abast i la gravetat de les amenaces que poden sorgir amb l’arribada d’assistents de veu. Però molts dels atacs potencials que involucren assistents basats en la veu es poden canviar si la companyia que proporciona la tecnologia comunica explícitament als usuaris quan interaccionen amb un agent de IA.
Problemes de privadesa
Un altre problema que envolta l’ús de tecnologies com Duplex és el risc potencial per a la privadesa. Els sistemes basats en IA necessiten dades d'usuari per entrenar i millorar els seus algorismes, i Duplex no és una excepció. La forma d’emmagatzemar, protegir i utilitzar aquestes dades és molt important.
S’estan publicant noves regulacions que requereixen a les empreses que obtinguin el consentiment explícit dels usuaris quan volen recopilar la seva informació, però sobretot han estat dissenyades per cobrir tecnologies on els usuaris inicien intencionadament les interaccions. Això té sentit per als assistents d'AI com Siri i Alexa, que estan activats per l'usuari. Però no està clar com s'aplicarien les noves regles als assistents d'AI que arribin als usuaris sense ser activats.
En el seu article, Brykman destaca la necessitat d'establir salvaguardes reglamentàries, com ara lleis que exigeixen a les empreses que declaren la presència d'un agent d'AI, o una llei que, quan pregunteu a un xat de xat si es tracta d'un chatbot, cal dir: "Sí, Sóc un chatbot ". Aquestes mesures permetrien a l’interlocutor humà l’oportunitat de desvincular-se o, si més no, de decidir si vol interactuar amb un sistema d’AI que enregistra la seva veu.
Encara amb aquestes lleis, les preocupacions sobre privadesa no desapareixeran. "El risc més gran que preveu en l'actual encarnació de la tecnologia és que donarà a Google encara més dades sobre les nostres vides privades que no tenia. Fins a aquest moment, només coneixien les nostres comunicacions en línia; ara podran conèixer de forma real les nostres converses del món real ", afirma Vian Chinner, fundador i conseller delegat de Xineoh.
Els escàndols de privadesa recents que impliquen grans empreses de tecnologia, en què han utilitzat les dades dels usuaris de maneres qüestionables per obtenir els seus propis beneficis, han creat una sensació de desconfiança sobre com donar-los més finestres a les nostres vides. "La gent en general considera que les grans empreses de Silicon Valley els veuen com a inventaris en lloc dels clients i tenen una gran desconfiança cap a gairebé qualsevol cosa que facin, per molt revolucionària i que canvia de vida acabarà sent", afirma Chinner.
Falles funcionals
Tot i tenir una veu i un to natural i utilitzar sons semblants a humans com "mmhm" i "ummm", Duplex no és diferent de les altres tecnologies actuals de l'AI i pateix les mateixes limitacions.
Si la veu o el text s'utilitzen com a interfície, els agents de la IA són bons en la resolució de problemes concrets. És per això que els anomenem "IA estreta" (a diferència de la "IA general", el tipus d'intel·ligència artificial que pot implicar-se en la resolució general de problemes, com ho fa la ment humana). Si bé una IA estreta pot ser excepcionalment bona per realitzar les tasques per a les quals està programat, pot fallar espectacularment quan es dóna un escenari que es desvia del seu domini problemàtic.
"Si el consumidor creu que està parlant amb un humà, probablement demanarà alguna cosa que no sigui el guió normal de l'AI i obtindrà una resposta frustrant quan el bot no ho entengui", afirma el març de Conversocial.
En canvi, quan una persona sàpiga que està parlant amb una IA que ha estat entrenada per reservar taules en un restaurant, intentarà evitar l’ús d’un llenguatge que confongui l’IA i farà que es comporti de maneres inesperades, sobretot si està portant. ells un client.
"Els membres del personal que reben trucades des del Duplex també haurien de rebre una introducció senzilla que no és una persona real. Això ajudaria a que la comunicació entre el personal i l'AI sigui més conservadora i clara", afirma Avillez.
Per aquesta raó, fins que (i si) desenvolupem una IA que pugui funcionar al mateix temps amb la intel·ligència humana, és en l’interès de les pròpies empreses ser transparents sobre el seu ús de l’IA.
Al final del dia, part de la por dels assistents de veu com Duplex és causada pel fet de ser nous, i encara estem acostumant a trobar-los en nous paràmetres i casos d'ús. "Almenys algunes persones semblen molt incòmodes amb la idea de parlar amb un robot sense saber-ho, de manera que, de moment, probablement s'hauria de divulgar a les contrapartides de la conversa", afirma Chinner.
- AI és (també) una força per al bé AI és (també) una força per al bé
- Quan AI desdibuixa la línia entre realitat i ficció Quan AI desdona la línia entre realitat i ficció
- La intel·ligència artificial té un problema de biaix i és la nostra falla La intel·ligència artificial té un problema de biaix i és la nostra falta
Però a la llarga, ens acostumarem a interactuar amb agents d’IA més intel·ligents i capaços de realitzar tasques que abans es creien que eren el domini exclusiu dels operadors humans.
"A la propera generació no li importa si parlen amb una IA o amb un humà quan contactin amb un negoci. Ells només voldran obtenir la seva resposta ràpidament i fàcilment i hauran crescut parlant amb Alexa. Esperant mantenir la possibilitat de parlar amb un ésser humà serà molt més frustrant que només interactuar amb un bot ", afirma el març de Conversocial.