Casa Opinions Per què les empreses tecnològiques utilitzen els humans per ajudar-los? ben dickson

Per què les empreses tecnològiques utilitzen els humans per ajudar-los? ben dickson

Taula de continguts:

Vídeo: Ханс и Ола Рослинги: Давайте узнаем этот мир получше (De novembre 2024)

Vídeo: Ханс и Ола Рослинги: Давайте узнаем этот мир получше (De novembre 2024)
Anonim

"Andrew Ingram" és un assistent digital que escaneja els vostres correus electrònics, ofereix idees de programació de les reunions i cites que discuteixen amb els vostres companys de feina, configura tasques i envia invitacions a les parts pertinents amb molt poca assistència. Utilitza les capacitats avançades d’intel·ligència artificial de X.ai, un Nou Amb seu a York startup especialitzada en desenvolupament d'assistents de IA. Els problemes que soluciona poden estalviar molt temps i frustració per a les persones (com jo) que tenen una programació desordenada.

Però segons una història de Wired publicada al maig, la intel·ligència que hi ha darrere d'Andrew Ingram no és totalment artificial. Té un grup de 40 filipins en un edifici altament protegit a les afores de Manila que controlen el comportament de l'AI i es fan càrrec sempre que l'assistent topi amb un cas que no pot gestionar.

Tot i que la idea que els vostres correus electrònics estan sent escanejats per persones reals pot semblar esgarrifosa, s'ha convertit en una pràctica habitual entre moltes empreses que ofereixen serveis d'AI als seus clients. Un article recent al The Wall Street Journal exposava diverses empreses que permetien als seus empleats accedir i llegir els correus electrònics dels clients per crear noves funcions i entrenar la seva IA en casos que fins ara no ho havien vist.

Anomenada tècnica "Wizard of Oz" o pseudo-AI, la pràctica d'utilitzar en silenci els humans per compensar les mancances dels algoritmes de l'AI, posa en evidència alguns dels reptes més profunds als quals s'enfronta la indústria de l'AI.

L’AI no està preparada per a grans problemes

Darrere de la majoria d’innovacions d’IA dels darrers anys es troben els algoritmes d’aprenentatge profund i les xarxes neuronals. Les xarxes neuronals profundes són molt eficients per classificar la informació. En molts casos, com ara el reconeixement de la veu i la cara o la identificació del càncer en la RM i la TC, poden superar els humans.

Però això no vol dir que l’aprenentatge profund i les xarxes neuronals puguin realitzar qualsevol tasca que els humans puguin fer.

"L'aprenentatge profund ens permet resoldre el problema de percepció. Això és molt important perquè la percepció ha limitat la IA des dels seus inicis fa més de 60 anys", afirma Jonathan Mugan, cofundador i conseller delegat de DeepGrammar. "Resoldre el problema de percepció ha fet que l'IA sigui útil per a coses com el reconeixement de veu i la robòtica".

Tot i això, destaca Mugan, la percepció no és l’únic problema. Les lluites d’aprenentatge profund on participen els raonaments i la comprensió comunes.

"L'aprenentatge profund no ens ajuda amb aquest problema", afirma. "Hem fet alguns avenços en el PNL (processament del llenguatge natural) tractant el llenguatge com un problema de percepció; és a dir, convertint paraules i frases en vectors. Això ens ha permès representar millor el text per a la classificació i la traducció automàtica (quan hi ha molta quantitat de dades), però no serveix per al raonament del sentit comú. És per això que els xerrats han fallat en gran mesura ".

Un dels principals problemes a què s’enfronten totes les aplicacions d’aprenentatge profund és el de recopilar les dades adequades per entrenar els seus models d’AI. L’esforç i les dades que aporten l’entrenament d’una xarxa neuronal per realitzar una tasca depenen de la amplitud de l’espai del problema i del nivell de precisió que cal.

Per exemple, una aplicació de classificació d’imatges, com l’aplicació Not Hotdog de l’HBO de Silicon Valley, fa una tasca molt estreta i específica: us indica si la càmera del vostre telèfon intel·ligent mostra un hotdog o no. Amb prou imatges hotdog, l'AI de l'aplicació pot realitzar la seva funció molt important amb un alt nivell de precisió. I fins i tot si comet un error de tant en tant, no farà mal a ningú.

Però altres aplicacions AI, com la que està construint X.ai, plantegen problemes molt més amplis, cosa que significa que necessiten molts exemples de qualitat. A més, la seva tolerància als errors és molt menor. Hi ha una gran diferència entre confondre un cogombre amb un hotdog i programar una reunió de negocis important en un moment equivocat.

Malauradament, les dades de qualitat no són una mercaderia que totes les empreses tenen.

"La regla general és que com més general sigui un problema que intenta abordar una IA, més casos de conducta o comportaments inusuals poden produir-se. Això significa que inevitablement necessiteu molt més exemples de formació per a cobrir-ho tot", afirma el doctor Steve Marsh, CTO a Geospock. "Les startups generalment no tenen accés a grans quantitats de dades de formació, de manera que els models que puguin construir factiblement seran molt nínxols i trencadissos, que no solen complir les seves expectatives".

Aquesta riquesa d'informació només està en possessió de grans empreses com Facebook i Google, que fa anys que recopilen les dades de milers de milions d'usuaris. Les empreses més petites han de pagar grans sumes per obtenir o crear dades de formació i això retarda el llançament de la seva aplicació. L’alternativa és llançar-se de totes maneres i començar a entrenar la seva IA sobre el vol, mitjançant entrenadors humans i dades de clients en directe i amb l’esperança que, eventualment, la IA es concentrarà menys en els humans.

Per exemple, Edison Software, una empresa amb seu a Califòrnia que desenvolupa aplicacions per a la gestió de correus electrònics, va fer que els seus empleats llegissin els correus electrònics dels seus clients per desenvolupar una funció de "resposta intel·ligent" perquè no tenien prou dades per entrenar l'algoritme, l'empresa. El director general va dir a The Wall Street Journal. La creació de respostes intel·ligents és una tasca àmplia i difícil. Fins i tot Google, que té accés als correus electrònics de milers de milions d’usuaris, proporciona respostes intel·ligents per a casos molt estrets.

Però l’ús dels humans per entrenar l’IA amb dades d’usuaris en viu no es limita a empreses més petites.

El 2015, Facebook va llançar M, un chatbot AI que podria comprendre i respondre a diferents matisos de converses i complir moltes tasques. Facebook va posar M a disposició d’un nombre limitat d’usuaris a Califòrnia i va configurar un personal d’operadors humans que supervisaria el rendiment de l’AI i intervindria per corregir-lo quan no pogués comprendre una sol·licitud d’usuari. El pla original era que els operadors humans ajudessin a ensenyar a l’assistent a respondre als casos d’abast que no havien vist abans. Amb el temps, M seria capaç de funcionar sense l’ajuda dels humans.

Un objectiu inabastable?

No està clar quant de temps es triguen a Edison Software, X.ai i altres empreses que han llançat sistemes integrats per a la tecnologia perquè la seva IA estigui totalment automatitzada. També hi ha dubte de si les tendències actuals de la IA poden arribar fins al punt d’implicar-se en dominis més amplis.

El 2018, Facebook va tancar M sense que tot el desplegués oficialment. La companyia no va compartir detalls, però és clar que és molt difícil crear un boteig de xat que pugui participar en converses àmplies. I posar M a disposició de tots els dos mil milions d’usuaris de Facebook sense fer-lo abans capaç de respondre automàticament a tot tipus de converses, hauria requerit que el gegant de les xarxes socials contractés un enorme personal humà per omplir els buits de M.

El Mugan de DeepGrammar creu que finalment serem capaços de crear IA que pugui resoldre raonaments de sentit comú, cosa que els altres classifiquen com a IA general. Però no passarà aviat. "Actualment no hi ha mètodes a l'horitzó que permetin a un ordinador entendre el que un nen petit sap", afirma Mugan. "Sense aquesta comprensió bàsica, els ordinadors no podran fer moltes tasques bé el 100 per cent de les vegades".

Per dir-ho en perspectiva, els experts d'OpenAI van desenvolupar recentment Dactyl, una mà robòtica que podia manejar objectes. Aquesta és una tasca que qualsevol infant humà aprèn a realitzar de manera inconscient a una edat primerenca. Però van necessitar 6.144 CPU Dactyl i 8 GPU i una experiència d'experiència de més de cent anys per desenvolupar les mateixes habilitats. Si bé és un assoliment fascinant, també destaca les fortes diferències entre la IA estreta i el funcionament del cervell humà.

"Ens queda molt lluny de tenir Intel·ligència General Artificial i, molt probablement, l'AGI serà la combinació i coordinació de molts tipus diferents d'AI estretes o específiques d'aplicacions", afirma Marsh. "Crec que hi ha una tendència a sobrehippejar les capacitats de l'AI en aquest moment, però també veig que hi ha un valor enorme només en fer els primers passos inicials i implementar models tradicionals d'aprenentatge automàtic".

Hi ha un altre hivern AI?

El 1984, l'Associació Americana d'Intel·ligència Artificial (més tard rebatejada com a Associació per a l'Avenç d'Intel·ligència Artificial) va advertir a la comunitat empresarial que el bombo i l'entusiasme al voltant de l'AI podrien acabar amb la decepció. Poc després, la inversió i l'interès per l'AI es van esfondrar, provocant una època més coneguda com el "hivern AI".

Des de principis dels anys 2010, l'interès i la inversió en el camp han tornat a augmentar. Alguns experts temen que, si les aplicacions d'AI tenen un rendiment inferior i no compleixen les expectatives, es produirà un altre hivern. Però els experts amb qui vam parlar creien que l'AI ja s'ha integrat massa a les nostres vides per recalcar els seus passos.

"No crec que estiguem en perill d'un hivern AI com els d'abans, ja que AI proporciona valor real, no només valor hipotètic", afirma Mugan. "Tanmateix, si continuem dient al públic en general que els ordinadors són intel·ligents com els humans, arrisquem a un contrari. No tornarem a no utilitzar l'aprenentatge profund per a la percepció, però el terme 'AI' podria quedar atordit, i nosaltres hauria d’anomenar-ho una altra cosa ".

El que és segur és que, com a mínim, ens queda una era de desil·lusió. Estem a punt d’aprendre fins a quin punt podem confiar en les barreges actuals d’IA en diferents camps.

"El que espero veure és que algunes empreses se sorprenen gratament de la rapidesa amb la qual poden proporcionar una IA per a un servei prèviament manual i car, i que altres empreses veuran que triga més temps del que esperaven recopilar prou dades per convertir-se en viable econòmicament ", afirma James Bergstra, cofundador i cap de recerca de Kindred.ai. "Si n’hi ha massa i no n’hi ha prou amb els primers, pot provocar un altre hivern AI entre els inversors".

  • La intel·ligència artificial té un problema de biaix i és la nostra falla La intel·ligència artificial té un problema de biaix i és la nostra falta
  • Per què ensenyar AI a jugar a jocs és important Per què ensenyar AI a jugar a jocs és important
  • L’AI ofereix un potencial enorme, però no passarà durant la nit L’AI ofereix un potencial enorme, però no passarà durant la nit

Geospock's Marsh preveu que, mentre que el finançament no minvarà, hi haurà alguns ajustaments a la seva dinàmica. Com que els inversors s’adonen que l’autèntica experiència és rara i només els que tinguin accés a dades per formar els models seran diferencials en la indústria, hi haurà una gran consolidació en el mercat i es produiran fons molt menys.

"Per a moltes startups de l'AI sense una aplicació de mercat de nínxol ni una gran quantitat de dades: s’acosta l’hivern", conclou Marsh.

Per què les empreses tecnològiques utilitzen els humans per ajudar-los? ben dickson