Casa Opinions L'any de la computació ètica de la indústria ai

L'any de la computació ètica de la indústria ai

Taula de continguts:

Vídeo: Suzana Popescu - Tica (De novembre 2024)

Vídeo: Suzana Popescu - Tica (De novembre 2024)
Anonim

Des que les xarxes neuronals profundes van guanyar la competició de reconeixement d’imatges més important del món el 2012, tothom s’ha mostrat emocionat amb allò que la intel·ligència artificial podria desencadenar. Però a la carrera per desenvolupar noves tècniques i aplicacions de la IA, els possibles impactes negatius van prendre un lloc posterior.

Ara estem experimentant un canvi cap a una major consciència sobre l’ètica de l’IA. El 2018, els desenvolupadors de l'AI van prendre més consciència de les possibles ramificacions de les seves creacions. Molts enginyers, investigadors i desenvolupadors van deixar clar que no construirien tecnologies que danyessin o causessin danys a la vida de persones innocents, i van mantenir les seves empreses.

Reconeixement facial en l'aplicació de la llei

En el passat, crear aplicacions de reconeixement facial era difícil, intensiu en recursos i propens a errors. Però amb els avenços en la visió per ordinador -el subconjunt de la IA que permet als ordinadors reconèixer el contingut d’imatges i vídeo- la creació d’aplicacions de reconeixement facial es va fer molt més fàcil i a l’abast de tothom.

Les grans empreses de tecnologia com Microsoft, Amazon i IBM van començar a proporcionar serveis basats en núvols que van permetre a qualsevol desenvolupador integrar la tecnologia de reconeixement facial al seu programari. Això va desbloquejar molts casos i aplicacions nous d'ús en diferents dominis, com ara la protecció i l'autenticació de la identitat, la seguretat intel·ligent de la llar i la venda al detall. Però els activistes dels drets de privacitat van manifestar la seva preocupació pel potencial de mal ús.

Al maig de 2018, la Unió Americana de Llibertats Civils va revelar que Amazon comercialitzava Rekognition, una tecnologia de vídeo-analítica en temps real, a les agències governamentals i a les autoritats governamentals. Segons l'ACLU, la policia d'almenys tres estats estava fent servir Rekognition per a un reconeixement facial en fonts de vídeo de vigilància.

"Amb Rekognition, un govern ara pot crear un sistema per automatitzar la identificació i el seguiment de qualsevol persona. Si les càmeres del cos policial, per exemple, estaven equipades amb reconeixement facial, els dispositius destinats a la transparència i la rendició de comptes dels oficials es transformarien encara més en màquines de vigilància dirigides a la públic ", va advertir ACLU. "Al automatitzar la vigilància massiva, els sistemes de reconeixement facial com Rekognition amenacen aquesta llibertat, representant una amenaça particular per a les comunitats que ja estan injustament orientades en el clima polític actual. Un cop es construeixin i despleguen sistemes de vigilància potents com aquests, el dany serà extremadament difícil de desfer. ".

Els empleats d'Amazon, que al juny van escriure una carta a Jeff Bezos, conseller delegat de la companyia, es van fer ressò de les preocupacions de l'ACLU i van exigir que deixés de vendre Rekognition als agents de la llei. "La nostra empresa no hauria de ser en el negoci de vigilància; no hauria de ser en el negoci policial; no hauria de ser en el negoci de donar suport a aquells que vigilen i oprimeixen les poblacions marginades", es diu la carta.

A l'octubre, un funcionari anònim d'Amazon va revelar que almenys 450 empleats havien signat una altra carta que demanava a Bezos i altres executius que deixessin de vendre Rekognition a la policia. "No podem treure profit d'un conjunt de clients poderosos a costa de les nostres comunitats; no podem evitar els nostres ulls del cost humà del nostre negoci. No construirem en silenci tecnologia per oprimir i matar persones, ja sigui al nostre país o en altres, " "va dir.

La retirada del projecte d'AI militar de Google

Mentre que Amazon tractava aquest retrocés intern, Google vivia lluites similars per un contracte per desenvolupar AI per a l'exèrcit nord-americà, anomenat Projecte Maven.

Es va suposar que Google va ajudar el Departament de Defensa a desenvolupar una tecnologia de visió per ordinador que processaria imatges de vídeo en drone. La quantitat de vídeos enregistrats per drones cada dia era massa important per als analistes humans per revisar-los, i el Pentàgon volia automatitzar part del procés.

Reconegent la controvertida naturalesa de la tasca, un portaveu de Google va estipular que només proporcionava API per TensorFlow, la seva plataforma d'aprenentatge de màquines, per detectar objectes en fonts de vídeo. Google també va destacar que estava desenvolupant polítiques i salvaguardes per abordar aspectes ètics de la seva tecnologia.

Però Project Maven no va estar bé amb els empleats de Google, 3.000 dels quals, incloses desenes d’enginyers, aviat van signar una carta oberta al conseller delegat Sundar Pichai que demanava la finalització del programa.

"Creiem que Google no hauria de formar part de la guerra", va llegir la carta. Va demanar que la companyia "redactés, donés publicitat i apliqués una política clara afirmant que ni Google ni els seus contractistes construiran mai tecnologia de guerra".

Els empleats de Google també van advertir que el seu patró posaria en perill la seva reputació i la seva capacitat per competir per talents en el futur. "No podem externalitzar la responsabilitat moral de les nostres tecnologies a tercers", van subratllar els Googlers.

Poc després, una petició signada per 90 acadèmics i investigadors va demanar als principals executius de Google que deixessin de treballar en tecnologia militar. Els signants van advertir que el treball de Google establiria l'escenari per al "reconeixement automatitzat d'objectius i sistemes d'armes autònoms". També van advertir que, a mesura que es desenvolupi la tecnologia, estarien "a un pas més curt d’autoritzar els drons autònoms a matar automàticament, sense supervisió humana ni control humà significatiu".

A mesura que augmentaven les tensions, diversos empleats de Google renunciaven a la protesta.

Com van respondre els líders tècnics

Sota pressió, Google va declarar al juny que no renovaria el seu contracte amb el Departament de Defensa sobre Projecte Maven després que caduqués el 2019.

En una publicació al bloc, el director general Sundar Pichai (que es mostra a continuació) va declarar un conjunt de principis ètics que regirien el desenvolupament de la companyia i la venda de tecnologia AI. Segons Pichai, la companyia plantejarà a partir d’ara projectes que siguin per al bé de la societat en general i evitarà el desenvolupament de la IA que reforçés els biaixos injustos existents o minessin la seguretat pública.

Pichai també va afirmar explícitament que la seva empresa no treballarà en tecnologies que violin les normes de drets humans.

Bezos d'Amazon va quedar menys preocupat per la indignació per part de Rekognition. "Continuarem donant suport al DoD, i crec que hauríem", va dir Bezos en una conferència tecnològica a San Francisco a l'octubre. "Una de les feines del lideratge principal és prendre la decisió correcta, fins i tot quan sigui impopular."

Bezos també va subratllar la necessitat de la comunitat tecnològica per donar suport als militars. "Si les grans empreses tecnològiques donen l'esquena a la DoD, aquest país tindrà problemes", va dir.

El president de Microsoft, Brad Smith, que va enfrontar-se a les crítiques per la seva tasca amb ICE, va publicar al juliol un post en el qual demanava un enfocament mesurat en la venda de tecnologia sensible a les agències governamentals. Si bé Smith no descartava vendre serveis de reconeixement facial a les forces de l'ordre i als militars, va subratllar la necessitat d'una millor regulació i transparència en el sector de la tecnologia.

  • El MIT gastarà 1 milió de dòlars en un programa per estudiar ètica ètica El MIT gastarà un milió de dòlars en un programa per estudiar ètica de la IA
  • L’AI parla realment la nostra llengua? L’AI parla realment la nostra llengua?
  • Trencar la imparable fàbrica d'AI de la Xina Trencar la imparable fàbrica d'AI de la Xina

"Els representants elegits al Congrés disposem de les eines necessàries per avaluar aquesta nova tecnologia, amb totes les seves ramificacions. Ens beneficiem dels controls i els saldos d'una Constitució que ens ha vist des de l'edat de les espelmes fins a una era de la intel·ligència artificial. Com en Tantes vegades en el passat, hem de vetllar perquè les noves invencions serveixin a les nostres llibertats democràtiques d'acord amb l'estat de dret ", va escriure Smith.

El 2018, les amenaces llunyanes de robots assassins i l’atur massiu van donar lloc a la preocupació per l’impacte ètic i social més immediat de l’IA. En molts sentits, aquests desenvolupaments indiquen que la indústria està madurant, ja que els algoritmes de IA són més destacats en les tasques crítiques. Però, a mesura que els algorismes i l’automatització s’aniran arrelant a la nostra vida diària, es plantejaran més debats.

L'any de la computació ètica de la indústria ai