Casa Característiques 10 L’algoritme de vergonya falla

10 L’algoritme de vergonya falla

Taula de continguts:

Vídeo: The Josephus Problem - Numberphile (De novembre 2024)

Vídeo: The Josephus Problem - Numberphile (De novembre 2024)
Anonim

La tecnologia no és només per a geeks, és per a tothom i és per a molta gent. Amb només un grapat d’empreses que controlen la majoria de maquinari i programari (des d’Apple i Amazon fins a Facebook, Microsoft i Google), només poden fer tant per controlar la cartera com els globus oculars. Què ha de fer una empresa gegant pobra? Basar-se en algoritmes per prendre algunes de les decisions importants.

Oxford Living Dictionaries defineix l'algorisme com "un procés o conjunt de regles a seguir en càlculs o altres operacions de resolució de problemes, especialment per part d'un ordinador". Un exemple perfecte és el Feed de notícies de Facebook. Ningú sap com funciona que algunes de les teves publicacions es mostren o no en els feeds d'informació d'algunes persones, però Facebook ho fa. O què passa amb Amazon que us mostra llibres relacionats? Cerques relacionades a Google? Tots aquests són secrets protegits que fan molta feina per a l’empresa i poden tenir un gran impacte en la vostra vida.

Però els algorismes no són perfectes. Fallen i alguns fracassen espectacularment. Afegiu la mirada de les xarxes socials i un petit glitch pot convertir-se en un malson de PR real. Poques vegades és malintencionat; aquests solen ser el que el New York Times anomena "Moments Frankenstein", on la criatura que algú va crear es converteix en un monstre. Però passa, i a continuació hem recopilat alguns dels exemples recents més injustos. Feu-nos saber els vostres favorits als comentaris que hi ha a continuació.

    1 anuncis qüestionables a Instagram

    Segons ha informat The Guardian , a Facebook li agrada publicar anuncis per al seu servei d’Instagram amb publicacions dels seus propis usuaris. Però l'algoritme va escollir la "foto" errònia per empènyer als amics d'Olivia Solon, ella mateixa reportera de The Guardian , seleccionant una captura de pantalla d'un any que va fer amb un correu electrònic amenaçador.

    2 anuncis racistes orientats

    La setmana passada, ProPublica va informar que Facebook permetia als anunciants orientar-se a categories ofensives de persones, com ara "haters jueus". El lloc va pagar 30 dòlars per un anunci (anterior) que va dirigir a una audiència que respondria positivament a coses com "per què els jueus arruïnen el món" i "Hitler no va fer res dolent". Es va aprovar en 15 minuts.

    La pissarra va trobar categories semblants ofensives, i es va convertir en una altra de la llarga línia d’elements que Facebook no només havia de demanar disculpes, sinó que prometia arreglar-se amb una certa supervisió humana. Ja ho sabeu, com quan va posar anuncis electorals per Rússia per valor de 100.000 dòlars.

    En una publicació de Facebook, la directora general Sheryl Sandberg va dir que estava "repugnada i decebuda per aquestes paraules" i va anunciar canvis a les seves eines publicitàries.

    BuzzFeed va comprovar com Google gestionaria coses similars i va trobar que era fàcil també configurar anuncis orientats per ser vistos per racistes i per gros. The Daily Beast la va comprovar a Twitter i va trobar milions d’anuncis amb termes com "nazi", "wetback" i la paraula N.

    3 Any de Facebook en problemes de revisió

    Si esteu a Facebook, sens dubte heu vist els seus vídeos de cap d’any, generats per algoritmes, amb destacats dels darrers 12 mesos. O per a alguns, els baixos llums. El 2014, un pare va veure una foto de la seva difunta filla, mentre que un altre va veure instantànies de la seva llar en flames. Altres exemples són persones que veuen les seves mascotes tardanes, urnes plenes de cendres dels pares i amics difunts. El 2015, Facebook es va comprometre a filtrar tristos records.

  • 4 Crash automàtic Tesla

    La majoria dels cargols algorítmics estan lluny de ser mortals, però el món dels cotxes que condueixen a si mateix comportarà un nivell de perill totalment nou. Això ja va passar almenys una vegada. Un propietari de Tesla a la carretera de Florida utilitzava el mode semi-autònom (Pilot automàtic) i es va estavellar contra un remolc tractor que el va tallar. Tesla va publicar ràpidament actualitzacions, però va ser culpa del mode Pilot automàtic? L’Administració nacional de seguretat del trànsit diu que potser no és que el sistema requereix que el conductor estigui alerta per problemes, com podeu veure al vídeo anterior. Ara, Tesla impedeix que el pilot automàtic no es pugui comprometre si el conductor no respon abans a les pistes visuals.

  • 5 Poseu-vos en contacte amb l'IA de Microsoft Racist

    Fa un parell d’anys, els bots de xat havien de prendre el món per tempesta, substituint representants d’atenció al client i fent del món en línia un lloc de xerrada per obtenir informació. Microsoft va respondre el març de 2016 empenyent una IA anomenada Tay que les persones, entre 18 i 24 anys, podrien interactuar amb Twitter. Tay al seu torn, faria piulades públiques per a les masses. Però, en menys de 24 hores, aprenent de les masses amb força dolenta, Tay es va convertir en un racista complet. Microsoft va retirar Tay a l'instant; va tornar com a nova IA anomenada Zo el desembre de 2016, amb "forts controls i saldos al seu lloc per protegir-la de l'explotació".

    6 Enhorabona pel teu nadó (inexistent)!

    Divulgació completa: mentre escric això, la meva dona està realment embarassada. Tots dos vam rebre aquest correu electrònic d’Amazon dient que algú ens havia comprat alguna cosa al nostre registre de nadons. Encara no ho havíem fet públic, però no va ser tan impactant. Mentrestant, diversos milions d’altres clients d’Amazon també van obtenir la mateixa nota, inclosos alguns sense registre… o un nadó pel camí. Podria haver format part d’un esquema de caça de pesca, però no va ser així. Amazon va capturar l’error i va enviar un correu electrònic de disculpa de seguiment. Aleshores, molts s’havien queixat que això era inapropiat o insensible. Aquest era menys algoritme que el servidor de correu electrònic glitchy, però us demostra que sempre és fàcil ofendre.

    7 Materials “Recomana” d’Amazon

    Tothom va saltar sobre això després que fos publicat per Channel 4 News del Regne Unit, des de Fox News fins al New York Times . Suposadament es va trobar que la funció "comprada freqüentment" d'Amazon mostraria a la gent el que necessiten per construir una bomba, si comencés amb un dels ingredients, que el lloc no anomenaria (era nitrat de potassi).

    L’algoritme d’Amazon en realitat va mostrar als compradors els ingredients per elaborar pólvora negra en quantitats petites, totalment legal al Regne Unit, i s’utilitza per a tot tipus de coses, com els focs artificials, com es va assenyalar ràpidament en un pensament increïblement ben pensat. a la publicació del bloc a Idle Words. En canvi, tots els informes es mostren sobre com s’està examinant Amazon, perquè això és el que han de dir que estan fent en un món amb por del terrorisme i la lògica.

    8 mapes de Google obté racisme

    El 2015, Google va haver de disculpar-se quan Google Maps va cercar "n ***** king" i "n *** a house", conduint a la Casa Blanca, que aleshores encara era ocupada per Barack Obama. Això va ser el resultat d'un "Googlebomb", en què un terme usat una i altra vegada és recollit pel motor de cerca i marcat com a "popular" per la qual cosa els resultats van a la part superior de la cerca. És com la paraula "Santorum" va obtenir la seva nova definició.

    9 Etiquetes de Google Humans as Gorillas

    Google Fotos és una aplicació / servei increïble que emmagatzema totes les seves imatges i molt més. Una d’aquestes coses és etiquetar automàticament persones i coses a les fotos. Utilitza el reconeixement facial de les persones per acotar-les fins a la persona correcta. Fins i tot tinc una carpeta de tots els meus gossos i no en vaig etiquetar cap. Per molt bé que va funcionar, va ser poc greu quan el 2015 Google va haver de demanar disculpes al programador informàtic Jacky Alciné quan ell i un amic, tots dos negres, van ser identificats pel servei com a goril·les. "Ens sembla horrorós i sentim molt que hagi passat això", va dir Google a PCMag.

    10 La seguretat del robot encerta el nen, es mata a si mateix

    Knightscope converteix robots autònoms de seguretat anomenats K5 per patrullar escoles, centres comercials i barris. Els cons de Dalek-esque de 5 peus d'alçada sobre les rodes, que segons el seu criteri, encara estan en fase de prova beta, solen fer notícies no per frustrar el delicte, sinó per a les glopades.

    Per exemple, al juliol de 2016, el K5 del Centre Comercial Stanford de Palo Alto va passar per sobre d’un nen de 16 mesos i Knightscope va haver de demanar disculpes formalment. La mateixa ubicació, potser el mateix droide, va tenir una altercació a un aparcament amb un borratxo, però almenys no va ser culpa del K5. El jurat encara es troba a la unitat K5 del Georgetown Waterfront, complex d’oficines / botigues de Washington DC… que presumptament va trepitjar algunes escales cap a una font d’aigua després de només una setmana de feina. No està bé per a l'exèrcit de Skynet.

10 L’algoritme de vergonya falla