Casa Opinions Com les notícies falses d’openai van desencadenar notícies falses reals

Com les notícies falses d’openai van desencadenar notícies falses reals

Taula de continguts:

Vídeo: GSTR-10 AND GSTR-4 LATE FEES WAIVE OFF| BUT NOTIFICATION TRUE OR FALSE | (De novembre 2024)

Vídeo: GSTR-10 AND GSTR-4 LATE FEES WAIVE OFF| BUT NOTIFICATION TRUE OR FALSE | (De novembre 2024)
Anonim

El laboratori d’investigació d’AI sense ànim de lucre OpenAI va causar una onada de pànic d’Apocalipsi AI el mes passat quan va introduir una IA de generació de text d’última generació anomenada GPT-2. Però, tot i que celebrava els èxits de GPT-2, OpenAI va declarar que no llançaria el seu model d’AI al públic, tement que en les mans equivocades, GPT-2 es pogués utilitzar amb finalitats malintencionades com generar articles de notícies enganyoses, suplantar-ne d’altres en línia. i automatitzar la producció de contingut fals a les xarxes socials.

Previsiblement, l’anunci d’OpenAI va crear una notícia de notícies sensacionals, però si bé qualsevol tecnologia avançada pot ser armada, l’AI encara té molt a recórrer abans que domini la generació de text. Fins i tot aleshores, es necessita una IA més que generar text per crear una crisi de notícies falses. En aquest sentit, les advertències d'OpenAI es van desbloquejar.

AI i llenguatge humà

Els ordinadors han lluitat històricament per manejar el llenguatge humà. Hi ha tantes complexitats i matisos en el text escrit que convertir-los tots en regles de programari clàssiques és pràcticament impossible. Però els avenços recents en l'aprenentatge profund i les xarxes neuronals han obert el camí cap a un enfocament diferent per crear programari que pugui gestionar tasques relacionades amb el llenguatge.

L’aprenentatge profund ha aportat grans millores a camps com la traducció automàtica, el resum de text, la resposta a preguntes i la generació de llenguatges naturals. Permet als enginyers de programari crear algoritmes que desenvolupin el seu propi comportament analitzant molts exemples. Per a tasques relacionades amb el llenguatge, els enginyers alimenten les xarxes neuronals de contingut digitalitzat com ara notícies, pàgines de Wikipedia i publicacions de mitjans socials. Les xarxes neurals comparen acuradament les dades i prenen nota de com certes paraules se succeeixen d'altres en seqüències recurrents. Després converteixen aquests patrons en equacions matemàtiques complexes que els ajuden a resoldre tasques relacionades amb el llenguatge com ara predir paraules que falten en una seqüència de text. En general, com més dades de formació de qualitat proporcioneu a un model d'aprenentatge profund, millor es convertirà en la realització de la seva tasca.

Segons l'OpenAI, GPT-2 s'ha format en 8 milions de pàgines web i milers de milions de paraules, cosa que és molt més que altres models similars. També utilitza models d’IA avançats per aplicar millor els patrons de text. La sortida d’exemple de GPT-2 demostra que el model aconsegueix mantenir la coherència en seqüències de text més llargues que els seus predecessors.

Però si la GPT-2 és un pas endavant en el camp de la generació de llenguatge natural, no és un avenç tecnològic cap a la creació de IA que pugui entendre el significat i el context del text escrit. GPT-2 continua utilitzant algoritmes per crear seqüències de paraules estadísticament semblants als milers de milions d’exemplars de text que ha vist anteriorment; no entén absolutament el que genera.

En una anàlisi en profunditat, Tiernan Ray de ZDNet apunta a diversos casos en què les mostres de sortida del GPT-2 traeixen la seva naturalesa artificial amb artefactes coneguts com ara la duplicació de termes i la manca de lògica i coherència en els fets. "Quan GPT-2 passa a abordar l'escriptura que requereix més desenvolupament d'idees i de lògica, les esquerdes s'obren bastant àmpliament", assenyala Ray.

L’aprenentatge estadístic pot ajudar els ordinadors a generar un text gramaticalment correcte, però cal tenir una comprensió conceptual més profunda per mantenir la coherència lògica i factual. Malauradament, encara és un desafiament que les barreges actuals d’IA no han superat. És per això que GPT-2 pot generar paràgrafs agradables de text, però probablement tindria problemes per generar un article autèntic de llarga forma o suplantar algú d’una manera convincent i durant un període de temps més llarg.

Per què el pànic de les notícies falses d'AI està desbordat

Un altre problema amb el raonament d'OpenAI: Suposa que l'AI pot crear una crisi de notícies falses.

El 2016, un grup d’adolescents macedonis va difondre notícies falses sobre les eleccions presidencials dels Estats Units a milions de persones. Irònicament, ni tan sols tenien habilitats adequades en anglès. anaven trobant les seves històries a la xarxa i enganxant contingut diferent. Van tenir èxit perquè van crear llocs web que eren prou autèntics per convèncer els visitants de confiar en ells com a fonts de notícies fiables. La resta de titulars sensacionals, els usuaris negligents dels mitjans de comunicació social i els algoritmes de tendència.

Aleshores, el 2017, els agents malintencionats van desencadenar una crisi diplomàtica a la regió del Golf Pèrsic piratant llocs web de notícies de l'estat Qatari i comptes de mitjans de comunicació del govern i publicant falses declaracions en nom del xeic Tamim bin Hamad Al Thani, l'emir de Qatar.

Tal com mostren aquestes històries, l’èxit de les campanyes de notícies falses depèn d’establir (i trair) la confiança, no de generar grans quantitats de text en anglès coherent.

Les advertències d'OpenAI sobre l'automatització de la producció de contingut fals a publicar a les xarxes socials són més garantides, perquè l'escala i el volum tenen un paper més important a les xarxes socials que no pas als mitjans tradicionals. El supòsit és que una IA com GPT-2 podrà inundar les xarxes socials amb milions de publicacions úniques sobre un tema específic, influint en algoritmes de tendència i discussions públiques.

Però, tot i així, els advertiments no superen la realitat. En els darrers anys, les companyies de mitjans socials han estat desenvolupant contínuament capacitats per detectar i bloquejar el comportament automatitzat. Per tant, un actor maliciós armat amb una IA que generi text hauria de superar diversos reptes més enllà de crear contingut únic.

Per exemple, necessitarien milers de comptes de xarxes socials falses per publicar el contingut generat per IA. Encara més dur, per assegurar-se que no hi ha cap manera de connectar els comptes falsos, necessitarien un dispositiu i una adreça IP exclusives per a cada compte.

Va pitjor: els comptes haurien de crear-se en diferents moments, possiblement més d’un any o més, per reduir les similituds. L’any passat, una investigació del New York Times va demostrar que les dates de creació del compte soles podrien ajudar a descobrir els comptes de bot. A continuació, per ocultar encara més la seva naturalesa automatitzada d'altres usuaris i algorismes de policia, els comptes haurien de dedicar-se a un comportament similar a l'home, com ara interactuar amb altres usuaris i establir un to únic a les publicacions.

Cap d’aquests reptes és impossible de superar, però mostren que el contingut és només una part de l’esforç necessari per dur a terme una campanya de notícies falses en mitjans socials. I de nou, la confiança té un paper important. Alguns influents de les xarxes socials de confiança que presenten algunes notícies falses tindran un impacte major que un munt de comptes desconeguts que generen grans volums de contingut.

En defensa de les advertències d'OpenAI

Els exagerats advertiments d'OpenAI van desencadenar un cicle de pioner i pànic mediàtic que, irònicament, vorejaven les falses notícies, provocant crítiques de reconeguts experts de l'AI.

Van convidar a la gent dels mitjans de comunicació a accedir de forma primerenca als resultats, amb un embargament de la premsa, de manera que es va fer públic el mateix dia. No hi ha investigadors que conec que han vist el gran model, però els periodistes sí. Sí, la van volar intencionadament.

- Matt Gardner (@nlpmattg) 19 de febrer de 2019

Cada nou humà pot ser usat per generar notícies falses, difondre teories de conspiracions i influir sobre les persones.

Hem de deixar de fer bebès?

- Yann LeCun (@ylecun) 19 de febrer de 2019

Només volia donar-vos tots els caps, el nostre laboratori va trobar un avanç increïble en la comprensió de l'idioma. però també ens preocupem que pot caure en les mans equivocades. així que vam decidir fer un rastreig i publicar en lloc seu el material habitual * ACL. Un gran respecte per l'equip pel seu gran treball.

- (((? () (? () 'Yoav)))) (@yoavgo) 15 de febrer de 2019

Zachary Lipton, investigador de l'AI i editor de Aproximadament correcte, van assenyalar la història d'OpenAI de "fer servir el seu blog i exterioritzar l'atenció sobre el treball immadur en catapult a la visió pública, i sovint interpretant els aspectes de seguretat de la feina que encara no tenen intel·lectual. cames per posar-se en peu."

Tot i que OpenAI mereix totes les crítiques i la calor que va rebre arran de les seves declaracions enganyoses, també és correcte estar preocupat veritablement pels possibles usos maliciosos de la seva tecnologia, fins i tot si l’empresa va utilitzar una forma irresponsable d’educar el públic sobre aquesta.

  • Any de la computació ètica de la indústria de l'AI
  • Avantatge injust: no espereu que l'IA toqui com un humà Avantatge injust: no espereu que l'IA toqui com un humà
  • Aquesta IA prediu el desplaçament en línia abans que passi, aquesta IA prediu el desplaçament en línia abans que passi

En els últims anys, hem vist com les tecnologies de la IA fetes públiques sense pensament i reflexió poden ser armades per a intencions malintencionades. Un exemple va ser FakeApp, una aplicació AI que pot canviar cares en vídeos. Poc després de la publicació de FakeApp, es va utilitzar per crear vídeos pornogràfics falsos que presentessin personatges famosos i polítics, causant preocupació per l’amenaça de falsificació alimentada per AI.

La decisió d'OpenAI demostra que hem de fer una pausa i pensar en les possibles ramificacions de la publicació de tecnologia. I cal que debats més actius sobre els riscos de les tecnologies de l'AI.

"Una organització que pausa un projecte en concret no canviarà res a llarg termini. Però l'OpenAI crida l'atenció per tot el que facin… i crec que haurien de ser aplaudits per tenir un focus en aquest tema", va dir David Bau, investigador del laboratori d'informàtica i intel·ligència artificial del MIT (CSAIL) del MIT, va dir a Slate.

Com les notícies falses d’openai van desencadenar notícies falses reals