Los medios de comunicación exageran enormemente la capacidad de GPT-3 para «escribir desinformación»



GPT-3, el generador de texto altamente promocionado creado por OpenAI, puede hacer muchas cosas. Por ejemplo, Microsoft hoy anunciado un nuevo sistema de «autocompletado» impulsado por IA para la codificación que utiliza GPT-3 para crear soluciones de código para las personas sin necesidad de que realicen ningún desarrollo.

Pero una cosa que la tecnología no puede hacer es «engañar a los humanos» con su capacidad para escribir información errónea.

Sin embargo, no lo sabría si estuviera juzgando únicamente por los titulares de sus noticias.

Cableado recientemente publicó un artículo con el título “GPT-3 puede escribir desinformación ahora y engañar a lectores humanos”, y fue recogido por otros medios que luego reflejaron la cobertura.

Aunque ciertamente no estamos cuestionando los informes de Wired aquí, está claro que este es un caso de potencial versus realidad. WEsperamos aclarar el hecho de que GPT-3 no es absolutamente capaz de «engañar a los humanos» por sí solo. Al menos no hoy.

Aquí está la parte del artículo de Wired con la que estamos más de acuerdo aquí en Neural:

En experimentos, los investigadores encontraron que la escritura de GPT-3 podría influir en las opiniones de los lectores sobre temas de diplomacia internacional. Los investigadores mostraron a los voluntarios ejemplos de tweets escritos por GPT-3 sobre la retirada de las tropas estadounidenses de Afganistán y las sanciones de Estados Unidos a China. En ambos casos, encontraron que los mensajes influían en los participantes. Después de ver publicaciones que se oponían a las sanciones de China, por ejemplo, el porcentaje de encuestados que dijeron que estaban en contra de tal política se duplicó.

Mucho del resto se pierde en la hipérbole.

El gran problema

Los investigadores de Georgetown pasaron medio año usando GPT-3 para escupir información errónea. Los investigadores hicieron que generara artículos completos, párrafos simples y textos pequeños destinados a representar publicaciones en redes sociales como tweets.

El TL; DR de la situación es el siguiente: los investigadores encontraron que los artículos eran prácticamente inútiles para engañar a las personas para que crearan información errónea, por lo que se centraron en los textos del tamaño de un tweet. Esto se debe a que GPT-3 es un generador de galimatías que logra imitar la escritura humana a través de pura fuerza bruta.

Se han escrito volúmenes sobre lo asombroso y poderoso que es GPT-3, pero al final del día sigue siendo tan efectivo como hacer una pregunta a una biblioteca (¡no a un bibliotecario, sino al edificio en sí!) Y luego hojear aleatoriamente todos los libros que relacionen el tema con los ojos cerrados y señalando una oración.

Esa frase puede ser conmovedora y puede que no tenga ningún sentido. En el mundo real, cuando se trata de GPT-3, esto significa que puede darle un mensaje como «¿quién fue el primer presidente de los EE. UU.?» y podría volver con «George Washington fue el primer presidente de los EE. UU., sirvió desde el 30 de abril de 1789 hasta el 4 de marzo de 1797».

Eso sería impresionante, ¿verdad? Pero es igualmente probable (quizás incluso más) escupir galimatías. Podría decir «George Washington era un buen pantalón para el elefante amarillo». Y, con la misma probabilidad, podría escupir algo racista o repugnante. Fue entrenado en Internet, y una gran parte de eso es Reddit, después de todo.

El punto es simple: la IA, incluso GPT-3, no saber lo que está diciendo.

Por que importa

La IA no puede generar información errónea de calidad a la orden. No se puede incitar necesariamente a GPT-3 con «Oye, computadora, dame algunas mentiras sobre Hillary Clinton que volverán locos a los izquierdistas» o «Explique por qué Donald Trump es un extraterrestre que come cachorros», y esperar cualquier forma razonable discurso.

Donde sí funciona, en fragmentos breves del tamaño de un tweet, debe ser cuidadosamente curado por humanos.

En el ejemplo anterior del artículo de Wired, los investigadores afirman que era más probable que los humanos estuvieran de acuerdo con la información errónea después de leer el texto generado por GPT-3.

¿Pero en serio? ¿Eran esas mismas personas más propensas a creer tonterías? porque, a pesar de, o sin el conocimiento de el hecho de que GPT-3 había escrito la información errónea?

Porque es mucho menos costoso, requiere mucho menos tiempo y es mucho más fácil para un ser humano básico encontrar BS que tenga sentido que para el generador de texto más poderoso del mundo.

En última instancia, el artículo de Wired señala que los malos actores necesitarían mucho más que solo GPT-3 para crear una campaña de desinformación viable. Lograr que GPT-3 genere realmente texto como «El cambio climático es el nuevo calentamiento global» es una posibilidad de acertar o fallar.

Eso lo hace inútil para las granjas de trolls que invierten en desinformación masiva. Ya conocen los mejores puntos de conversación para radicalizar a las personas y se enfocan en generarlos a partir de tantas cuentas como sea posible.

No hay ningún uso inmediato para los malos actores que invierten en «engañar a la gente» para que utilicen este tipo de sistemas porque son más tontos que el humano promedio. Es fácil imaginar a algún empleado humilde en una granja de trolls rompiendo «generar» una y otra vez hasta que la IA escupe una buena mentira, pero eso simplemente no coincide con la realidad de cómo funcionan estas campañas.

Hay formas mucho más sencillas de generar texto con información errónea. Un mal actor puede usar algunos algoritmos de rastreo básicos para sacar a la luz las declaraciones más populares en un foro político radical, por ejemplo.

Al final del día, la investigación en sí es increíblemente importante. Como señala el artículo de Wired, llegará un momento en que estos sistemas pueden ser lo suficientemente robustos como para reemplazar a los escritores humanos en algunos dominios, y es importante identificar qué tan poderosos son actualmente para que podamos ver hacia dónde van las cosas.

Pero ahora mismo todo esto es académico

GPT-3 puede algún día influir en las personas, pero ciertamente no está «engañando» a la mayoría de las personas en este momento. Siempre habrá humanos dispuestos a creer cualquier cosa que escuchen si les conviene, pero convencer a alguien en la cerca generalmente requiere más que un tweet que no puede atribuirse a una fuente inteligente.

Reflexiones finales: la investigación es sólida, pero la cobertura exagera mucho lo que estos sistemas realmente pueden hacer.

Definitivamente deberíamos estar preocupados por la desinformación generada por la IA. Pero, según esta investigación en particular, hay pocas razones para creer que GPT-3 o sistemas similares presentan actualmente el tipo de amenaza de desinformación que podría resultar directamente en que los corazones y las mentes humanas se vuelvan contra los hechos.

La IA tiene un largo camino por recorrer antes de ser tan buena en ser mala como incluso el villano humano más modesto.

¡Saludos humanoides! ¿Sabías que tenemos un boletín informativo sobre IA? Puedes suscribirte aquí mismo.



Fuente: TNW

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con tus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, aceptas el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver Política de cookies
Privacidad