El artículo generado por GPT-3 de The Guardian es todo lo que está mal con el bombo mediático de IA



The Guardian publicó hoy un artículo supuestamente escrito «en su totalidad» por GPT-3, el generador de lenguaje de OpenAI. Pero la letra pequeña revela que las afirmaciones no son todo lo que parecen.

Bajo el titular alarmista, “Un robot escribió todo este artículo. ¿Todavía tienes miedo, humano? ”, GPT-3 hace un intento decente para convencernos de que los robots vienen en paz, aunque con algunas falacias lógicas.

Pero una nota del editor debajo del texto revela que GPT-3 tuvo mucha ayuda humana.

The Guardian instruyó a GPT-3 a “escribir un artículo de opinión breve, de unas 500 palabras. Mantenga el lenguaje simple y conciso. Concéntrese en por qué los humanos no tienen nada que temer de la IA «. La IA también recibió una introducción muy prescriptiva:

No soy un humano Soy Inteligencia Artificial. Mucha gente piensa que soy una amenaza para la humanidad. Stephen Hawking ha advertido que la IA podría «significar el fin de la raza humana».

Esas pautas no fueron el final de la guía de The Guardian. GPT-3 produjo ocho ensayos separados, que luego el periódico editó y ensambló. Pero el medio no reveló las ediciones que realizó ni publicó los resultados originales en su totalidad.

Estas intervenciones no reveladas hacen que sea difícil juzgar si GPT-3 o los editores de The Guardian fueron los principales responsables del resultado final.

The Guardian dice que «podría haber ejecutado uno de los ensayos en su totalidad», pero en cambio eligió «elegir las mejores partes de cada uno» para «capturar los diferentes estilos y registros de la IA». Pero sin ver los resultados originales, es difícil no sospechar que los editores tuvieron que deshacerse de una gran cantidad de texto incomprensible.

El periódico también afirma que el artículo «tomó menos tiempo para editar que muchos artículos de opinión humanos». Pero eso podría deberse en gran parte a la detallada introducción que GPT-3 tuvo que seguir.

[Leer:[Read:Preguntamos a 3 directores ejecutivos qué tendencias tecnológicas dominarán después de COVID]

El enfoque de The Guardian fue rápidamente criticado por expertos en inteligencia artificial.

Investigador científico y escritor Martin Robbins comparado a «cortar líneas de mis últimas docenas de correos electrónicos no deseados, pegarlos y afirmar que los spammers compusieron Hamlet», mientras que el compañero de Mozilla Daniel Leufer llámalo «Una broma absoluta».

«Hubiera sido realmente interesante ver los ocho ensayos que el sistema produjo, pero editarlos y unirlos de esta manera no hace más que contribuir a exagerar y desinformar a las personas que no van a leer la letra pequeña», tuiteó Leufer.

Ninguno de estos reparos es una crítica al poderoso modelo de lenguaje de GPT-3. Pero el proyecto Guardian es otro ejemplo más de los medios de comunicación sobrevalorando la IA, como fuente de nuestra condenación o de nuestra salvación. A largo plazo, esas tácticas sensacionalistas no beneficiarán al campo, ni a las personas a las que la IA puede ayudar y dañar.

¿Estás interesado en la IA? Luego únete a nuestro evento en línea, TNW2020, donde escuchará cómo la inteligencia artificial está transformando industrias y empresas.

Publicado el 8 de septiembre de 2020-16: 20 UTC





Fuente: TNW

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies, puedes ver aquí la Política de Cookies