Un notorio blog generado por GPT-3 muestra que la IA aún no puede imitar la escritura humana


¿Estás interesado en la IA? Luego únete a nuestro evento en línea, TNW2020, donde escuchará cómo la inteligencia artificial está transformando industrias y empresas.

La semana pasada, muchas publicaciones de tecnología dieron la noticia de un blog generado por inteligencia artificial que engañó a miles de usuarios y llegó a la cima del foro de Hacker News. GPT-3, el modelo de lenguaje masivo desarrollado por el laboratorio de investigación de IA OpenAI, había escrito los artículos.

Desde su lanzamiento en julio, GPT-3 ha causado mucho entusiasmo en la comunidad de IA. Los desarrolladores que recibieron acceso temprano al modelo de lenguaje solían hacer muchas cosas interesantes, mostrando hasta dónde ha llegado la investigación de IA.

Pero como muchos otros desarrollos en IA, también hay mucha publicidad y malentendidos en torno a GPT-3, y muchas de las historias publicadas sobre él tergiversan sus capacidades. El blog escrito por GPT-3 resurgió preocupaciones sobre ataques de noticias falsas, robots que engañan a los humanos, y desempleo tecnológico, que se han convertido en el sello distintivo de los informes de IA.

Decidí echar un vistazo profundo al blog y la emoción que lo rodea, y mis hallazgos fueron preocupantes. Pero los problemas que encontré fueron principalmente con humanos, no con GPT-3.

El blog generado por IA

captura de pantalla del blog de adolos