No se puede difamar a los muertos. Pero eso no significa que debas falsificarlos.


Zelda Williams, hija del fallecido actor Robin Williams, tiene un mensaje conmovedor para los fans de su padre.

«Por favor, deja de enviarme videos de papá con IA. Deja de creer que quiero verlos o que lo entenderé. No lo hago y no lo haré», escribió en una publicación en su historia de Instagram el lunes. «Si tienes algo de decencia, deja de hacernos esto a él y a mí, incluso a todos, punto. Es una tontería, es una pérdida de tiempo y energía, y créeme, NO es lo que él querría».

Probablemente no sea una coincidencia que Williams se sintiera motivado a publicar esto pocos días después del lanzamiento del modelo de video Sora 2 de OpenAI y la aplicación social Sora, que brinda a los usuarios el poder de generar deepfakes altamente realistas de ellos mismos, sus amigos y ciertos personajes de dibujos animados.

Eso también incluye a los muertos, que aparentemente son presa fácil porque no es ilegal difamar al fallecido, según el Student Press Law Center.

Sora no te permitirá generar videos de personas vivas, a menos que sea tuyo o de un amigo que te haya dado permiso para usar su imagen (o «cameo», como lo llama OpenAI). Pero estos límites no se aplican a los muertos, que en su mayoría pueden generarse sin obstáculos. La aplicación, que todavía sólo está disponible mediante invitación, se ha visto inundada de vídeos de personajes históricos como Martin Luther King, Jr., Franklin Delano Roosevelt y Richard Nixon, así como de celebridades fallecidas como Bob Ross, John Lennon, Alex Trebek y, sí, Robin Williams.

No está claro cómo OpenAI traza el límite en la generación de videos de muertos. Sora 2, por ejemplo, no generará al ex presidente Jimmy Carter, que murió en 2024, ni a Michael Jackson, que murió en 2009, aunque sí creó vídeos con la imagen de Robin Williams, que murió en 2014, según las pruebas de TechCrunch. Y aunque la función de cameo de OpenAI permite a las personas establecer instrucciones sobre cómo aparecen en los videos que otros generan de ellos (barandillas que surgieron en respuesta a las primeras críticas a Sora), los fallecidos no tienen esa voz. Apuesto a que Richard Nixon se revolvería en su tumba si pudiera ver el deepfake que hice de él defendiendo la abolición de la policía.

Deepfakes de Richard Nixon, John Lennon, Martin Luther King, Jr. y Robin Williams
Deepfakes de Richard Nixon, John Lennon, Martin Luther King, Jr. y Robin WilliamsCréditos de imagen:Sora, capturas de pantalla de TechCrunch

OpenAI no respondió a la solicitud de TechCrunch de comentar sobre la permisibilidad de falsificar a personas muertas. Sin embargo, es posible que falsificar celebridades muertas como Williams esté dentro de las prácticas aceptables de la empresa; El precedente legal muestra que la empresa probablemente no sería considerada responsable de la difamación del fallecido.

Evento tecnológico

san francisco
|
27-29 de octubre de 2025

“Ver los legados de personas reales condensarse en ‘esto se parece y suena vagamente como ellos, así que es suficiente’, sólo para que otras personas puedan producir horribles basuras de TikTok titiritándolos es enloquecedor”, escribió Williams.

Los críticos de OpenAI acusan a la compañía de adoptar un enfoque rápido y flexible en tales temas, razón por la cual Sora se vio rápidamente inundado con clips de IA de personajes protegidos por derechos de autor como Peter Griffin y Pikachu tras su lanzamiento. El director ejecutivo Sam Altman dijo originalmente que los estudios y agencias de Hollywood tendrían que optar explícitamente por no participar si no querían que su IP se incluyera en los videos generados por Sora. La Motion Picture Association ya ha pedido a OpenAI que tome medidas al respecto, declarando en un comunicado que “una ley de derechos de autor bien establecida salvaguarda los derechos de los creadores y se aplica aquí”. Desde entonces ha dicho que la empresa revertirá esta posición.

Sora es, quizás, el modelo de IA con capacidad de deepfake más peligroso al que las personas pueden acceder hasta ahora, dado lo realistas que son sus resultados. Otras plataformas como xAI se quedan atrás, pero tienen incluso menos barreras de seguridad que Sora, lo que permite generar deepfakes pornográficos de personas reales. A medida que otras empresas se pongan al día con OpenAI, sentaremos un precedente horrible si tratamos a personas reales, vivas o muertas, como nuestros propios juguetes personales.



Fuente: TechCrunch

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies propias y de terceros para su funcionamiento, análisis, programas de afiliación y para mostrar publicidad personalizada basada en tu perfil y hábitos de navegación. Además, incluye enlaces a sitios externos con sus propias políticas de privacidad, las cuales podrás gestionar al visitarlos. Al hacer clic en Aceptar, consientes el uso de estas tecnologías y el tratamiento de tus datos para estos fines.   
Privacidad