La próxima frontera legal es tu cara y la IA


Esto es El paso atrásun boletín semanal que analiza una historia esencial del mundo de la tecnología. Para obtener más información sobre el pantano legal de la IA, siga Adi Robertson. El paso atrás llega a las bandejas de entrada de nuestros suscriptores a las 8 a.m. ET. Optar por El paso atrás aquí.

La canción se llamaba “Heart on My Sleeve” y si no lo conocieras mejor, podrías adivinar que estabas escuchando a Drake. Si usted hizo No lo sepas mejor: estabas escuchando el campanazo inicial de una nueva batalla legal y cultural: la lucha sobre cómo los servicios de IA deberían poder utilizar los rostros y las voces de las personas, y cómo deberían responder las plataformas.

En 2023, la pista falsa de Drake generada por IA “Heart on My Sleeve” era una novedad; aun así, los problemas que presentaba eran claros. La fiel imitación de la canción de un artista importante inquietó a los músicos. Los servicios de streaming lo eliminaron por un tecnicismo legal de derechos de autor. Pero el creador no estaba haciendo un directo. Copiar de cualquier cosa, sólo una imitación muy cercana. Así que la atención se centró rápidamente en área separada de la ley de semejanza. Es un campo que alguna vez fue sinónimo de celebridades que buscaban respaldos no autorizados y parodias, y a medida que proliferaron los deepfakes de audio y video, se sintió como una de las pocas herramientas disponibles para regularlos.

A diferencia de los derechos de autor, que se rigen por la Ley de Derechos de Autor del Milenio Digital y múltiples tratados internacionales, no existe una ley federal sobre la semejanza. Es un mosaico de diferentes leyes estatales, ninguna de las cuales fue diseñada originalmente teniendo en cuenta la IA. Pero en los últimos años se ha visto una avalancha de esfuerzos para cambiar eso. En 2024, El gobernador de Tennessee, Bill Lee y Gobernador de California Gavin Newsom (ambos estados dependen en gran medida de sus industrias de medios) firmaron proyectos de ley que ampliaron las protecciones contra réplicas no autorizadas de artistas.

Pero, como era de esperar, la ley ha avanzado más lentamente que la tecnología. El mes pasado, OpenAI lanzó Sora, una plataforma de generación de videos con inteligencia artificial destinada específicamente a capturar y remezclar imágenes de personas reales. Abrió las compuertas a un torrente de deepfakes a menudo sorprendentemente realistas, incluso de personas que no dieron su consentimiento para su creación. OpenAI y otras empresas están respondiendo implementando sus propias políticas de semejanza, que, a falta de algo más, podrían convertirse en las nuevas reglas del camino de Internet.

OpenAI tiene negó que fuera imprudente Al lanzar Sora, el director ejecutivo Sam Altman afirmó que, en todo caso, era «demasiado restrictivo» con las barandillas. Sin embargo, el servicio todavía ha generado muchas quejas. Se lanzó con restricciones mínimas sobre la semejanza de personajes históricos, solo para curso inverso después de que los herederos de Martin Luther King Jr. se quejaran de “representaciones irrespetuosas” del líder de derechos civiles asesinado escupir racismo o cometer delitos. Promocionó restricciones cuidadosas sobre el uso no autorizado de imágenes de personas vivas, pero los usuarios encontraron formas de evitarlo para incluir a celebridades como Bryan Cranston en videos de Sora haciendo cosas como tomando una selfie con Michael Jackson, lo que llevó a quejas de SAG-AFTRA eso empujó a OpenAI a fortalecer las barreras de seguridad de maneras no especificadas también allí.

Incluso algunas personas que hizo Los cameos autorizados de Sora (su palabra para un video que utiliza la imagen de una persona) quedaron inquietos por los resultados, que incluyen, para las mujeres, todo tipo de salida fetichista. Altman dijo que no se había dado cuenta de que la gente podría haber sentimientos “intermedios” sobre imágenes autorizadas, como no querer un cameo público «para decir cosas ofensivas o cosas que les parezcan profundamente problemáticas».

Sora ha estado abordando problemas con cambios como su modificación en la política de figuras históricas, pero no es el único servicio de video de IA y las cosas se están poniendo, en general, muy extrañas. El uso de IA se ha vuelto de rigor para la administración del presidente Donald Trump y algunos otros políticos, incluidas representaciones groseras o abiertamente racistas de enemigos políticos específicos: Trump respondió a las protestas No Kings de la semana pasada con un video que lo mostraba arrojando mierda sobre una persona que Se parecía al influencer liberal Harry Sisson.mientras que el candidato a la alcaldía de la ciudad de Nueva York Andrew Cuomo publicó (y rápidamente eliminó) un video de “criminales para Zohran Mamdani” que mostraba a su oponente demócrata engullendo puñados de arroz. Como Kat Tenbarge relató en Noticias Spitfire A principios de este mes, los videos de IA también se están convirtiendo en munición en el drama de influencers.

Existe una amenaza potencial casi constante de acciones legales en torno a videos no autorizados, ya que celebridades como Scarlett Johansson ha contratado un abogado sobre el uso de su imagen. Pero a diferencia de las acusaciones de infracción de derechos de autor de la IA, que han generado numerosas demandas de alto perfil y deliberación casi constante Dentro de las agencias reguladoras, pocos incidentes de semejanza han llegado a ese nivel, tal vez en parte porque el panorama legal aún está en constante cambio.

Cuando SAG-AFTRA agradeció a OpenAI por cambiar las barreras de Sora, aprovechó la oportunidad para promover la Ley Nurture Originals, Foster Art y Keep Entertainment Safe (NO FAKES). un intento de años de codificar las protecciones contra “réplicas digitales no autorizadas”. El Ley NO FALSIFICACIONESque también ha obtenido el apoyo de YouTube, introduce derechos a nivel nacional para controlar el uso de una “representación electrónica altamente realista generada por computadora” de la voz o la imagen visual de una persona viva o muerta. Incluye también la responsabilidad por los servicios en línea que, a sabiendas, permiten réplicas digitales no autorizadas.

La Ley NO FAKES ha generado severas críticas por parte de grupos de libertad de expresión en línea. La EFF lo denominó un mandato de “nueva infraestructura de censura” que obliga a las plataformas a filtrar el contenido de manera tan amplia que casi inevitablemente conducirá a eliminaciones involuntarias y a un “veto de los que interrumpen” en línea. El proyecto de ley incluye exclusiones para parodias, sátiras y comentarios que deberían permitirse incluso sin autorización, pero serán «un poco consuelo para aquellos que no pueden permitirse el lujo de litigar la cuestión», advirtió la organización.

Quienes se oponen a la Ley NO FAKES pueden consolarse con la poca legislación que el Congreso logra aprobar en estos días: actualmente estamos viviendo la El segundo cierre del gobierno federal más largo de la historia.e incluso hay un impulso separado para bloquear la regulación estatal de IA que podría anular nuevas leyes de semejanza. Pero, desde el punto de vista pragmático, las reglas de semejanza aún están por llegar. A principios de esta semana, YouTube anunció que permitirá a los creadores del Programa de socios buscar cargas no autorizadas utilizando su semejanza y solicitar su eliminación. La medida amplía las políticas existentes que, entre otras cosas, permiten socios de la industria musical derriban contenido que «imita la voz única de canto o rap de un artista».

Y a pesar de todo esto, las normas sociales siguen evolucionando. Estamos entrando en un mundo en el que puedes generar fácilmente un vídeo de casi cualquier persona haciendo casi cualquier cosa, pero cuando debería ¿tú? En muchos casos, esas expectativas siguen estando en juego.

  • La mayor parte de esta conversación reciente trata sobre videos de IA de personas que hacen cosas simplemente raras o tontas, pero históricamente, las investigaciones indican que abrumadora mayoría de deepfakes Han sido imágenes pornográficas de mujeres, a menudo realizadas sin consentimiento. Más allá de Sora, hay una conversación completamente diferente sobre cosas como el resultado de los servicios nudify de IAy el cuestiones legales son similares a los relativos a otros imágenes sexuales no consensuadas.
  • Además de la cuestión legal básica de cuándo una imagen no está autorizada, también hay preguntas como cuándo un video puede ser difamatorio (si es lo suficientemente realista) o acosador (si es parte de un patrón más amplio de acoso y amenazas), lo que podría complicar aún más las situaciones individuales.
  • Las plataformas sociales están acostumbradas a estar casi siempre protegidas de responsabilidad a través de la Sección 230, que dice que no pueden ser tratadas como editores o portavoces de contenido de terceros. A medida que más y más servicios toman la medida activa de ayudar a los usuarios a generar contenido, hasta qué punto la Sección 230 protegerá las imágenes y videos resultantes parece una pregunta fascinante.
  • A pesar de los temores de larga data de que la IA hará que sea realmente imposible distinguir los fantasmas de la realidad, a menudo sigue siendo sencillo utilizar el contexto y los “indicadores” (desde tics de edición específicos hasta marcas de agua obvias) para determinar si un vídeo fue generado por IA. El problema es que muchas personas no miran con suficiente atención o simplemente no les importa si es falso.
Seguir temas y autores de esta historia para ver más como esto en el feed personalizado de su página de inicio y recibir actualizaciones por correo electrónico.




Fuente: The Verge

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies propias y de terceros para su funcionamiento, análisis, programas de afiliación y para mostrar publicidad personalizada basada en tu perfil y hábitos de navegación. Además, incluye enlaces a sitios externos con sus propias políticas de privacidad, las cuales podrás gestionar al visitarlos. Al hacer clic en Aceptar, consientes el uso de estas tecnologías y el tratamiento de tus datos para estos fines.   
Privacidad