El futuro de la política de inteligencia artificial de EE. UU. Puede depender de una guerra falsa con una China ficticia



La guerra se acerca. A finales de este año, el ejército de EE. UU. Librará su campaña de guerra más avanzada mientras se enfrenta a una versión ficticia de China.

Las batallas serán falsas, pero los resultados deberían proporcionar al gobierno todo lo que necesita para justificar el desarrollo masivo de sistemas de armas autónomas letales (LAWS).

La era de los robots asesinos controlados por el gobierno está sobre nosotros.

En la delantera: Los líderes militares de EE. UU. Apoyan cada vez más la necesidad de sacar a los humanos del circuito cuando se trata de armas controladas por IA. Y no hay nada en la política actual de Estados Unidos que impida que eso suceda.

Por el Federación de Científicos Americanos:

Contrariamente a una serie de informes de noticias, la política de los EE. UU. No prohíbe el desarrollo o el empleo de LAWS. Si bien Estados Unidos no tiene actualmente LAWS en su inventario, algunos líderes militares y de defensa de alto rango han declarado que los Estados Unidos pueden verse obligados a desarrollar LAWS en el futuro si los posibles adversarios estadounidenses deciden hacerlo. Al mismo tiempo, un número creciente de estados y organizaciones no gubernamentales están apelando a la comunidad internacional para que regule o prohíba las LEYES debido a preocupaciones éticas.

El Ejército tiene un programa llamado “Convergencia de proyectos. » Su misión es unir los diversos dominios de datos, información, comando y control militares para facilitar un campo de batalla optimizado.

Una inmersión profunda en las tácticas militares modernas está más allá del alcance de este artículo, pero conviene una breve explicación.

Fondo: El comando y el control modernos están dominados por algo llamado «el bucle OODA». OODA significa «observar, orientar, decidir y actuar».

El bucle OODA evita que los comandantes sigan al enemigo hasta las trampas, nos impide disparar contra civiles y es nuestro escudo más fuerte contra incidentes de fuego amigo.

La gran idea: Los líderes militares estadounidenses temen que el proceso tradicional de toma de decisiones humanas se vuelva obsoleto porque no podemos reaccionar tan rápido como una IA. El bucle OODA, en teoría, se puede automatizar.

Y es por eso que Project Convergence llevará a cabo una serie de juegos de guerra este otoño contra un país ficticio destinado a representar a China.

Algunos líderes militares estadounidenses temen que China esté desarrollando tecnología LAWS y afirman que la República Popular no tendrá las mismas preocupaciones éticas que sus adversarios potenciales.

En otras palabras: El ejército de EE. UU. Está planeando probar nuestras fuerzas militares y sistemas de IA actuales, que requieren un humano en el circuito, contra fuerzas con sistemas de IA que no lo hacen.

Toma rápida: Project Convergence está jugando al ajedrez contra sí mismo aquí. El país ficticio contra el que las fuerzas estadounidenses jugarán una guerra en el otoño puede parecerse a China, pero fue desarrollado y simulado por el Pentágono.

Lo más importante aquí es que no es necesario ser un genio militar para conocer el país que se salta OODA y simplemente envía flotas, ejércitos y escuadrones enteros de LAWS de gatillo fácil que probablemente domine el espacio de batalla.

Esto es exactamente sobre lo que todos los especialistas en ética de la IA han estado advirtiendo. Sacar a los humanos del circuito y permitir que LAWS tome la decisión de matar es más que una pendiente resbaladiza. Es la próxima bomba atómica.

Pero cuando «perdamos» la lucha contra la China falsa, sin duda será más fácil convencer al Congreso de sacar a los humanos y OODA del círculo.



Fuente: TNW

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver Política de cookies
Privacidad