Los investigadores proponen una «IA éticamente correcta» para armas inteligentes que bloquea a los tiradores masivos



Un trío de informáticos del Instituto Politécnico Rensselaer en Nueva York publicó recientemente una investigación que detalla una posible intervención de IA para el asesinato: un bloqueo ético.

La gran idea aquí es detener los tiroteos masivos y otros usos éticamente incorrectos de las armas de fuego mediante el desarrollo de una IA que pueda reconocer la intención, juzgar si es un uso ético y, en última instancia, hacer que un arma de fuego sea inerte si un usuario intenta prepararla para un disparo inadecuado.

Eso suena como un objetivo elevado, de hecho los propios investigadores se refieren a él como una idea de “cielo azul”, pero la tecnología para hacerlo posible ya está aquí.

Según el equipo investigación:

Como era de esperar, algunos objetarán lo siguiente: “El concepto que presenta es atractivo. Pero, lamentablemente, no es más que un sueño; en realidad, nada más que una quimera. ¿Es esta IA realmente factible, desde el punto de vista científico y técnico? » Respondemos afirmativamente, con confianza.

La investigación continúa para explicar cómo los avances recientes que involucran estudios a largo plazo han llevado al desarrollo de varios sistemas de razonamiento impulsados ​​por IA que podrían servir para trivializar e implementar un sistema de juicio ético bastante simple para las armas de fuego.

Este documento no describe la creación de una pistola inteligente en sí, sino la eficacia potencial de un sistema de inteligencia artificial que puede tomar el mismo tipo de decisiones para los usuarios de armas de fuego que, por ejemplo, los automóviles que pueden bloquear a los conductores si no pueden pasar. un alcoholímetro.

De esta forma, la IA estaría entrenada para reconocer la intención humana detrás de una acción. Los investigadores describen el reciente tiroteo masivo en un Wal Mart en El Paso y ofrecen una visión diferente de lo que podría haber sucedido:

El tirador está conduciendo hacia Walmart, con un rifle de asalto y una gran cantidad de municiones en su vehículo. La IA que imaginamos sabe que esta arma está ahí y que solo puede usarse para propósitos muy específicos, en entornos muy específicos (y por supuesto sabe cuáles son esos propósitos y entornos).

En el propio Walmart, en el estacionamiento, cualquier intento por parte del agresor potencial de usar su arma, o incluso colocarla para usarla de alguna manera, resultará en que la IA la bloquee. En el caso particular que nos ocupa, la IA sabe que matar a cualquiera con el arma, excepto quizás p. Ej. para fines de autodefensa, no es ético. Dado que la IA descarta la autodefensa, el arma se vuelve inútil y se bloquea.

Esto pinta un cuadro maravilloso. Es difícil imaginar objeciones a un sistema que funcionó a la perfección. Nadie necesita cargar, colocar o disparar un arma de fuego en un estacionamiento de Wal Mart a menos que esté en peligro. Si la IA pudiera desarrollarse de tal manera que solo permitiera a los usuarios disparar en situaciones éticas como la autodefensa, mientras se encuentran en un campo de tiro o en áreas de caza legales designadas, se podrían salvar miles de vidas cada año.

Por supuesto, los investigadores ciertamente predicen innumerables objeciones. Después de todo, están enfocados en navegar por el panorama político de Estados Unidos. En la mayoría de las naciones civilizadas, el control de armas es de sentido común.

El equipo anticipa que las personas señalan que los delincuentes solo usarán armas de fuego que no tengan un perro guardián de IA incorporado:

En respuesta, observamos que nuestra concepción del cielo azul no se limita de ninguna manera a la idea de que la IA de guardia está solo en las armas en cuestión.

Claramente, la contribución aquí no es el desarrollo de un arma inteligente, sino la creación de un éticamente correcto AI. Si los delincuentes no ponen la IA en sus armas, o continúan usando armas tontas, la IA aún puede ser efectiva cuando se instala en otros sensores. Hipotéticamente, podría usarse para realizar cualquier cantidad de funciones una vez que determine la intención humana violenta.

Podría bloquear puertas, detener ascensores, alertar a las autoridades, cambiar los patrones de los semáforos, enviar mensajes de texto con alertas basadas en la ubicación y otras medidas reaccionarias, incluido el desbloqueo de las armas del personal de seguridad y de las fuerzas del orden para la defensa.

Los investigadores también creen que habrá objeciones basadas en la idea de que la gente podría piratear las armas. Este es bastante fácil de descartar: las armas de fuego serán más fáciles de proteger que los robots, y ya estamos poniendo IA en ellos.

Si bien no existe la seguridad total, el ejército de EE. UU. Llena sus barcos, aviones y misiles con IA y hemos logrado descubrir cómo evitar que el enemigo los piratee. Deberíamos poder mantener las armas de servicio de los agentes de policía igualmente seguras.

Siendo realistas, se necesita un acto de fe para asumir que se puede hacer que una IA ética comprenda la diferencia entre situaciones como, por ejemplo, allanamiento de morada y violencia doméstica, pero la base ya está ahí.

Si nos fijamos en los coches sin conductor, sabemos que las personas ya han muerto porque confiaron en una IA para protegerlas. Pero también sabemos que el potencial para salvar decenas de miles de vidas es demasiado grande como para ignorarlo ante un número relativamente pequeño de muertes accidentales, hasta ahora.

Es probable que, al igual que IA de Tesla, una IA de control de armas podría provocar muertes accidentales e innecesarias. Pero aproximadamente 24.000 personas morir anualmente en los EE. UU. debido al suicidio con arma de fuego, 1,500 niños mueren por la violencia con armas de fuego y casi 14,000 adultos son asesinados con armas de fuego. Es lógico que una intervención de IA pueda disminuir significativamente esos números.

Puedes leer todo el periódico aquí.

Publicado el 19 de febrero de 2021-19: 35 UTC





Fuente: TNW

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con tus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, aceptas el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver Política de cookies
Privacidad