Una guía para principiantes sobre IA: ética en inteligencia artificial



Bienvenido a la guía de inteligencia artificial para principiantes de Neural. Esta serie de larga duración debería proporcionarle una comprensión muy básica de qué es la IA, qué puede hacer y cómo funciona. Además del artículo que está leyendo actualmente, la guía contiene artículos sobre (en orden de publicación) Redes neuronales, visión por computador, procesamiento natural del lenguaje, algoritmos, inteligencia general artificial, la diferencia entre la IA de los videojuegos y la IA real, y la diferencia entre inteligencia humana y de máquina.

La solución más obvia para un problema dado no siempre es la mejor solución. Por ejemplo: sería mucho más fácil para que arrojemos toda nuestra basura en el césped de nuestros vecinos y dejemos que ellos se ocupen de ella. Pero, por diversas razones, probablemente no sea la solución óptima. En esencia, tal acción no sería ética porque obliga a otra persona a asumir sus cargas además de las suyas propias.

Básicamente: no es ético pasar tu basura a la siguiente persona. Y eso es más o menos en lo que debemos centrarnos cuando intentamos comprender la ética en el campo de la inteligencia artificial.

Para los propósitos de este artículo, cuando discutimos la ética de la IA, nos hacemos dos preguntas simples:

  1. ¿Es ético construir una IA para este propósito específico?
  2. ¿Es ético construir una IA con estas capacidades?

La primera pregunta cubre la intención del desarrollador o creador. Dado que no existe un órgano de gobierno que determine las restricciones éticas aceptables que debemos imponer a los desarrolladores, lo mejor que podemos hacer es intentar determinar la razón de ser de un sistema de IA determinado.

Cuando Google, por ejemplo, nos dice que ha creado una IA que puede etiquetar imágenes en la naturaleza, aceptamos su existencia como una forma de bien mayor porque asumimos que fue creada sin malicia.

Y, gracias a esa IA, podemos escribir «cachorro» en un cuadro de búsqueda en nuestros teléfonos y Google examinará nuestro archivo personal de miles de imágenes y mostrará todas las que tengan cachorros.

Sin embargo, en un momento dado, si escribiste «gorila”En Buscar y hacer clic en la pestaña de imágenes, aparecerían imágenes de personas negras. Y, sin importar cuál fuera la intención del desarrollador, crearon un sistema que perpetuó los estereotipos racistas a una escala sin precedentes en la historia de la humanidad.

La segunda pregunta, “¿es ético construir una IA con estas capacidades?”, Se refiere a la intención de las posibles partes externas que puedan sentirse inspiradas para hacer un mal uso de un sistema de IA o desarrollar el suyo propio.

Por ejemplo, el desarrollo de un sistema de IA que analiza la emoción humana como evidente en la expresión facial no es inherentemente objetable. Un uso ético de esta tecnología sería la creación de un sistema que alerta a los conductores cuando parece que se están quedando dormidos detrás del volante.

Pero si lo usa para determinar si un candidato a un puesto es adecuado para su empresa, por ejemplo, es probable que sea considerado poco ético. Está bien establecido que Los sistemas de inteligencia artificial tienen un sesgo hacia los rostros masculinos blancos, los sistemas funcionan mejor para un grupo que para otros.

Cuando se trata de dilemas éticos, las situaciones populares de las que a la gente le gusta hablar rara vez son las que los desarrolladores y creadores enfrentan. Si un automóvil sin conductor decide matar a una persona mayor o un grupo de niños no es un problema tan común como si una base de datos sobre humanos tiene suficiente diversidad para hacer un sistema lo suficientemente robusto como para ser útil.

Desafortunadamente, cada entidad en el mundo moderno parece tener su propia agenda y su propia ética cuando se trata de IA. Los gobiernos de las superpotencias del mundo han decidido que las máquinas de matar autónomas son éticas, el público en general ha aceptado falsificaciones profundas, y la proliferación de tecnología de vigilancia masiva a través de dispositivos que van desde las cámaras de timbre Ring hasta el uso legal de sistemas de reconocimiento facial por parte de las fuerzas del orden nos dice que es el salvaje oeste para la IA, en lo que respecta a la ética.

Publicado el 26 de febrero de 2021-20: 30 UTC





Fuente: TNW

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con tus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, aceptas el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver Política de cookies
Privacidad