5 amenazas reales de IA que hacen que Terminator se parezca a un policía de jardín de infantes



Eso. Nunca. Fracasa. Cada vez que un artículo de IA llega a las redes sociales, hay cientos de personas que invocan el aterrador espectro de «SKYNET».

SKYNET es una inteligencia general artificial ficticia que es responsable de la creación de los robots asesinos a partir del Terminator franquicia cinematográfica. Era una visión aterradora del futuro de la IA hasta que llegó el aprendizaje profundo y la gran tecnología decidió quitarse el cinturón metafórico y realmente nos dan algo por lo que llorar.

Al menos las personas que luchan contra los robots en El terminador Las franquicias cinematográficas se enfrentan a un villano al que pueden ver y disparar. En la vida real, no puedes marcar un algoritmo.

Y eso hace que sea difícil explicar por qué, según lo que está sucediendo ahora, el verdadero El futuro podría ser incluso más aterrador que el de esas películas de robots asesinos.

Afortunadamente, contamos con expertos como Kai Fu Lee y Chen Qiufan, cuyo nuevo libro, AI 2041: Diez visiones de nuestro futuro, intenta predecir lo que harán las máquinas durante las próximas dos décadas. Y, basado en esta entrevista, hay una mierda aterradora en nuestro camino.

Según Lee y Qiufan, las mayores amenazas a las que se enfrentan los seres humanos cuando se trata de IA son su influencia, falta de responsabilidad o explicabilidad, su sesgo inherente y explícito, su uso como un garrote contra la privacidad y, sí, robots asesinos, pero no el tipo en el que estás pensando.

Los Facebook

Si vamos a priorizar una lista de amenazas existenciales para la raza humana, probablemente deberíamos comenzar con la peor de todas: las redes sociales.

La propia existencia de Facebook es un peligro para la humanidad. Representa una entidad comercial con más poder que el órgano de gobierno de la nación en la que está incorporada.

El gobierno de EE. UU. No ha tomado medidas significativas para regular el uso de la inteligencia artificial por parte de Facebook. Y, por esa razón, miles de millones de humanos en todo el planeta están expuestos a algoritmos de recomendación demostrablemente dañinos todos los días.

La IA de Facebook tiene más influencia sobre la humanidad que cualquier otra fuerza en la historia. La red social tiene usuarios mensuales más activos que el cristianismo.

Sería miope pensar en décadas de exposición a las redes sociales, a pesar de cientos de miles de estudios nos advierten sobre los daños reales, no tendrá un impacto importante en nuestra especie.

Ya sea en 10, 20 o 50 años, la evidencia parece indicar que viviremos para arrepentirnos de haber centrado nuestra atención en una entidad matemática más tonto que un caracol.

Las amazonas

La próxima amenaza en nuestro tour-de-AI-horrors es el fascinante mundo de la tecnología anti-privacidad y la distopía de pesadilla a la que nos dirigimos como especie.

El anillo de Amazon es el recordatorio perfecto de que, por el motivo que sea, la humanidad profundamente invertido en dispararse a sí mismo en el pie en cada oportunidad posible.

Si hay algo en lo que casi todas las naciones libres del planeta están de acuerdo, es en que los seres humanos merecen un mínimo de privacidad.

Las cámaras del timbre del anillo destruyen esa privacidad y, efectivamente, dar tanto al gobierno como a una corporación de un billón de dólares la visión de un vecino de todo lo que está sucediendo en todos los vecindarios del país.

Lo único que impide que Amazon o el gobierno de los EE. UU. Exploten los datos en los depósitos donde se almacenan todas las secuencias de video de Ring es su palabra.

Si alguna vez resulta lucrativo utilizar nuestros datos o venderlos. O un cambio político le da al gobierno de EE. UU. Poderes para invadir nuestra privacidad que no tenía anteriormente, nuestros datos ya no están seguros.

Pero no es solo Amazon. Nuestros coches pronto estarán equipados con Cámaras conectadas a la nube que supuestamente vigilan a los conductores por razones de seguridad. Ya tenemos micrófonos activos escuchando en todos nuestros dispositivos inteligentes.

Y estamos en la cúspide de Integración de interfaces cerebro-computadora. El camino hacia los dispositivos portátiles que envían datos directamente desde su cerebro a los servidores de las grandes tecnologías está pavimentado con buenas intenciones y una inteligencia artificial horrible.

La próxima generación de tecnología de vigilancia, dispositivos portátiles y compañeros de inteligencia artificial podría erradicar la idea de la privacidad personal por completo.

Los googles

La diferencia entre ser el primer resultado de una búsqueda en Google o terminar en la parte inferior de la página puede cuestan a las empresas millones de dólares. Los motores de búsqueda y los agregadores de feeds de redes sociales pueden acabar con un negocio o hundir una noticia.

Y nadie votó para darle a Google ni a los algoritmos de búsqueda de ninguna otra empresa ese tipo de poder, simplemente sucedió.

Ahora, El sesgo de Google es nuestro sesgo. El sesgo de Amazon determina qué productos compramos. El sesgo de Microsoft y Apple determina qué noticias leemos.

Nuestros médicos, políticos, jueces y profesores utilizan los motores de búsqueda de Google, Apple y Microsoft para realizar negocios personales y profesionales. Y los sesgos inherentes a cada producto dictan lo que ven y lo que no ven.

Los feeds de las redes sociales a menudo determinan no solo qué artículos de noticias leemos, sino a qué editores de noticias estamos expuestos. Casi todas las facetas de la vida moderna se promulgan de alguna manera a través de sesgos algorítmicos.

En otros 20 años, la información podría volverse tan estratificada que los «hechos alternativos» ya no se refieren a aquellos que se apartan de la realidad, sino a aquellos que no reflejan la verdad colectiva que nuestros algoritmos han decidido por nosotros.

Culpar a los algoritmos

La IA no tiene que hacer nada para dañar a los humanos. Todo lo que tiene que hacer es existir y seguir siendo confuso para la corriente principal. Siempre que los desarrolladores puedan salirse con la suya haciendo pasar la caja negra AI como una forma de automatizar la toma de decisiones humanas, el fanatismo y la discriminación tendrán un hogar en el que prosperar.

Hay ciertas situaciones en las que no necesitamos que la inteligencia artificial se explique.Pero cuando una IA tiene la tarea de tomar una decisión subjetiva, especialmente una que afecta a los humanos, es importante que sepamos por qué toma las decisiones que toma.

Es un gran problema cuando, por ejemplo, El algoritmo de YouTube muestra contenido para adultos en las cuentas de los niños. porque los desarrolladores responsables de crear y mantener esos algoritmos no tienen ni idea de por qué sucede.

Pero, ¿y si no hay una mejor manera de utilizar la IA de caja negra? Nos hemos pintado en una esquina – casi todas las grandes empresas de tecnología de cara al público están impulsadas por la IA de caja negra, y casi todas son dañinas. Pero deshacerse de él puede resultar incluso más difícil que sacar a la humanidad de su dependencia de los combustibles fósiles, y por las mismas razones.

En los próximos 20 años, podemos esperar que la falta de explicabilidad intrínseca a la IA de caja negra se encuentre en el centro de cualquier número de catástrofes potenciales que involucren inteligencia artificial y pérdida de vidas humanas.

Asesinatos

La amenaza final y quizás menos peligrosa (pero más obvia) para nuestra especie en su conjunto es la de drones asesinos. Tenga en cuenta que eso no es lo mismo que los robots asesinos.

Hay una razón por la que incluso el ejército de los EE. UU., Con su vasto presupuesto, no tiene robots asesinos. Y es porque no tienen sentido cuando puedes simplemente automatizar un tanque o montar un rifle en un dron.

El Real robot asesino La amenaza es la de los terroristas que obtienen acceso a algoritmos simples, drones simples, armas simples y tecnología avanzada de control de enjambres de drones.

Quizás la mejor perspectiva proviene de Lee quien, en una entrevista reciente con Andy Serwer, dijo:

Cambia el futuro de la guerra porque, entre un país y otro, esto puede causar estragos y daños, pero tal vez, de forma anónima y la gente no sepa quién hizo el ataque.

Por tanto, también es bastante diferente de la carrera de armamentos nucleares, donde [the] La carrera de armamentos nucleares al menos tiene la disuasión incorporada. Que no ataque a alguien por miedo a represalias y aniquilación.

Pero las armas autónomas podrían ser factibles como un ataque sorpresa. Y es posible que la gente ni siquiera sepa quién lo hizo. Así que creo que, desde mi perspectiva, ese es el mayor peligro del que puedo ser parte. Y debemos ser cautelosos y descubrir cómo prohibirlo o regularlo.



Fuente: TNW

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver Política de cookies
Privacidad