¿Por qué «humano» es una barra baja para la mayoría de los proyectos de IA?



Muéstrame una máquina similar a la humana y te mostraré una pieza de tecnología defectuosa. Se espera que el mercado de IA eclipse $ 300 mil millones para 2025. Y la gran mayoría de las empresas que intentan sacar provecho de esa bonanza están comercializando alguna forma de IA «similar a la humana». Tal vez es hora de reconsiderar ese enfoque.

La gran idea es que la IA humana es una actualización. Las computadoras calculan, pero la IA puede aprender. Desafortunadamente, los humanos no son muy buenos en el tipo de tareas para las que una computadora tiene sentido y la IA no es muy buena en los tipos de tareas que los humanos son. Es por eso que los investigadores se están alejando de los paradigmas de desarrollo que se centran en imitar la cognición humana.

Recientemente, un par de investigadores de la NYU se sumergieron profundamente en cómo los humanos y la IA procesan las palabras y el significado de las palabras. Mediante el estudio de la «semántica psicológica», el dúo esperaba explicar las deficiencias de los sistemas de aprendizaje automático en el dominio del procesamiento del lenguaje natural (PNL). De acuerdo a un estudio publicaron en arXiv:

Muchos investigadores de IA no piensan si sus modelos son similares a los humanos. Si alguien pudiera desarrollar un sistema de traducción automática altamente preciso, pocos se quejarían de que no hace las cosas como hacen los traductores humanos.

En el campo de la traducción, los humanos tienen varias tecnicas para mantener múltiples idiomas en sus cabezas e interactuar fluidamente entre ellos. Las máquinas, por otro lado, no necesitan entender lo que significa una palabra para asignarle la traducción adecuada.

Esto se vuelve complicado cuando te acercas a la precisión a nivel humano. Traducir uno, dos y tres al español es relativamente simple. La máquina aprende que son exactamente equivalentes a uno, dos y tres, y es probable que los obtenga correctamente el 100 por ciento del tiempo. Pero cuando agrega conceptos complejos, las palabras con más de un significado y la jerga o el lenguaje coloquial pueden volverse complejas.

Comenzamos a entrar en el valle misterioso de AI cuando los desarrolladores intentan crear algoritmos de traducción que pueden manejar cualquier cosa y todo. Al igual que tomar algunas clases de español no le enseñará a un humano toda la jerga que pueda encontrar en la Ciudad de México, AI lucha por mantenerse al día con un léxico humano en constante cambio.

PNL simplemente no es capaz de ser humano cognición todavía y haciéndolo exhibir como humano comportamiento sería ridículo, imagínese si Google Translate rechazó una solicitud porque encontró desagradable la palabra «húmeda», por ejemplo.

Esta línea de pensamiento no solo está reservada para PNL. Hacer que la IA parezca más humana es simplemente una decisión de diseño para más proyectos de aprendizaje automático. Como lo pusieron los investigadores de la NYU en su estudio:

Una forma de pensar sobre tal progreso es simplemente en términos de ingeniería: hay un trabajo por hacer, y si el sistema lo hace lo suficientemente bien, es exitoso. La ingeniería es importante, y puede dar como resultado un rendimiento mejor y más rápido y aliviar a los humanos del trabajo aburrido, como escribir respuestas o hacer itinerarios de aerolíneas o comprar calcetines.

Desde un punto de vista de ingeniería pura, la mayoría de los trabajos humanos se pueden dividir en tareas individuales que serían más adecuadas para la automatización que la IA, y en los casos en que serían necesarias redes neuronales, por ejemplo, dirigir el tráfico en un puerto de envío, es difícil imaginar un caso de uso en el que una IA general superaría a varios sistemas estrechos y específicos de tareas.

Considere los autos sin conductor. Tiene más sentido construir un vehículo compuesto por varios sistemas que funcionen juntos en lugar de diseñar un robot humanoide que pueda caminar, desbloquear, entrar, arrancar y conducir un automóvil tradicional.

La mayoría de las veces, cuando los desarrolladores afirman que han creado una IA «similar a la humana», lo que quieren decir es que han automatizado una tarea para la que a menudo se emplea a los humanos. El software de reconocimiento facial, por ejemplo, puede reemplazar a un guardia humano, pero no puede decirle qué tan buena es la pizza en el restaurante local en el camino.

Eso significa que el nivel es bastante bajo para la IA cuando se trata de ser «humano». Alexa y Siri hacen una imitación humana bastante buena. Tienen nombres y voces y han sido programados para parecer útiles, divertidos, amigables y educados.

Pero no hay una función que realice un altavoz inteligente que no podría manejarse mejor con un botón. Si tuviera un espacio infinito y una capacidad de atención infinita, podría usar botones para cualquier cosa y todo lo que un altavoz inteligente podría hacer. Uno podría decir «Juega a Mariah Carey», mientras que otro dice «Cuéntame una broma». El punto es que Alexa es casi tan humana como un control remoto gigante.

La IA no es como los humanos. Podemos estar a décadas o más de distancia de una IA general que pueda intuir y funcionar a nivel humano en cualquier dominio. Los robots mayordomos están muy lejos. Por ahora, lo mejor que pueden hacer los desarrolladores de IA es imitar esfuerzo humano, y eso rara vez es tan útil como simplificar un proceso a algo fácilmente automatizado.

Publicado el 6 de agosto de 2020 – 22:35 UTC





Fuente: TNW

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies, puedes ver aquí la Política de Cookies