Una nueva prueba de ‘sentido común’ para la IA podría conducir a máquinas más inteligentes


Contenido proporcionado por IBM y TNW.

de hoy AI los sistemas están evolucionando rápidamente para convertirse en el nuevo mejor amigo de los humanos. Ahora tenemos IA que pueden preparar whisky galardonado, escribir poesía y ayudar a los médicos a realizar operaciones quirúrgicas extremadamente precisas. Pero una cosa que no pueden hacer, que es, en la superficie, mucho más simple que todas esas otras cosas, es usar el sentido común.

El sentido común es diferente de la inteligencia en que, por lo general, es algo innato y natural para los humanos que los ayuda a navegar la vida diaria, y en realidad no se puede enseñar. En 1906, el filósofo GK Chesterton escribió que “el sentido común es una cosa salvaje, salvaje y más allá de las reglas”.


Saludos humanoides

Suscríbase a nuestro boletín ahora para recibir un resumen semanal de nuestras historias favoritas de IA en su bandeja de entrada.

robotspor supuesto, se ejecuta en algoritmos que son solo eso: reglas.

Así que no, los robots no pueden usar el sentido común, todavía. Pero gracias a los esfuerzos actuales en el campo, ahora podemos medir la capacidad de razonamiento psicológico central de una IA, acercándonos un paso más.

Entonces, ¿por qué importa si enseñamos sentido común a la IA?

Realmente todo se reduce al hecho de que el sentido común hará que la IA sea mejor para ayudarnos a resolver problemas del mundo real. Muchos argumentan que las soluciones impulsadas por IA diseñadas para problemas complejos, como diagnóstico de tratamientos de covid-19 por ejemplo, a menudo fallan, ya que el sistema no puede adaptarse fácilmente a una situación del mundo real donde los problemas son impredecibles, vagos y no están definidos por reglas.

El sentido común incluye no solo habilidades sociales y razonamiento, sino también un «sentido ingenuo de la física».

Inyectar sentido común a la IA podría significar grandes cosas para los humanos; mejor servicio al cliente, donde un robot puede ayudar a un cliente descontento más allá de enviarlo a un ciclo interminable de «Elija entre las siguientes opciones». Puede hacer que los coches autónomos reaccionen mejor ante incidentes inesperados en la carretera. Incluso puede ayudar a los militares. dibujar información de vida o muerte desde la inteligencia

Entonces, ¿por qué los científicos no han podido descifrar el código del sentido común hasta ahora?

Llamó al «materia oscura de IA”, el sentido común es crucial para el desarrollo futuro de la IA y, hasta ahora, difícil de alcanzar. Equipar a las computadoras con sentido común ha sido en realidad un objetivo de la informática desde el comienzo mismo del campo; en 1958, el científico informático pionero John McCarthy publicó un artículo titulado “Programas con sentido común” que analizó cómo la lógica podría usarse como un método para representar información en la memoria de la computadora. Pero no nos hemos acercado mucho más a hacerlo realidad desde entonces.

El sentido común incluye no sólo las habilidades sociales y el razonamiento, sino también una “sentido ingenuo de la física” — esto significa que sabemos ciertas cosas sobre física sin tener que trabajar con ecuaciones físicas, como por qué no deberías poner una bola de boliche en una superficie inclinada. También incluye conocimientos básicos de cosas abstractas como el tiempo y el espacio, lo que nos permite planificar, estimar y organizar. “Es el conocimiento que usted debería tener,» dice Michael Witbrock, investigador de IA en la Universidad de Auckland.

Todo esto significa que el sentido común no es una cosa precisa y, por lo tanto, no puede definirse fácilmente mediante reglas.

Agente secreto

Hemos establecido que el sentido común requiere una computadora para inferir cosas basadas en situaciones complejas del mundo real, algo que les resulta fácil a los humanos y comienza a formarse desde la infancia.

Los científicos informáticos están haciendo un progreso (lento) pero constante hacia la creación de agentes de IA que puedan inferir estados mentales, predecir acciones futuras y trabajar con humanos. Pero para ver qué tan cerca estamos realmente, primero necesitamos un punto de referencia riguroso para evaluar el «sentido común» de una IA o su capacidad de razonamiento psicológico.

Investigadores de IBMMIT y Harvard han creado precisamente eso: AGENTE, que significa Aacción-GRAMOoal-mieficiencia-conortetensión-uTilidad Después de la prueba y validación, se muestra que este punto de referencia es capaz de evaluar la capacidad de razonamiento psicológico central de un modelo de IA. Esto significa que en realidad puede dar una sensación de conciencia social y podría interactuar con humanos en entornos del mundo real.

Para demostrar sentido común, un modelo de IA debe tener representaciones integradas de cómo planifican los humanos.

Entonces, ¿qué es AGENTE? AGENT es un conjunto de datos a gran escala de animaciones 3D inspiradas en experimentos que estudian el desarrollo cognitivo de los niños. Las animaciones muestran a alguien interactuando con diferentes objetos bajo diferentes restricciones físicas. Según IBM:

“Los videos comprenden ensayos distintos, cada uno de los cuales incluye uno o más videos de ‘familiarización’ del comportamiento típico de un agente en un determinado entorno físico, junto con videos de ‘prueba’ del comportamiento del mismo agente en un nuevo entorno, que están etiquetados como ‘esperado’ o ‘sorprendente’, dado el comportamiento del agente en los videos de familiarización correspondientes”.

Luego, un modelo debe juzgar cuán sorprendentes son los comportamientos del agente en los videos de ‘prueba’, en función de las acciones que aprendió en los videos de ‘familiarización’. Usando el punto de referencia AGENT, ese modelo se valida luego contra ensayos de calificación humana a gran escala, donde los humanos calificaron los videos de prueba ‘sorprendentes’ como más sorprendentes que los videos de prueba ‘esperados’.

¿Sentido común?

La prueba de IBM muestra que para demostrar sentido común, un modelo de IA debe tener representaciones integradas de cómo planifican los humanos. Esto significa combinar un sentido básico de la física y ‘compensaciones de costo-recompensa’, lo que significa una comprensión de cómo los humanos toman acciones «basado en la utilidadintercambiando las recompensas de su meta contra los costos de alcanzarla.”

Si bien aún no es perfecto, los hallazgos muestran que AGENT es una herramienta de diagnóstico prometedora para desarrollar y evaluar el sentido común en IA, algo en lo que IBM también está trabajando. También muestra que podemos utilizar métodos de psicología del desarrollo tradicionales similares a los que se usan para enseñar a los niños humanos cómo se relacionan los objetos y las ideas.

En el futuro, esto podría ayudar a reducir significativamente la necesidad de capacitación en estos modelos, lo que permitiría negocios para ahorrar energía informática, tiempo y dinero.

Los robots aún no entienden la conciencia humana, pero con el desarrollo de herramientas de evaluación comparativa como AGENT, podremos medir qué tan cerca nos estamos acercando.



Fuente: TNW

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver Política de cookies
Privacidad