En estos días, puede ser muy difícil determinar dónde dibujar los límites en torno a la inteligencia artificial. Lo que puede y no puede hacer a menudo no está muy claro, ni tampoco hacia dónde se dirige su futuro.
De hecho, también hay mucha confusión en torno a lo que realmente es la IA. Los departamentos de mercadotecnia tienden a adaptar de alguna manera a la inteligencia artificial en sus mensajes y a renombrar productos antiguos como «IA y aprendizaje automático. » La taquilla está llena de películas sobre sistemas inteligentes de inteligencia artificial y robots asesinos que planean conquistar el universo. Mientras tanto, las redes sociales están llenas de ejemplos de sistemas de IA que cometen errores estúpidos (y a veces ofensivos).
«Si parece que la IA está en todas partes, es en parte porque ‘inteligencia artificial’ significa muchas cosas, dependiendo de si estás leyendo ciencia ficción o vendiendo una nueva aplicación o haciendo investigación académica», escribe Janelle Shane en Pareces una cosa y te amo, un libro sobre cómo funciona la IA.
Shane dirige el famoso blog. Rareza AI, que, como su nombre indica, explora la «rareza» de la IA a través de ejemplos prácticos y humorísticos. En su libro, Shane aprovecha su experiencia de años y nos lleva a través de muchos ejemplos que muestran de manera elocuente qué es la IA, o más específicamente aprendizaje profundo—Es y lo que no es, y cómo podemos aprovecharlo al máximo sin toparnos con las trampas.
Si bien el libro está escrito para el laico, definitivamente es una lectura digna para las personas que tienen antecedentes técnicos e incluso ingenieros de aprendizaje automático que no saben cómo explicar los entresijos de su oficio a personas menos técnicas.
Tonta, perezosa, codiciosa e inhumana
En su libro, Shane hace un gran trabajo al explicar cómo funcionan los algoritmos de aprendizaje profundo. Desde el apilamiento de capas de neuronas artificiales, ejemplos de alimentación, errores de propagación hacia atrás, uso del descenso de gradiente y, finalmente, el ajuste de los pesos de la red, Shane lo lleva a través del entrenamiento de redes neuronales profundas con ejemplos humorísticos como calificar sándwiches y proponer «toc-toc, ¿quién está allí?» chistes
Todo esto ayuda entender los límites y los peligros de los sistemas actuales de inteligencia artificial, que no tiene nada que ver con los robots de terminación súper inteligentes que quieren matar a todos los humanos o sistemas de software que planean tramas siniestras. «[Those] Los escenarios de desastre asumen un nivel de pensamiento crítico y una comprensión humana del mundo que las IA no serán capaces en el futuro previsible «, escribe Shane. Utiliza el mismo contexto para explicar algunos de los problemas comunes que se producen al entrenar redes neuronales , como el desequilibrio de clase en los datos de entrenamiento, sesgo algorítmicosobreajuste problemas de interpretabilidad, y más.
En cambio, la amenaza de los sistemas actuales de aprendizaje automático, que ella describe correctamente como IA estrecha, es considerarlo demasiado inteligente y confiar en él para resolver un problema que es más amplio que su alcance de inteligencia. «La capacidad mental de la IA sigue siendo pequeña en comparación con la de los humanos, y a medida que las tareas se amplían, las IA comienzan a tener dificultades», escribe en otra parte del libro.
Los algoritmos de IA también son muy inhumanos y, como verá en Pareces una cosa y te amo, a menudo encuentran formas de resolver problemas que son muy diferentes de cómo lo harían los humanos. Tienden a descubrir las siniestras correlaciones que los humanos han dejado a su paso al crear los datos de entrenamiento. Y si hay un atajo furtivo que los llevará a sus objetivos (como pausar un juego para evitar morir), lo usarán a menos que se les indique explícitamente que hagan lo contrario.
«La diferencia entre la resolución exitosa de problemas de inteligencia artificial y el fracaso generalmente tiene mucho que ver con la idoneidad de la tarea para una solución de inteligencia artificial», escribe Shane en su libro.
A medida que profundiza en la rareza de la IA, Shane arroja luz sobre otra realidad sobre los sistemas de aprendizaje profundo: «A veces puede ser un sustituto innecesariamente complicado para una comprensión del problema de sentido común». Luego nos lleva a través de muchas otras disciplinas pasadas por alto de inteligencia artificial que pueden ser igualmente eficientes para resolver problemas.
De bots estúpidos a bots humanos
En Pareces una cosa y te amo, Shane también se ocupa de explicar algunos de los problemas que se han creado como resultado del uso generalizado del aprendizaje automático en diferentes campos. Quizás el más conocido es sesgo algorítmico, los intrincados desequilibrios en la toma de decisiones de AI que conducen a la discriminación contra ciertos grupos y grupos demográficos.
Hay muchos ejemplos en los que los algoritmos de IA, utilizando sus propias formas extrañas, descubren y copian los prejuicios raciales y de género de los humanos y los copian en sus decisiones. Y lo que lo hace más peligroso es que lo hacen sin saberlo y de manera ininterrumpida.
“No deberíamos ver las decisiones de IA como justas solo porque una IA no puede guardar rencor. Tratar una decisión como imparcial solo porque proviene de una IA se conoce a veces como lavado de matemáticas o lavado de sesgos ”, advierte Shane. «El sesgo sigue ahí, porque la IA lo copió de sus datos de entrenamiento, pero ahora está envuelto en una capa de comportamiento de IA difícil de interpretar».
Esta replicación sin sentido de los prejuicios humanos se convierte en un ciclo de retroalimentación autorreforzado que puede volverse muy peligroso cuando se desata en campos sensibles, como decisiones de contratación, justicia penal y solicitud de préstamos.
«La clave de todo esto puede ser la supervisión humana», concluye Shane. «Debido a que las IA son tan propensas a resolver el problema incorrecto sin saberlo, romper cosas o tomar atajos desafortunados, necesitamos que las personas se aseguren de que su ‘brillante solución’ no sea una bofetada. Y esas personas necesitarán estar familiarizadas con las formas en que las IA tienden a tener éxito o fallar «.
Shane también explora varios ejemplos en los que no reconocer los límites de la IA ha resultado en que los humanos se enlistan para resolver problemas que la IA no puede. También conocido como Efecto «El mago de Oz», este uso invisible de bots humanos a menudo mal pagados se está convirtiendo en un problema creciente a medida que las empresas intentan aplicar el aprendizaje profundo a todo y buscan una excusa para poner una etiqueta de «AI-powered» en sus productos.
«La atracción de la IA para muchas aplicaciones es su capacidad de escalar a grandes volúmenes, analizando cientos de imágenes o transacciones por segundo», escribe Shane. «Pero para volúmenes muy pequeños, es más barato y más fácil usar humanos que construir una IA».
La IA no está aquí para reemplazar a los humanos … todavía
Todos los sándwiches de cáscara de huevo y barro, los chistes cursis, las recetas de pastel sin sentido, las jirafas mal etiquetadas y todas las otras cosas extrañas que AI nos lleva a una conclusión muy importante. «La IA no puede hacer mucho sin humanos», escribe Shane. «Una visión mucho más probable para el futuro, incluso una con el uso generalizado de tecnología avanzada de IA, es aquella en la que la IA y los humanos colaboran para resolver problemas y acelerar las tareas repetitivas».
Mientras continuamos la búsqueda de inteligencia a nivel humano, debemos adoptar la IA actual como lo que es, no como queremos que sea. «En el futuro previsible, el peligro no será que la IA sea demasiado inteligente, sino que no sea lo suficientemente inteligente», escribe Shane. «Hay muchas razones para ser optimista sobre la IA y Todas las razones para ser cauteloso. Todo depende de qué tan bien lo usemos ”.
Este artículo fue publicado originalmente por Ben Dickson en TechTalks, una publicación que examina las tendencias en tecnología, cómo afectan la forma en que vivimos y hacemos negocios, y los problemas que resuelven. Pero también discutimos el lado malo de la tecnología, las implicaciones más oscuras de la nueva tecnología y lo que debemos tener en cuenta. Puedes leer el articulo original aquí.
Publicado el 18 de julio de 2020 – 13:00 UTC