Necesitamos desvincular la IA de los cerebros humanos y los sesgos


En el verano de 1956, 10 científicos se reunieron en Dartmouth College y inventó la inteligencia artificial. Investigadores de campos como las matemáticas, la ingeniería, la psicología, la economía y las ciencias políticas se unieron para descubrir si podían describir el aprendizaje y el pensamiento humano con tanta precisión que pudieran replicarse con una máquina. Apenas una década después, estos mismos científicos contribuyeron a avances dramáticos en robótica, procesamiento de lenguaje natural y visión artificial.

Aunque ha pasado mucho tiempo desde entonces, la robótica, el procesamiento del lenguaje natural y la visión por computadora siguen siendo algunas de las áreas de investigación más candentes hasta el día de hoy. Se podría decir que estamos enfocados en enseñar a la IA a moverse como un humano, hablar como un humano y ver como un humano.

El caso para hacer esto es claro: con IA, queremos máquinas para automatizar tareas como conducir, leer contratos legales o comprar comestibles. Y queremos que estas tareas se realicen de manera más rápida, segura y exhaustiva de lo que los humanos jamás podrían hacerlo. De esta manera, los humanos tendrán más tiempo para actividades divertidas, mientras que las máquinas se encargarán de las tareas aburridas de nuestras vidas.

Sin embargo, los investigadores reconocen cada vez más que la IA, cuando se modela según el pensamiento humano, podría heredar sesgos humanos. Este problema se manifiesta en Amazon algoritmo de reclutamiento, que es famosa por discriminar a las mujeres, y el gobierno de EE. UU. Algoritmo COMPAS, que castiga desproporcionadamente a los negros. Una miríada de otros ejemplos hablan más del problema del sesgo en la IA.

En ambos casos, el problema comenzó con un conjunto de datos defectuoso. La mayoría de los empleados de Amazon eran hombres y muchas de las personas encarceladas eran negras. Aunque esas estadísticas son el resultado de sesgos culturales generalizados, el algoritmo no tenía forma de saberlo. En cambio, concluyó que debería replicar los datos que recibió, lo que exacerba los sesgos incrustados en los datos.

Las correcciones manuales pueden eliminar estos sesgos, pero conllevan riesgos. Si no se implementan correctamente, las correcciones bien intencionadas pueden empeorar algunos sesgos o incluso introducir otros nuevos. Sin embargo, los desarrollos recientes con respecto a los algoritmos de IA están haciendo que estos sesgos sean cada vez menos significativos. Los ingenieros deberían adoptar estos nuevos hallazgos. Los nuevos métodos limitan el riesgo de sesgo que contamina los resultados, ya sea del conjunto de datos o de los propios ingenieros. Además, las técnicas emergentes significan que los propios ingenieros tendrán que interferir menos con la IA, eliminando tareas más aburridas y repetitivas.

Cuando el conocimiento humano es el rey

Imagine el siguiente escenario: tiene un gran conjunto de datos de personas de diferentes ámbitos de la vida, rastreando si han tenido COVID o no. Las etiquetas COVID/no-COVID han sido ingresadas por humanos, ya sean médicos, enfermeras o farmacéuticos. Los proveedores de atención médica podrían estar interesados ​​​​en predecir si es probable que una nueva entrada ya haya tenido COVID.

El aprendizaje automático supervisado es útil para abordar este tipo de problema. Un algoritmo puede tomar todos los datos y comenzar a comprender cómo las diferentes variables, como la ocupación de una persona, los ingresos brutos, el estado familiar, la raza o el código postal, influyen en si contrajo la enfermedad o no. El algoritmo puede estimar qué tan probable es, por ejemplo, que una enfermera latina con tres niños de Nueva York ya haya tenido COVID. Como consecuencia, la fecha de su vacunación o las primas de su seguro pueden ajustarse para salvar más vidas mediante la asignación eficiente de recursos limitados.

Este proceso suena extremadamente útil a primera vista, pero hay trampas. Por ejemplo, un proveedor de atención médica con exceso de trabajo podría haber etiquetado incorrectamente los puntos de datos, lo que daría lugar a errores en el conjunto de datos y, en última instancia, a conclusiones poco fiables. Este tipo de errores es especialmente dañino en el mercado de trabajo y sistema penitenciario antes mencionado.

El aprendizaje automático supervisado parece una solución ideal para muchos problemas. Pero los humanos están demasiado involucrados en el proceso de creación de datos para hacer de esto una panacea. En un mundo que aún sufre desigualdades raciales y de género, los prejuicios humanos son generalizados y dañinos. La IA que depende de tanta participación humana siempre corre el riesgo de incorporar estos sesgos.

La incorporación de sesgos humanos en la IA supervisada no es el camino a seguir. Imagen por autor
Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver Política de cookies
Privacidad