Tenga cuidado con los algoritmos de distribución de vacunas sesgados



A medida que el gran desafío logístico de distribuir vacunas a más de 300 millones de estadounidenses se avecina, las instituciones están desarrollando furiosamente algoritmos para ayudar en la implementación. La promesa: esa tecnología nos permitirá asignar un número limitado de dosis de manera eficiente, a los grupos de mayor prioridad y sin errores humanos.

Los algoritmos de distribución de vacunas ya se han implementado en muchos lugares. En diciembre de 2020, investigadores en la Universidad de Stanford implementó un sistema que clasificaba por prioridad a las personas de su comunidad de más de 20.000 miembros. Alrededor de ese tiempo, el Departamento de Salud y Servicios Humanos de EE. UU. revelado se había asociado con la empresa de análisis de datos Palantir para aprovechar «Tiberius», un algoritmo para asignar dosis de manera eficiente en las áreas más afectadas. Y a nivel estatal, Arizona, Carolina del Sur, Tennesse y al menos cuatro otros están construyendo tecnologías patentadas para modular el despliegue de vacunas.

Pero todo esto podría salir terriblemente mal.

Imagínese un algoritmo para la distribución de vacunas que abastece insuficientemente a los condados de mayoría negra. O uno que ponga en desventaja a las pacientes mujeres en comparación con los hombres. O incluso otro que favorezca al uno por ciento superior.

Estas posibilidades parecen extravagantes, incluso distópicas. Pero podrían convertirse en realidad en los próximos meses.

En el corazón de estas aterradoras perspectivas está la cuestión del sesgo en los algoritmos. Los sistemas basados ​​en reglas, como el que impulsa el algoritmo de Stanford, pueden ofrecer resultados discriminatorios si los programadores no logran capturar todas las variables relevantes con minucioso detalle. Los sistemas de aprendizaje automático, como el que probablemente está detrás del algoritmo de Palantir, por otro lado, pueden parecer que escapan a este problema porque aprenden de los datos con una participación humana mínima. Pero en su caso, el sesgo surge cuando los datos que reciben no representan ciertos datos demográficos, como la clase, el género o la raza. Luego, los algoritmos replican el sesgo codificado en los datos.

Ya existen señales de advertencia de que los algoritmos de distribución de vacunas pueden asignar las dosis de manera desigual. Por ejemplo, el sistema de Stanford provocó una debacle cuando seleccionó solo a siete de los 1.300 médicos residentes para recibir dosis. Los investigadores dedujeron que este error se debió a que los programadores no se ajustaron a la exposición real de los residentes al virus.

Luego, la Universidad tuvo que emitir una disculpa generalizada y revisar sus planes de implementación; algunos viales incluso se distribuyeron manualmente. Además, varios estudios han expuesto sesgos en los sistemas de aprendizaje automático y podrían ser motivo para dudar de su eficacia.

En 2018, una prueba de la Unión Estadounidense de Libertades Civiles (ACLU) revelado que el sistema de aprendizaje automático de Amazon identificó erróneamente a 28 miembros del Congreso como delincuentes. Desproporcionadamente, muchos de los detectados falsamente eran personas de color: incluían a seis miembros del Caucus Negro del Congreso, entre ellos el difunto líder de los derechos civiles, el representante John Lewis. Existe el peligro de que los algoritmos implementados con la intención de distribuir vacunas de forma ética, irónicamente, las distribuyan de forma poco ética.

Este problema apunta a una tensión central. La tecnología es probablemente la mejor solución que tenemos en la actualidad para desafíos logísticos masivos, como la entrega de comestibles, comidas y paquetes. Pero simultáneamente, los algoritmos aún no están lo suficientemente avanzados para tomar decisiones éticas. Sus fallas podrían suponer un gran daño, especialmente para las poblaciones vulnerables. Entonces, ¿cómo podemos resolver esta tensión, no solo en el contexto de la distribución de vacunas, sino de manera más amplia?

Una forma es remediar la tecnología. Los sistemas basados ​​en reglas se pueden evaluar exhaustivamente antes de la implementación. Los sistemas de aprendizaje automático son más difíciles de corregir, pero la investigación sugiere que mejorar la calidad de los conjuntos de datos reduce el sesgo en los resultados. Incluso entonces, la creación de conjuntos de datos perfectamente imparciales podría ser un poco como una curita para una enfermedad terminal. Estos conjuntos suelen contener millones o incluso miles de millones de muestras.

Los seres humanos tendrían que clasificarlos todos y categorizarlos adecuadamente para que este enfoque tenga éxito, algo que es impráctico e imposible de escalar. La limitación central, como ha señalado la científica informática pionera Judea Pearl puntiagudo hacia fuera, persiste: que el aprendizaje automático es de naturaleza estadística y funciona con una gran cantidad de datos.

Pero esta limitación también apunta a vías de mejora. El psicólogo Gary Marcus ha propuesto uno: un «híbrido» Acercarse, que combina elementos estadísticos con los del razonamiento deductivo. Sobre esta idea, los programadores enseñarían explícitamente algoritmos sobre conceptos como «raza» y «género» y codificarían reglas que impidan cualquier discrepancia en los resultados basados ​​en esas categorías. Luego, los algoritmos aprenderían de una gran cantidad de datos relevantes. De esta manera, los enfoques híbridos serían lo mejor de ambos mundos. Capturarían los beneficios de las metodologías estadísticas al tiempo que proporcionarían una solución clara para problemas como el sesgo.

Una tercera solución a la tensión es designar dominios donde los enfoques algorítmicos deberían ser por ahora experimentales y no decisivos. Quizás sea aceptable aprovechar los algoritmos para tareas bien definidas donde el riesgo de fallas es bajo (como el funcionamiento de redes de transporte, plataformas logísticas y sistemas de distribución de energía), pero aún no aquellos que involucran dilemas éticos complicados, como la distribución de vacunas.

Este punto de vista aún deja abierta la posibilidad de que algún sistema más avanzado en el futuro pueda encargarse de tal tarea mientras nos protege de daños potenciales inmediatos.

A medida que la tecnología se vuelve cada vez más potente y omnipresente, nos resultará útil estar en guardia ante cualquier daño que puedan causar los algoritmos. Necesitaremos curas adecuadas en su lugar o, eventualmente, dejaremos que las máquinas las asignen.

Publicado el 18 de marzo de 2021-21: 18 UTC





Fuente: TNW

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con tus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, aceptas el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver Política de cookies
Privacidad