La IA de Amazon está obligando a los repartidores a tomar decisiones peligrosas



Los conductores de entrega de Amazon estuvieron involucrados en al menos 60 accidentes que resultaron en 13 muertes entre 2015 y 2019. Y eso fue antes de que los conductores se vieran obligados a tomar decisiones peligrosas por las cámaras de inteligencia artificial en el vehículo y los algoritmos de mierda.

En la delantera: La placa base se ejecutó un artículo horrible (excelente informe, tema espantoso) sobre el sistema de vigilancia de conductores de terceros de Amazon.

El problema es que miles de conductores en los EE. UU. Están siendo monitoreados por sistemas de inteligencia artificial que vigilan activamente a los conductores y sus alrededores en busca de «eventos» que provoquen comentarios negativos para el conductor.

Estoy teniendo cuidado con la forma en que digo esto porque Amazon quiere que los periodistas como yo digan que estos sistemas están diseñados para hacer que las entregas sean más seguras.

Pero Amazon claramente instituyó estos sistemas para reducir la responsabilidad y pagar menos a los socios de servicios de entrega (DSP). Y no parece haber ninguna evidencia de que tales sistemas hagan que las entregas sean más seguras.

En realidad, parece que distraen a los conductores y les hacen tomar decisiones erráticas y peligrosas.

Fondo:La IA es realmente estúpida. No puedo expresar lo equivocado que está el público en general sobre lo que «pueden hacer con la IA en estos días».

Pero eso no impide que Amazon engañe a las personas y a sus socios sobre la capacidad de los sistemas.

Según el artículo de la placa base mencionado anteriormente:

«Las cámaras Netradyne que Amazon instaló en nuestras camionetas no han sido más que una pesadilla», dijo a Motherboard un ex conductor de entrega de Amazon en Mobile, Alabama. “Observan cada movimiento que hacemos. Me han «criticado» por seguir demasiado de cerca cuando alguien me interrumpe. Si miro por los espejos para asegurarme de que estoy seguro para cambiar de carril, me llama la atención la distracción porque mi cara está vuelta para mirarme en el espejo. Personalmente, no me sentí más seguro con una cámara observando cada uno de mis movimientos «.

Es fácil perderse en la moralidad individual que rodea a este tema, pero el panorama general nos afecta a todos. Después de todo, no existen estudios a largo plazo sobre los efectos de la vigilancia constante en los conductores. Incluso si imaginamos un mundo en el que la IA no cometa errores, hay consideraciones más allá de conduciendo con seguridad preocuparse.

¿Qué efectos tendrán estos sistemas en los niveles de estrés del conductor? Numerosos empleados entrevistados por Motherboard expresaron ansiedad por el constante «dinging» del sistema.

Y este sistema está lejos de ser perfecto. Los conductores informan que los golpean por mirar sus espejos laterales, algo que es necesario para una conducción segura. Esto significa que los conductores tienen que elegir entre conducir de forma segura y ganar su sueldo y bonificaciones completos. Esa es una posición difícil en la que colocar a la gente.

¿Y los beneficios de seguridad que promociona Amazon? No hay evidencia de que este sistema haga que los conductores sean más seguros.

Aquí hay más de la pieza Motherboard:

Desde que Amazon instaló cámaras Netradyne en sus camionetas … [an Amazon spokesperson] afirma que los accidentes habían disminuido en un 48 por ciento y las infracciones de las señales de alto y las señales habían disminuido en un 77 por ciento. Conducir sin cinturón de seguridad disminuyó en un 60 por ciento, la distancia de seguimiento disminuyó en un 50 por ciento y la conducción distraída disminuyó en un 75 por ciento.

Esas estadísticas suenan a hechos, pero no tienen mucho sentido. ¿Cómo pueden saber exactamente qué porcentaje de conductores no usaban correctamente sus cinturones de seguridad antes de que se instalaran los sistemas de monitoreo? ¿Cómo sabe Amazon qué tan de cerca estaban los conductores siguiendo a otros vehículos antes de que se instalaran cámaras y sensores externos?

Y esas no son las únicas preguntas que deberíamos hacernos. Porque Amazon no tiene ni idea de lo que sucederá a largo plazo, ya que cada vez más personas conducen distraídas por una IA defectuosa.

Sin embargo, concederé una cosa a las estadísticas aparentemente inventadas de Amazon. Es decir, creo que las violaciones del cinturón de seguridad se han reducido significativamente para los conductores desde el inicio del monitoreo de IA. Eso se debe a que se incentivó a los conductores a no usar sus cinturones de seguridad antes de ser vigilados. Ahora tienen que elegir entre ser golpeados, lo que les costará dinero, o no cumplir con las cuotas, que también les costará dinero.

Según el artículo de la placa base:

Los conductores dicen que con sus elevadas cuotas de entrega y el hecho de que a menudo entran y salen del camión, abrocharse y desabrocharse el cinturón de seguridad docenas de veces en un solo vecindario puede ralentizar significativamente el proceso de entrega.

Pero hay áreas de preocupación aún mayores. El sistema marca «eventos», muchos de los cuales los conductores no conocen, y los envía a los humanos para su evaluación. Supuestamente, cada evento es verificado por una persona.

Puede parecer justo, pero está lejos de serlo.

Más adentro: Dejemos de lado por un momento que las personas que realizan la verificación también están incentivadas para cumplir con las cuotas y, ciertamente, tienen sus propios prejuicios.

La lógica dicta que si un grupo de personas genera más eventos que otro grupo de personas, debería ser demostrable que el primer grupo se involucró en conductas menos seguras que el segundo. Pero no es así como funciona la IA. La IA está sesgada al igual que los humanos.

Cuando se supone que una IA detecta «somnolencia» o «conducción distraída», por ejemplo, estamos obteniendo la interpretación de una computadora de una experiencia humana.

Sabemos con certeza que la IA lucha con las caras que no son blancas. Por lo tanto, está casi garantizado que los sistemas que utilizan los DSP de Amazon para monitorear a los conductores obtienen puntajes diferentes al evaluar grupos minoritarios frente a rostros masculinos blancos.

Esto significa que podrías recibir un «golpe» por parecer somnoliento solo porque eres negro o si tu cara no se ve lo suficientemente típica para la IA. Significa que es probable que los hombres blancos generen menos golpes que otros conductores.

Y, sin importar cómo se vea, significa que puede perder dinero por verse interrumpido en el tráfico, revisar sus espejos laterales o cualquier otra cosa que un algoritmo pueda fallar.

Toma rápida: Olvídese de los problemas morales de la vigilancia. Veamos esto de manera pragmática. Amazon considera que sus laboratorios de inteligencia artificial se encuentran entre los más avanzados del mundo. Vendió sistemas de reconocimiento facial a miles de agencias policiales. No necesita subcontratar este tipo de cosas.

Pero lo hace. No porque Netradyne fabrique mejores cámaras o mejor inteligencia artificial que Amazon, sino porque Amazon no quiere responsabilidad por nada de eso. Es el equipo de otra persona, el problema de otra persona, y todo lo que Amazon requiere es que se sigan sus métricas y se cumplan sus cuotas.

Amazon está llevando a cabo experimentos psicológicos a gran escala en el público en general utilizando IA, pero ni siquiera lo está haciendo en nombre de la ciencia. Solo está tratando de sacar algunos centavos más de cada entrega.

No sabemos cuáles serán los efectos de que una máquina le diga a miles y miles de conductores que se comporten de manera insegura en las vías públicas todos los días.

Amazon cree que los hará más eficientes. Pero también lo harían las metanfetaminas y los camiones monstruo. Tiene que haber una línea en alguna parte y el uso de algoritmos para obligar a las personas a tomar decisiones inseguras parece un buen lugar para ello.

Netradyne y Amazon no necesariamente hacen que las carreteras sean más seguras ni facilitan la vida de sus conductores. Están optimizando métricas arbitrarias que, en última instancia, solo miden una cosa: el crecimiento inmediato de la empresa sin importar el costo en vidas humanas y medios de subsistencia.

Amazon está dispuesta y es capaz de realizar estos experimentos porque ve el bienestar de los empleados a través de la misma lente financiera que los reguladores estadounidenses ven la seguridad pública.



Fuente: TNW

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver Política de cookies
Privacidad