¿Pueden los algoritmos violar las leyes de vivienda justa?


Cuando Carmen Arroyo le preguntó a la compañía gestora de su apartamento en 2016 si su hijo, Mikhail, podía mudarse con ella después de que un grave accidente lo dejara sin poder cuidar de sí mismo, su la solicitud fue denegada. Una verificación de antecedentes de investigación de inquilinos había descubierto un cargo menor (y considerando sus circunstancias actuales, irrelevante) de robo en tiendas del pasado de Mikhail.

El mes pasado, un juez de un tribunal de distrito federal en Connecticut acordó que la demanda de Arroyo contra la empresa de detección, CoreLogic, fuera a juicio en lo que los expertos creen que es el primer caso de este tipo, dirigido a una empresa de detección, en lugar de a un propietario por discriminación en la vivienda. . La decisión fue una victoria para los defensores de la vivienda justa que han argumentado que los servicios de detección de inquilinos son propensos a errores, resultan en discriminación racial y en gran medida no rinden cuentas. Pero incluso a medida que avanza el caso, la administración Trump busca dificultar la presentación de demandas similares en el futuro.

El Departamento de Vivienda y Desarrollo Urbano (HUD) finalizado un cambio este mes a las reglas que gobiernan cómo las personas presentan quejas por discriminación en la vivienda a la agencia y la regla está programada para ser ingresada al registro Federal Jueves. Eleva el listón para las personas que prueban que han sido discriminadas y les brinda a los proveedores de vivienda, ya sean propietarios, agentes inmobiliarios, desarrolladores, aseguradores o prestamistas, más formas de eliminar esos reclamos. Por ejemplo, dicen los críticos, el cambio de regla efectivamente inmuniza a las personas y las empresas de los cargos de discriminación si utilizan el «beneficio» como motivo para tomar decisiones, o si utilizan sistemas de terceros para elegir inquilinos, como fue el caso de Arroyo. rechazó la solicitud de su hijo.

El cambio, en forma de borrador, provocó una gran controversia el año pasado, inundando HUD con más de 45.000 comentarios públicos. Defensores de ambos políticas de vivienda justa y responsabilidad algorítmica expresaron su disensión. Incluso los prestamistas hipotecarios y los agentes inmobiliarios eventualmente se distanciaron de la propuesta de HUD, algunos de ellos invocando las semillas de este verano de un ajuste de cuentas nacional sobre el racismo sistemático en Estados Unidos.

Paul Compton, consejero general de HUD dijo a los reporteros el año pasado que el cambio de reglas «libera a las partes para innovar y asumir riesgos para satisfacer las necesidades de sus clientes, sin temor a que sus esfuerzos sean cuestionados a través de las estadísticas años después».

HUD dice que respondió a las preocupaciones públicas posteriores abandonando un lenguaje controvertido. Anteriormente, la regla propuesta decía que si un proveedor de vivienda usaba un «algoritmo» sobre el que no tenía control para ayudarlo a tomar una decisión, entonces no podía ser considerado responsable de la posible discriminación resultante. Ahora, en lugar de «algoritmo», la regla se refiere a «modelos predictivos», que los abogados y defensores de la vivienda dicen que es un término aún más amplio.

“Hubo un problema serio con lo que propusieron, y hay un problema aún mayor con lo que lo reemplazaron”, dijo Sara Pratt, una abogada privada que anteriormente se desempeñó como subsecretaria adjunta de la Oficina de Vivienda Justa de HUD en Obama. administración.

Los propietarios privados e incluso las autoridades de vivienda pública confían cada vez más en algoritmos para ayudarlos a seleccionar y calificar a los solicitantes. UN investigación conjunta por The Markup y The New York Times de este año encontraron que el 90 por ciento de los propietarios ahora confían en los informes de selección de inquilinos para tomar decisiones de alquiler; muchos de estos informes se generan automáticamente en segundos mediante algoritmos de coincidencia propensos a errores y discrepancias.

Pero si bien esos mismos propietarios están sujetos a leyes de vivienda justa que les prohíben discriminar por motivos de raza, edad o género de un cliente, no es una cuestión resuelta si los servicios de detección están sujetos a esas mismas leyes.

El caso de Arroyo podría proporcionar claridad, dijo el abogado de Arroyo, Salmun Kazerounian, del Connecticut Fair Housing Center.

“Las empresas de detección de inquilinos deben limpiar sus productos y analizar seriamente los resultados que generan sus productos para evitar exponerse a una responsabilidad potencialmente considerable”, dijo.

Arroyo y sus abogados argumentó que el algoritmo de detección que utilizó su arrendador, «CrimSAFE» de CoreLogic, excluye de manera desproporcionada a los solicitantes negros y latinos basándose en antecedentes penales, y que no les da a los solicitantes la oportunidad de explicar sus circunstancias atenuantes mediante evaluaciones individualizadas más detalladas. Argumentaron que CrimSAFE informó un registro «descalificante» sin proporcionar ningún detalle al respecto que hubiera permitido al administrador de la propiedad tomar su propia decisión. (Los informe de cribado simplemente afirma que se encontró una «acción judicial penal»).

CoreLogic argumentó en su defensa, entre otras cosas, que era no sujeto a la Ley de Vivienda Justa porque su herramienta no toma decisiones sobre la vivienda, los propietarios que utilizan la herramienta sí lo hacen.

El mes pasado, la jueza del distrito federal Vanessa Bryant derribado ese argumento. Ella señaló que CoreLogic no comercializar CrimSAFE como producto para la toma de decisiones, y que también les dio a los propietarios la opción de ocultar los detalles detrás de esas decisiones para simplificar el proceso. Ella también citó un carta de orientación de HUD de 2016, que les dijo a los proveedores de vivienda que pueden abrirse a quejas de discriminación en la vivienda si negaban a los solicitantes simplemente por arrestos anteriores (en lugar de condenas), ya que las minorías tienen una probabilidad desproporcionada de ser arrestadas en los EE. UU.

Los abogados de CoreLogic no respondieron a las solicitudes de comentarios.

La regla de HUD, por otro lado, se ocupa de si los propietarios que usan herramientas como CoreLogic para elegir a quién alquilar para así inmunizarse de las quejas de vivienda justa. La norma, que está programada para convertirse en ley en 30 días, podría enfrentar desafíos legales.

“Esta regla no está respaldada por la ley y es tan diferente del precedente judicial”, dijo Sara Pratt, la abogada que trabajó anteriormente para HUD.

En 2015, el La Corte Suprema de Estados Unidos falló que si una práctica comercial, como el uso de una herramienta de selección de inquilinos, genera resultados dispares para personas de diferentes razas, géneros o edades, entonces esa empresa puede estar sujeta a un reclamo de vivienda justa. Eso es independientemente de si el propietario o la herramienta pretendían discriminar.

Sin embargo, la nueva regla de HUD parece decir lo contrario.

«Esencialmente dice, si una política es predictiva, y generalmente no está sesgada en sus funciones predictivas, entonces no importa si tiene un resultado discriminatorio», dijo Morgan Williams, consejero general de National Fair Housing Alliance, con sede en en su lectura inicial del texto.

Cuando se le preguntó sobre las críticas de que el cambio de la regla perjudicaría a los inquilinos y prestatarios de minorías, el portavoz de HUD Matt Schuck respondió en un comunicado que el cambio de regla no entra en conflicto con la decisión de la Corte Suprema.

“Esta acción brinda claridad legal a los bancos y aseguradores, y esa claridad estimulará el crédito hipotecario y la vivienda asequible para las poblaciones minoritarias y de bajos ingresos”, escribió.

Publicado originalmente en themarkup.org

Este articulo fue publicado originalmente en The Markup por Lauren Kirchner y fue reeditado bajo el Creative Commons Reconocimiento-No comercial-Sin derivados licencia.



Fuente: TNW

Compartir:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para fines de afiliación y para mostrarte publicidad relacionada con tus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, aceptas el uso de estas tecnologías y el procesamiento de sus datos para estos propósitos. Ver Política de cookies
Privacidad