Proyecto de ley de responsabilidad algorítmica

Proyecto de ley de EE.UU sobre responsabilidad algorítmica

En Estado Unidos recientemente se ha presentado un proyecto de ley Ley de responsabilidad algorítmica (Algorithmic Accountability Act).  Esta norma obligará a las empresas a que evalúen el uso que hacen de los sistemas automatizados de toma de decisiones y sobre los sistemas de decisión automatizados de alto riesgo, para determinar su impacto en la precisión, la imparcialidad, los sesgos, la discriminación, la privacidad y la seguridad.

El proyecto de ley está respaldado por grupos de derechos tecnológicos y civiles, incluyendo Data for Black Lives, el Center on Privacy and Technology at Georgetown Law y la National Hispanic Media Coalition.

Según sus promotores, el proyecto de ley es consecuencia de las numerosas noticias conocidasen los últimos tiempos sobre algoritmos informáticos que provocan resultados sesgados y discriminatorios. Por ejemplo, a principios de abril, el Departamento de Vivienda y Desarrollo Urbano de los EEUU (Department of Housing and Urban Development) acusó a Facebook de violar la Ley de Vivienda Equitativa (Fair Housing Act), al permitir a los anunciantes discriminar por motivos de raza, religión y discapacidad de los interesados. Igualmente, el año pasado, Reuters informó de que Amazon había cerrado una herramienta de reclutamiento automatizado que estaba sesgada en contra de las mujeres.

En este sentido, el senador Wyden indicó que los algoritmos están cada vez con mayor frecuencia involucrados en las decisiones más relevantes para la vida de las personas como comprar una casa, conseguir un trabajo o incluso ir a la cárcel. Pero con demasiada frecuencia estos algoritmos dependen de suposiciones o datos sesgados que en realidad pueden reforzar la discriminación contra las mujeres y las personas de color.

Alcances del proyecto de ley:

• Que la Comisión Federal de Comercio (Federal Trade Commision, FTC) elabore una normativa para exigir a las empresas bajo su jurisdicción que realicen evaluaciones de impacto sobre los sistemas de decisión automatizados altamente sensibles. Este requisito se aplicaría tanto a los sistemas nuevos como a los ya existentes.

• Exigir a las empresas que evalúen el uso que hacen de los sistemas automatizados de toma de decisiones, incluidos los datos utilizados para el entrenamiento del sistema, para determinar su impacto en la precisión, la imparcialidad, los sesgos, la discriminación, la privacidad y la seguridad.

• Exigir a las empresas que evalúen cómo sus sistemas de información protegen la privacidad y seguridad de la información personal de los consumidores.

• Exigir a las empresas que corrijan cualquier problema que descubran durante las evaluaciones de impacto

 

 

Fuente: Diario La Ley

Abrir Chat
1
Necesitas ayuda?
Hola, necesitas que hablemos?