San Francisco dice que usará inteligencia artificial para reducir el prejuicio en los tribunales

San Francisco está anunciando una "herramienta de mitigación de prejuicios" que utiliza técnicas básicas de inteligencia artificial para redactar automáticamente informaciones de informes policiales que pueden identificar la raza de un sospechoso. Él fue creado para ser una manera de impedir que los promotores sean influenciados por prejuicios raciales al decidir si alguien es acusado de un crimen. La herramienta estará lista y está programada para ser implementada en 1º de julio.

La herramienta no sólo descarta descripciones de raza, pero también descriptores como el color de los ojos y el color de los cabellos, de acuerdo con la oficina del fiscal distrital de SF. Los nombres de personas, lugares y barrios que pueden, consciente o inconscientemente, alertar a un promotor de que un sospechoso es de cierto nivel racial también son removidos.

"Cuando usted mira a las personas encarceladas en este país, ellas serán desproporcionadamente hombres y mujeres de color", dijo George Gascón, promotor del distrito de SF, en una rueda de prensa hoy. Él subrayó que ver un nombre como Hernández puede decir inmediatamente a los promotores que una persona es descendiente de latinos, potencialmente influenciando el resultado.

Un portavoz de DA informa que la herramienta también quitará detalles sobre los policías, incluyendo el número del ID, si el fiscal los conoce y puede ser inclinado a favor o en contra del informe de ellos.

Actualmente, San Francisco utiliza un proceso manual mucho más limitado para tratar de evitar que los fiscales vean estas cosas - la ciudad sólo quita las dos primeras páginas del documento, pero los promotores logran ver todo el resto del informe. "Tuvimos que crear aprendizaje de máquina en torno a ese proceso", dijo Gascón. La oficina del fiscal público lo está llamando "primero en la nación", lo que significa que no es consciente de ninguna agencia que utilice AI para hacer esto antes.

La herramienta fue construida por Alex Chohlas-Wood y el equipo del Laboratorio de Políticas Computacionales de Stanford, que también ayudó a desarrollar el sistema Patternizr de la NYPD para buscar automáticamente los archivos de casos para encontrar patrones de crimen. Wood dice que la nueva herramienta es básicamente sólo una aplicación ligera que utiliza varios algoritmos para redactar automáticamente un informe policial, reconociendo palabras en el informe utilizando la visión de la computación y reemplazándolas por versiones genéricas, como local, policial # 1 y así sucesivamente.

Wood dice que la herramienta está en las etapas finales, fue desarrollada sin ningún costo para la SF y tendrá origen abierto en cuestión de semanas para que otros la adopten. Él dice que utiliza una técnica específica llamada reconocimiento de entidad denominada, entre otros componentes, para identificar lo que redactar.

Sin ver el sistema trabajando en informes policiales reales - por motivos legales, la oficina del fiscal dijo que tenía que ver un modelo - no está claro cómo podría funcionar. Cuando un periodista preguntó si él redacta otras descripciones, como vestirse de piernas cruzadas, Gascón podría apenas decir que hoy es un punto de partida y que la herramienta evolucionará.

También se utiliza sólo en la primera decisión de cobro en una determinada prisión. Las decisiones finales de los promotores se basarán en el informe completo no editado. Y si la decisión de cobro inicial se basa en evidencias de vídeo, esto puede obviamente revelar la raza de un sospechoso también.

La decisión de acusar a las personas con un crimen es sólo un, relativamente menor lugar donde la polarización de la policía surge. Cuando los policías toman la decisión de arrestar a un sospechoso - o peor - esto sucede mucho antes de ese proceso. Y un periodista en la audiencia apuntó que un estudio de 2017 descubrió que "las personas de color reciben acusaciones más serias en la fase inicial de la reserva", lo que puede suceder muchas horas antes de que el gabinete del fiscal público intervenga con su decisión.

Es interesante ver si la nueva herramienta ayuda. En el momento, la IA es más conocida por presentar alternativas que eliminarlas, particularmente una forma controvertida conocida como "policiamiento predictivo".

fuente: The Verge

Deja un comentario

Su dirección de correo electrónico no será publicada. Los campos necesarios están marcados con *