Diseño sin título (7)

Género, tecnología y desigualdades que no se corrigen solas

La inteligencia artificial no es neutral, tampoco lo es la justicia. Cuando ambas se cruzan los sesgos no desaparecen, se organizan, se sistematizan, se vuelven más difíciles de ver y, por eso mismo, más difíciles de discutir.

Por Lenny Cáceres*

La promesa de objetividad tecnológica convive con algo que el sistema judicial arrastra desde hace décadas: desigual en el acceso, desigual en la escucha, desigual en la credibilidad.

No todas las personas llegan a la justicia, no todas son tratadas del mismo modo, no todas son creídas y eso no es un error. Es una estructura.

La inteligencia artificial aprende de datos y los datos no son neutrales. Son registros de lo que ya pasó, de lo que el sistema vio, de lo que decidió registrar y también de lo que dejó afuera.

Si durante años determinadas denuncias no fueron tomadas, si ciertas violencias fueron minimizadas, si algunas voces fueron sistemáticamente desacreditadas, eso también forma parte de los datos y, por lo tanto, de lo que la inteligencia artificial aprende. Lo que antes era prejuicio puede volverse resultado algorítmico.

Cuando estos sistemas se incorporan en ámbitos judiciales ya sea para clasificar casos, evaluar riesgos, priorizar intervenciones o analizar información; no parten de cero. Parten de un sistema que ya es desigual y ahí aparece el problema de fondo: la tecnología no corrige esas desigualdades, las puede consolidar y, en algunos casos, legitimar bajo una apariencia técnica.

Cuando la inteligencia artificial entra a la justicia
Cuando la inteligencia artificial entra a la justicia

El acceso a la justicia nunca fue igual para todas las personas. No lo es en términos territoriales, no lo es en términos económicos, no lo es en términos simbólicos. La llamada “ruta crítica” que muchas mujeres deben atravesar para poder denunciar no es lineal ni está garantizada. Implica saber a dónde ir, tener recursos para sostener ese recorrido y, muchas veces, no hacerlo en soledad.

No es lo mismo presentarse sola que acompañada. No es lo mismo contar con redes institucionales que no tenerlas, no es lo mismo llegar a una defensoría que pueda responder en tiempo real ante una urgencia, las demoras también son una forma de desigualdad y el desconocimiento sobre las herramientas disponibles no es un problema individual; es una falla estructural del propio sistema.

Todo ese recorrido desigual no solo produce experiencias, también produce registros y esos registros son los que luego alimentan los sistemas automatizados. Incluso cuando se logra acceder al sistema las desigualdades no desaparecen: se transforman.

En los casos de violencia de género y violencia laboral esto se vuelve especialmente visible. Denuncias que no avanzan, relatos que son relativizados, pruebas que se exigen de manera desigual y procesos que se dilatan. No todas las palabras tienen el mismo valor y eso también construye datos. La pregunta entonces no es solo tecnológica, es profundamente política.

En este escenario no alcanza con advertir los riesgos también es necesario mirar dónde se están construyendo otras respuestas. El desarrollo de herramientas como Olivia un chat orientado a legislación con perspectiva de género creado por la abogada Ana Correa, busca acercar información jurídica en un lenguaje accesible y acompañar a quienes necesitan orientación. No se trata de una tecnología neutral sino de una herramienta pensada desde las desigualdades y no a pesar de ellas.

Sin embargo, incluso estas iniciativas plantean una tensión que no puede eludirse. Si una herramienta tecnológica facilita el acceso a la información, traduce el lenguaje jurídico y acompaña a quienes buscan orientación. La pregunta sigue siendo la misma ¿por qué ese acceso no está garantizado por el propio sistema?

La discusión sobre inteligencia artificial no es técnica, es una discusión sobre poder, sobre quién diseña, sobre qué datos se consideran válidos, sobre qué experiencias quedan registradas y cuáles siguen siendo invisibles. No alcanza con preguntarnos qué puede hacer la tecnología. Hay que preguntarse para quién funciona y a favor de quién.

Cuando la inteligencia artificial entra en sistemas que ya son desiguales no necesariamente los transforma, puede hacer algo más inquietante. Puede hacerlos más eficientes en reproducir esas mismas desigualdades.

(*) Periodista feminista abolicionista, directora/editora de Diario Digital Femenino. Titular de la web de Asesoramiento y Capacitación https://lennycaceres.com.ar/
Autora del libro La transversalidad del género: espacios y disputas.(Ed. Sudestada)

Colabora con Diario Digital Femenino
$3.000 por mes (sostenés a largo plazo) AQUÍ
Una vez al año, vos decidís el monto (un gesto, una ayuda concreta) AQUÍ
Por única vez, el monto que decidas. Alias: Lenny.Caceres

 

Seguinos en Instagram. Diario Digital Femenino: @diariodigitalfemenino_
Lenny Cáceres: @lennycaceres69
Facebook: Diario Digital Femenino
TikTok; diariodigitalfemenino

Dejar un Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *