ANA 095

No es la inteligencia artificial lo que preocupa, sino cómo reproduce lo que ya existe.
Errores, sesgos, silencios.

En ese punto de tensión aparece OlivIA: una herramienta que no viene a reemplazar decisiones, sino a incomodarlas.

Ana Correa —abogada, comunicadora y activista por los derechos de las mujeres, con formación en relaciones internacionales y comunicación— no habla de tecnología en abstracto: habla de poder, de quién produce sentido y de qué pasa cuando las mujeres no están en ese proceso.

En esta conversación, el punto no es lo que la inteligencia artificial puede hacer, sino lo que decide no ver.

Por Lenny Cáceres*

¿Cómo surge OlivIA y qué problema concreto buscaba resolver dentro del acceso a la justicia?
OlivIA nace de una preocupación concreta: al usar ChatGPT, detecté que los errores se intensificaban en temas de género. La herramienta desconocía autoras mujeres en distintas disciplinas, reproducía estereotipos de hace décadas y omitía sistemáticamente las experiencias de las mujeres. A partir de esa inquietud, hice la especialización en Inteligencia Artificial y Derecho en la Universidad de Buenos Aires, junto con otros cursos, para entender mejor el origen de estos sesgos y cómo mitigarlos. Como trabajo final del posgrado, y con la guía de Mariana Sánchez Caparrós, diseñé esta herramienta dentro del ecosistema de ChatGPT, con el objetivo de cuestionar las respuestas iniciales de la IA generativa y reducir sus errores. Con las limitaciones actuales, OlivIA ya está ayudando a disminuirlos.

Ana Correa: Tecnología, poder y sesgos.
Ana Correa: Tecnología, poder y sesgos.

¿Qué cuidados tuvieron para que OlivIA no reproduzca los sesgos que ya existen en el sistema judicial?
OlivIA fue diseñada incorporando herramientas del feminismo jurídico, en particular la “pregunta de la mujer” desarrollada por Katharine T. Bartlett. Esta consiste, en términos simples, en preguntarse: ¿dónde están las mujeres en este análisis?, ¿sus experiencias están siendo consideradas o ignoradas? Aunque parece una pregunta básica, cuando Bartlett la formuló en 1989 en Feminist Legal Methods, permitió repensar el derecho. Hoy, muchas plataformas digitales no integran esta perspectiva. OlivIA, en cambio, la incorpora como parte de su lógica. Eso genera diferencias concretas: me pasó de buscar información sobre casos de violencia contra las mujeres que han sido públicos y se pueden encontrar en la web, en los que ChatGPT puede omite información relevante ¡le echa la culpa a la víctima y desconoce la agresión!, mientras que OlivIA logra recuperar esa información; y en tareas como la generación de imágenes, cuando varias mujeres le pidieron a Chat GPT que las representara con una ilustración, las hacía varones y con características inventadas. OlivIA, en cambio las hacía como mujeres y sus gustos y características eran mucho más acorde a la realidad. Es muy llamativo realmente porque ChatGPT hace rato que sabe de estos errores, e incluso permite que OlivIA esté instalada dentro de su ecosistema para mitigarlos, se ve que mucho no le importa este nivel de error.

“No es la herramienta la que garantiza el acceso a la justicia, sino cómo se la usa.”

¿Qué limitaciones del sistema judicial intentaron abordar con esta herramienta?
OlivIA surge como una iniciativa individual frente a una preocupación más amplia: la forma en que hoy usamos la inteligencia artificial, de manera masiva, muchas veces sin preparación ni advertencias. No fue pensada exclusivamente para el sistema judicial, pero puede servir para detectar la falta de perspectiva de género en sentencias, escritos y resoluciones. En su diseño incorporé jurisprudencia nacional, del sistema interamericano y de otras regiones, además de estándares internacionales de derechos humanos. Para la construcción de argumentación jurídica, recomiendo también explorar Arvage, la herramienta desarrollada por la jueza Rita Custet, del Tribunal de Impugnación Penal de Río Negro. Y para resguardar datos personales en documentos judiciales, es clave usar antes herramientas como AyMuraY, de Data Género, ya que ChatGPT no ofrece garantías suficientes en ese aspecto.

Ana Correa: Tecnología, poder y sesgos.
Ana Correa: Tecnología, poder y sesgos.


¿Puede una herramienta tecnológica mejorar el acceso a la justicia o eso sigue dependiendo de decisiones políticas e institucionales?

Una herramienta tecnológica puede mejorar el acceso a la justicia solo si es utilizada por personas y en marcos que tengan ese objetivo como prioridad. No es la herramienta en sí la que lo garantiza, sino su uso. Mal utilizada, incluso puede empeorarlo. En cualquier caso judicial, lo central sigue siendo comprender la trayectoria de vida de las personas involucradas, algo que la IA generativa hoy no puede reemplazar. Por eso, su mejor rol es el de asistente. OlivIA está pensada para hacer preguntas, advertir omisiones y ayudar a ampliar la mirada. Si se usa como apoyo, puede ser útil; si se usa para evitar procesos fundamentales, puede generar más problemas.

¿Qué riesgos ves en que decisiones judiciales empiecen a apoyarse en datos o sistemas automatizados?
El principal riesgo es perder de vista lo esencial: que detrás de cada decisión judicial hay vidas concretas. La idea de “ganar tiempo” debería revisarse: ¿para qué? Estas herramientas tienen que mejorar el servicio de justicia, no deteriorarlo. Son asistentes que pueden ayudar a acelerar procesos y a hacer mejores preguntas, pero nunca deben reemplazar la decisión humana. El margen de error puede ser grave. Además, hay una preocupación clave sobre la protección de datos personales: no está claro qué hacen las plataformas con la información que reciben.

¿Dónde ves el límite entre usar tecnología para ampliar derechos y usarla para administrar desigualdades?
El límite aparece cuando miramos la brecha digital y de conocimiento. Hoy, la tecnología tiende a ampliar desigualdades porque no está al alcance de todos, y en contextos de crisis esto se profundiza. También hay un problema de representación: hay mujeres con aportes fundamentales en inteligencia artificial, pero muchas veces quedan fuera de los espacios de decisión. Esto no solo es injusto, también implica perder perspectivas clave. Además, se da una apropiación del trabajo de mujeres —muchas veces mal remunerado o invisibilizado— sin mantener la perspectiva de derechos. Es como tomar herramientas pensadas para la equidad y usarlas al revés. Frente a esto, muchas mujeres en el campo siguen señalando estas tensiones, aunque no siempre es fácil que sean escuchadas.

La discusión no es tecnológica, es política.

Y, como toda disputa de sentido, también se juega en quiénes quedan dentro —y quiénes siguen siendo omitidas.

(*) Periodista feminista abolicionista, directora/editora de Diario Digital Femenino. Titular de la web de Asesoramiento y Capacitación https://lennycaceres.com.ar/
Autora del libro La transversalidad del género: espacios y disputas.(Ed. Sudestada)

Colabora con Diario Digital Femenino
$3.000 por mes (sostenés a largo plazo) AQUÍ
Una vez al año, vos decidís el monto (un gesto, una ayuda concreta) AQUÍ
Por única vez, el monto que decidas. Alias: Lenny.Caceres

 

Seguinos en Instagram. Diario Digital Femenino: @diariodigitalfemenino_
Lenny Cáceres: @lennycaceres69
Facebook: Diario Digital Femenino
TikTok; diariodigitalfemenino

Dejar un Comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *