Ciudad de México, 4 de octubre de 2023.-
Se realizó el conversatorio “La visión de la Inteligencia Artificial sobre la justicia”, en el cual participaron Pablo Pruneda Gross, José Ignacio Solar Cayón, Carlos Fernando Esponda Darlington y Ana María Ramos Serrano.
Numerosos países aplican un amplio abanico de herramientas de inteligencia artificial (IA) para automatizar tareas en la administración de justicia, interpretar hechos, incluso evaluar riesgos de reincidencia criminal, pero todas deben servir para ayudar a los jueces a tomar decisiones, nunca para suplantarlos.
Así lo advirtieron expertos en derecho e IA de diferentes naciones durante el conversatorio “La visión de la Inteligencia Artificial sobre la justicia”, organizado por el Instituto de Investigaciones Jurídicas (IIJ) de la UNAM, la Suprema Corte de Justicia de la Nación (SCJN), la Unidad General de Conocimiento Científico y Derechos Humanos, las Casas de la Cultura Jurídica, así como el Colegio de Secretarias y Secretarios de Estudio y Cuenta.
El coordinador de la línea de investigación institucional en Derecho e Inteligencia Artificial en el IIJ, Pablo Pruneda Gross, relató que en 2017 México fue líder a nivel internacional al plantear que la Asamblea General de la Organización de las Naciones Unidas discutiera este tipo de tecnología, la cual podría tener consecuencias favorables y/o desfavorables para la humanidad.
Nuestro país elaboró su estrategia nacional en la materia, incluso el entonces Consejo Nacional de Ciencia y Tecnología creó el Consejo en Inteligencia Artificial, entre otras acciones. Sin embargo, con el cambio de administración este tema se abandonó y de haber sido líder en la región, ahora está en el cuarto sitio del Índice Latinoamericano de Inteligencia Artificial 2023, superado por Uruguay, Chile y Brasil.
Como miembro de la Organización para la Cooperación y el Desarrollo Económicos, México firmó los principios sobre IA los cuales indican que esta debe estar al servicio de las personas y del planeta; que los sistemas diseñados respeten los derechos humanos, ser robustos, confiables y auditables; que haya transparencia y se garantice que las personas sepan cuándo interactúan con una entidad de este tipo y cuándo con seres humanos, detalló el también académico de la Facultad de Derecho de la UNAM.
Exclusivo del ser humano
El académico de la Universidad de Cantabria, España, José Ignacio Solar Cayón, expuso que en ese país, como en la Unión Europea, se trabajan normas y reglamentos para que la innovación tecnológica y dicha ciencia mejoren la eficiencia y fiabilidad de la administración de justicia. Sin embargo, en los instrumentos jurídicos también se señala que estas herramientas deben ser acompañadas de garantías.
En la propuesta del reglamento europeo estas tecnologías sólo pueden servir para ayudar a los impartidores de justicia en la toma de decisión judicial, actividad que queda exclusivamente reservada a los humanos.
Además, incluye una serie de condiciones como que los resultados del sistema sean siempre explicables, que se le informe al afectado que se han utilizado estos, cómo y con qué objetivo, apuntó en el conversatorio efectuado en el Aula Centenario del IIJ.
La mayoría de los países, agregó Solar Cayón, trabajan con la mencionada ciencia en tareas de digitalización de expedientes, automatización de procesos; otros más la utilizan en actividades procesales que no tienen carácter resolutorio como búsqueda, interpretación de hechos y la aplicación del derecho a sucesos concretos.
Al hacer uso de la palabra, el director de la División Académica de Ciencias de la Computación del Instituto Tecnológico Autónomo de México, Carlos Fernando Esponda Darlington, dijo que el algoritmo COMPAS no es transparente, pues no se sabe bien cómo funciona y con qué tipos de datos se entrenó, pero aun así se utiliza para determinar si se deja en libertad bajo fianza a sujetos o para determinar sus sentencias.
Indicó que también es prueba fehaciente de que los modelos basados en inteligencia artificial no están libres de errores ni de sesgos, que a pesar de ser realizados por máquinas carecen de objetividad y pueden reproducir los sesgos de las personas que los entrenan. Por ejemplo, otorga riesgo alto de reincidencia a los afroamericanos y bajo a las personas blancas.
“La inteligencia artificial llegó para quedarse. Lo que está por escribirse y en lo que debemos influir es qué modelo de justicia se busca, qué errores importan más, cuáles son nuestros derechos y qué modelos queremos que influyan o no sobre nosotros”, comentó.
Ana María Ramos Serrano, magistrada auxiliar de la Corte Constitucional de Colombia, convino en que la inteligencia artificial no es magia y tiene errores, razón por la cual siempre hay que tener presente que en los modelos en lo que se emplea hay tasas de acierto y error.
Destacó el sistema denominado PretorIA, utilizado en su país para gestionar acciones de tutela a fin de que la gente acceda a derechos, principalmente relacionados con la salud, que en un primer momento se le negaron y para lo cual no requiere de un abogado. Se creó como parte de un proceso de modernización de la Corte y ha crecido en más de mil 900 por ciento de 1995 a 2022.
La académica de la Universidad de Los Andes, Colombia, puntualizó que ayuda a gestionar el conocimiento, procesos, pero no toma decisiones. Tampoco identifica automáticamente las sentencias de los jueces de instancia que se apartaron de la jurisprudencia de la Corte Constitucional, ni realiza predicciones, no reemplaza el análisis individual de cada tutela, ni selecciona los casos por el enjuiciador. “No es un juez robot, ni proyecta decisiones o hace documentos”.