spot_img

¿Pueden los sistemas de IA reemplazar a los jueces y abogados humanos?

Imagine una sala de tribunal donde la inteligencia artificial (IA) reemplaza a los jurados y agentes de IA perfectamente diseñados reemplazan a los abogados.

Este es exactamente el tipo de escenario considerado en el International Maxup Regathon en Astana, la capital de Kazajstán.

Aquí, en la Universidad Maksut Narikbayev, estudiantes de 13 países investigaron el impacto de las nuevas tecnologías como la IA en los sistemas legales, los principios jurídicos, la ética y los derechos humanos, y compartieron las experiencias de sus países.

¿La IA reemplazará a los jueces?

Las decisiones judiciales requieren análisis fáctico, razonamiento moral y empatía humana para llegar a resoluciones justas.

Primero, la inteligencia artificial no tiene emociones. No se pueden proporcionar circunstancias atenuantes, mostrar empatía por la situación o sentir compasión. Los sistemas de IA se basan en la repetición. Aprenden de los datos, identifican patrones y toman decisiones basadas en la experiencia.

Si los resultados de la experiencia previa fueron incorrectos, la IA resolverá incorrectamente casos similares de la misma manera.

Los robots de IA modernos, por otro lado, generan resultados específicos basados ​​en la repetición sistemática de datos. A menudo son incapaces de explicar la cadena lógica de acontecimientos que los llevaron a una elección particular. Sin embargo, en los tribunales esta justificación es sumamente importante.

Por estas razones, Sergei Peng, vicepresidente de la Junta de Ciencia, Innovación e Inteligencia Artificial de la Universidad Makst Narikbayev (MNU) en Astana, cree que la IA no tiene ninguna posibilidad de reemplazar a los jueces en este momento.

Dijo que los modelos de lenguaje proporcionan respuestas basadas únicamente en hacer coincidir la base de conocimientos y el contexto estadístico, ignorando las inferencias proporcionadas por los jueces humanos.

LEER  La estrella de 'Sex and the City' Kristin Davis alienta una mayor empatía por Sudán

«El gran problema con los modelos lingüísticos es que no pueden reproducir la cadena de razonamiento jurídico, el llamado razonamiento jurídico», dijo Penn.

Ahora, dijo, la IA sólo debería verse como una herramienta junto con la toma de decisiones humana.

En Kazajstán, estas herramientas revisan la práctica judicial y analizan la ley. Puede procesar grandes cantidades de información más rápido. Algunos sistemas judiciales también ya están utilizando la IA con fines públicos, como una herramienta interna para ayudar a los jueces a seguir prácticas judiciales consistentes y ver cómo se deciden tipos similares de disputas en todo Kazajstán.

Sin embargo, esto no suplanta ni reemplaza la legitimidad de la decisión en sí, que recae únicamente en los humanos.

«Como seres humanos, sólo los jueces pueden justificar y tomar decisiones judiciales», explicó Penn.

¿Cómo funciona la IA en asuntos legales en otros países?

En China, la IA ya se ha introducido en los tribunales, y un estudiante de la Universidad de Ciencias Políticas y Derecho de China señaló que la IA se utiliza para tareas básicas y sencillas.

«En mi país, la IA se utiliza actualmente para llenar los espacios en blanco y puede ayudar a los jurados a encontrar algunos casos o analizar si son similares a casos anteriores, pero la IA no puede sólo decidir el resultado», dijo Hongyi Chen, un estudiante de derecho chino.

Los estudiantes de Georgia realizaron una investigación inmersiva para comprender cómo funciona la IA dentro del sistema legal. Analizan las prácticas internacionales y resaltan la brecha entre la viabilidad técnica y la legitimidad legal.

Los principales riesgos son que los algoritmos carezcan de alma y que las elecciones éticas no sean posibles.

LEER  Lituania y Azerbaiyán amplían sus vínculos comerciales centrándose en la energía, el comercio y la conectividad con la UE

«Por el momento, los jueces humanos todavía tendrán que considerar los méritos del caso como árbitros, y sólo entonces las soluciones legales serán vinculantes. Pero si la aplicación de la IA ya ha alcanzado este nivel, creo que es posible que la IA tome decisiones en el futuro», dijo Keti Kaliashvili, estudiante de la Universidad de Tbilisi.

Un estudiante de la Universidad McGill en Canadá señaló que es necesario considerar y regular la integración de la IA en asuntos legales.

«Personalmente, creo que la IA aún no está desarrollada hasta el punto de poder reemplazar completamente el juicio humano», dijo la estudiante Elisa Xue.

dilema de responsabilidad

La razón más fundamental por la que la IA no puede reemplazar a los humanos es la responsabilidad. Las decisiones judiciales son actos autorizados y los jueces son responsables de ellas. Si un juez comete un error, se puede presentar una apelación, se pueden tomar medidas disciplinarias o el asunto puede resolverse mediante ley.

Pero en el caso de la inteligencia artificial, ¿quién es el responsable? ¿El desarrollador del código o el proveedor de servicios en la nube?

Los estudiantes de MNU creen que es necesario decidir quién está a cargo.

«Si el contenido generado por IA causa daño, ¿es responsable y es incluso necesario ser etiquetado como ‘IA’? No hay categorías en la ley que distingan entre contenido inofensivo, dañino o potencialmente dañino. La ley debe ser adaptable y aplicarse a diferentes niveles de relaciones jurídicas», argumenta Islam Shagataev, estudiante del MNU.

Los ganadores del Regathon están de acuerdo con él y sugieren introducir una responsabilidad absoluta para los fabricantes y desarrolladores de sistemas.

LEER  Irán lanza un nuevo ataque de misiles contra Israel a medida que el conflicto entra al día 5 - en vivo

«Creo que los individuos y los usuarios no siempre están protegidos. Por eso los desarrolladores deberían asumir la mayor parte de la responsabilidad», dijo Alissa Doktorovich, estudiante de la Universidad Nacional de Kazajstán Al-Farabi.

El hecho de que actualmente se esté debatiendo sobre IA en Kazajstán es simbólico, ya que 2026 marca el año de la digitalización y la inteligencia artificial.

La ley de «inteligencia artificial» del país, aprobada en noviembre de 2025, introdujo y consagró el principio del humancentrismo. En otras palabras, la IA es sólo una herramienta que imita las funciones cognitivas humanas, no un sustituto de la responsabilidad humana.

Regathon nos permite repensar y reevaluar la relación entre la IA y el derecho. En una época en la que el derecho se vuelve cada vez más algorítmico, no debemos olvidar el elemento humano.

spot_img