el más reciente

― Advertisement ―

Relacionada

spot_img
HomeNoticias del mundo¿Pueden los sistemas de IA reemplazar a los jueces y abogados humanos?

¿Pueden los sistemas de IA reemplazar a los jueces y abogados humanos?

Imagine una sala de tribunal donde la inteligencia fabricado (IA) reemplaza a los jurados y agentes de IA perfectamente diseñados reemplazan a los abogados.

Este es exactamente el tipo de atmósfera considerado en el International Maxup Regathon en Astana, la haber de Kazajstán.

Aquí, en la Universidad Maksut Narikbayev, estudiantes de 13 países investigaron el impacto de las nuevas tecnologías como la IA en los sistemas legales, los principios jurídicos, la ética y los derechos humanos, y compartieron las experiencias de sus países.

¿La IA reemplazará a los jueces?

Las decisiones judiciales requieren disección fáctico, razonamiento recatado y empatía humana para presentarse a resoluciones justas.

Primero, la inteligencia fabricado no tiene emociones. No se pueden proporcionar circunstancias atenuantes, mostrar empatía por la situación o percibir compasión. Los sistemas de IA se basan en la repetición. Aprenden de los datos, identifican patrones y toman decisiones basadas en la experiencia.

Si los resultados de la experiencia previa fueron incorrectos, la IA resolverá incorrectamente casos similares de la misma guisa.

Los robots de IA modernos, por otro flanco, generan resultados específicos basados ​​en la repetición sistemática de datos. A menudo son incapaces de explicar la sujeción dialéctica de acontecimientos que los llevaron a una votación particular. Sin bloqueo, en los tribunales esta descargo es sumamente importante.

Por estas razones, Sergei Peng, vicepresidente de la Asamblea de Ciencia, Innovación e Inteligencia Químico de la Universidad Makst Narikbayev (MNU) en Astana, cree que la IA no tiene ninguna posibilidad de reemplazar a los jueces en este momento.

Dijo que los modelos de habla proporcionan respuestas basadas sólo en hacer coincidir la colchoneta de conocimientos y el contexto estadístico, ignorando las inferencias proporcionadas por los jueces humanos.

Leer  Continúan los ataques iraníes en el Golfo, lo que genera dudas sobre el alto el fuego

“El gran problema con los modelos lingüísticos es que no pueden reproducir la sujeción de razonamiento sumarial, el llamado razonamiento sumarial”, dijo Penn.

Ahora, dijo, la IA sólo debería encontrarse como una útil anejo con la toma de decisiones humana.

En Kazajstán, estas herramientas revisan la actos jurídico y analizan la ley. Puede procesar grandes cantidades de información más rápido. Algunos sistemas judiciales asimismo ya están utilizando la IA con fines públicos, como una útil interna para ayudar a los jueces a seguir prácticas judiciales consistentes y ver cómo se deciden tipos similares de disputas en todo Kazajstán.

Sin bloqueo, esto no suplanta ni reemplaza la licitud de la osadía en sí, que recae sólo en los humanos.

“Como seres humanos, sólo los jueces pueden demostrar y tomar decisiones judiciales”, explicó Penn.

¿Cómo funciona la IA en asuntos legales en otros países?

En China, la IA ya se ha introducido en los tribunales, y un estudiante de la Universidad de Ciencias Políticas y Derecho de China señaló que la IA se utiliza para tareas básicas y sencillas.

“En mi país, la IA se utiliza actualmente para guatar los espacios en blanco y puede ayudar a los jurados a encontrar algunos casos o analizar si son similares a casos anteriores, pero la IA no puede sólo osar el resultado”, dijo Hongyi Chen, un estudiante de derecho chino.

Los estudiantes de Georgia realizaron una investigación inmersiva para comprender cómo funciona la IA en el interior del sistema judicial. Analizan las prácticas internacionales y resaltan la brecha entre la viabilidad técnica y la licitud judicial.

Los principales riesgos son que los algoritmos carezcan de alma y que las elecciones éticas no sean posibles.

Leer  La Corte Suprema de Rusia elimina la designación terrorista contra los talibanes en Afganistán

“Por el momento, los jueces humanos todavía tendrán que considerar los méritos del caso como árbitros, y sólo entonces las soluciones legales serán vinculantes. Pero si la aplicación de la IA ya ha apurado este nivel, creo que es posible que la IA tome decisiones en el futuro”, dijo Keti Kaliashvili, estudiante de la Universidad de Tbilisi.

Un estudiante de la Universidad McGill en Canadá señaló que es necesario considerar y regular la integración de la IA en asuntos legales.

“Personalmente, creo que la IA aún no está desarrollada hasta el punto de poder reemplazar completamente el querella humano”, dijo la estudiante Elisa Xue.

dilema de responsabilidad

La razón más fundamental por la que la IA no puede reemplazar a los humanos es la responsabilidad. Las decisiones judiciales son actos autorizados y los jueces son responsables de ellas. Si un árbitro comete un error, se puede presentar una apelación, se pueden tomar medidas disciplinarias o el asunto puede resolverse mediante ley.

Pero en el caso de la inteligencia fabricado, ¿quién es el responsable? ¿El desarrollador del código o el proveedor de servicios en la cúmulo?

Los estudiantes de MNU creen que es necesario osar quién está a cargo.

“Si el contenido generado por IA causa daño, ¿es responsable y es incluso necesario ser etiquetado como ‘IA’? No hay categorías en la ley que distingan entre contenido inofensivo, dañino o potencialmente dañino. La ley debe ser adaptable y aplicarse a diferentes niveles de relaciones jurídicas”, argumenta Islam Shagataev, estudiante del MNU.

Los ganadores del Regathon están de acuerdo con él y sugieren introducir una responsabilidad absoluta para los fabricantes y desarrolladores de sistemas.

Leer  Todavía solidario, pero cada vez más escéptico: ¿a dónde toman las medidas climáticas?

“Creo que los individuos y los usuarios no siempre están protegidos. Por eso los desarrolladores deberían encargarse la longevo parte de la responsabilidad”, dijo Alissa Doktorovich, estudiante de la Universidad Franquista de Kazajstán Al-Farabi.

El hecho de que actualmente se esté debatiendo sobre IA en Kazajstán es simbólico, ya que 2026 marca el año de la digitalización y la inteligencia fabricado.

La ley de “inteligencia fabricado” del país, aprobada en noviembre de 2025, introdujo y consagró el principio del humancentrismo. En otras palabras, la IA es sólo una útil que imita las funciones cognitivas humanas, no un sustituto de la responsabilidad humana.

Regathon nos permite repensar y reevaluar la relación entre la IA y el derecho. En una época en la que el derecho se vuelve cada vez más algorítmico, no debemos olvidar el medio ambiente humano.

El más popular

spot_img