image

La influencia de la inteligencia artificial en la administración de justicia: una transformación en el sistema judicial

He influence or artificial intelligence on the administration of justice: a transformacion in the judicial system

A influência da inteligência artificial na administração da justiça: uma transformação no sistema judicial


image


image

Christian Rodríguez Barroso1image, Lizbeth Martínez Cisneros2

1 Juez de los Juzgados y Tribunales del Ecuador. Correo: crisrael1.1@hotmail.com

2 Abogada. Facultad de Jurisprudencia y Ciencias Sociales. Universidad Técnica de Ambato. Correo: lm29012@gmail.com


Fecha de recepción: 7 de octubre de 2024 Fecha de aceptación: 15 de noviembre de 2024


RESUMEN

INTRODUCCIÓN. El uso de la inteligencia artificial (IA) en los sistemas judiciales es una realidad cada vez más cercana, debido al impulso e incremento en la capacidad de procesamiento de datos y el perfeccionamiento de algoritmos más sofisticados. Estas tecnologías tienen el potencial de optimizar la administración de justicia y mejorar la gestión judicial. Sin embargo, la integración de IA en el sistema procesal presenta desafíos significativos, como determinar la suficiencia e idoneidad que tiene con el marco normativo vigente ecuatoriano. MÉTODO. El método empleado en la investigación se basa en un enfoque cualitativo, empleando una revisión exhaustiva de documentación relevantes, jurisprudencia y normativa nacional e internacional. OBJETIVO. Con base en lo expuesto se determina si el reconocimiento de la Inteligencia Artificial no vulnera derechos fundamentales y mejoraría la eficiencia y precisión en diversas tareas legales. DISCUSIÓN Y CONCLUSIONES. Finalmente se concluye que, el uso de IA tiene el potencial de revolucionar el sistema judicial ecuatoriano, mejorando la eficacia y eficiencia en la administración de justicia, siempre y cuando se garantice su uso ético y regulado.


Palabras claves: Inteligencia Artificial, Justicia, Prueba, Seguridad Jurídica, Debido Proceso.


ABSTRACT

INTRODUCTION. The use of artificial intelligence (AI) in judicial systems is an ever-closer reality, due to the boost and increase in data processing capacity and the improvement of more sophisticated algorithms. These technologies have the potential to optimize the administration of justice and improve judicial management. However, the integration of AI into the procedural system presents significant challenges, such as determining its adequacy and suitability within the current Ecuadorian regulatory framework. METHOD. The method employed in the research is based on a qualitative approach, employing an exhaustive review of relevant documentation,

jurisprudence and national and international norms. OBJECTIVE. Based on the above, it is determined whether the recognition of Artificial Intelligence does not violate fundamental rights and would improve efficiency and accuracy in various legal tasks. DISCUSSION AND CONCLUSIONS. Finally, it is concluded that the use of AI has the potential to revolutionize the Ecuadorian judicial system, improving the effectiveness and efficiency in the administration of justice, as long as its ethical and regulated use is guaranteed.

Keywords: Artificial Intelligence, Justice, Evidence, Legal Certainty, Due Process.


RESUMO

INTRODUÇÃO. A utilização da inteligência artificial (IA) nos sistemas judiciais é uma realidade cada vez mais próxima, devido à dinâmica e ao aumento da capacidade de processamento de dados e ao aperfeiçoamento de algoritmos mais sofisticados. Estas tecnologias têm o potencial de otimizar a administração da justiça e melhorar a gestão judicial. No entanto, a integração da IA no sistema processual apresenta desafios significativos, como a determinação da sua adequação e idoneidade no atual quadro normativo equatoriano. MÉTODO. O método utilizado na investigação baseia-se numa abordagem qualitativa, recorrendo a uma revisão exaustiva da documentação relevante, da jurisprudência e das normas nacionais e internacionais. OBJECTIVO. Com base no exposto, determina se o reconhecimento da Inteligência Artificial não viola os direitos fundamentais e se melhoraria a eficiência e a exatidão em diversas tarefas jurídicas. DISCUSSÃO E CONCLUSÕES. Finalmente, conclui-se que o uso da IA tem o potencial de revolucionar o sistema judicial equatoriano, melhorando a eficácia e a eficiência na administração da justiça, desde que seu uso ético e regulamentado seja garantido.

Palavras-chave: Inteligência artificial, justiça, provas, segurança jurídica, processo equitativo.


INTRODUCCIÓN

La inteligencia artificial (IA) es una disciplina tecnológica que busca replicar y ampliar las capacidades cognitivas humanas mediante el uso de sistemas informáticos avanzados. Estos sistemas generalmente son capaces de aprehender, procesar, y tomar decisiones basadas en reglas lógicas. En el ámbito jurídico, la IA tiene el potencial de revolucionar la forma en como se recopilan y producen las en la actividad probatoria. Por ejemplo, puede procesar rápidamente la información requerida, identificar patrones relevantes y presentar hallazgos que podrían pasar desapercibidos por la percepción humana. No obstante, su implementación también plantea desafíos cruciales, de cómo garantizar la integridad y credibilidad de las pruebas, y asegurar que su uso cumpla con el principio de legalidad en el sistema procesal ecuatoriano.

En el ámbito jurídico, y especialmente en el derecho penal, la inteligencia artificial (IA) optimiza el procesamiento de datos legales, agilizando la identificación de precedentes judiciales. Asimismo, en la obtención de pruebas, la IA permite un análisis exhaustivo de evidencias digitales, como grabaciones de video y audio, mejora la creación de perfiles delictivos y aumenta la precisión en la estimación de riesgos de reincidencia, como se ha demostrado en diversas legislaciones internacionales.

Dentro de los principales desafíos, se encuentra el determinar la validez procesal de los medios de prueba obtenidos a través de IA, dado que pueden verse comprometidos a la posibilidad de errores algorítmicos. Además, la falta de transparencia en los procesos algorítmicos dificulta la comprensión y el escrutinio del

medio probatorio, lo que afecta el directamente al derecho a la contradicción y a un juicio justo. Finalmente, la protección de derechos fundamentales, como la privacidad, también es una preocupación, pues el uso de IA para el análisis de datos puede implicar riesgos para la intimidad personal.

Abordar estos desafíos son esenciales para mantener un sistema legal eficiente, que asegura que las pruebas generadas por IA son elementos confiables, lo que permite proteger en este sentido el derecho a un juicio justo. La regulación al uso de IA salvaguarda no solo los derechos fundamentales, sino también fortalece la seguridad jurídica en cualquier legislación. Resolver el problema del vacío legal facilita la integración efectiva de la IA, optimizando la administración de justicia y adaptando el sistema legal a los avances tecnológicos.Conforme lo relatado, en el artículo 17 del Código Orgánico de la Función Judicial (2019), debemos mencionar que: “la administración de justicia es un servicio público, básico y fundamental, que debe responder a las nuevas relaciones jurídicas relacionadas con los sistemas de IA” (p. 11).

Es fundamental analizar los retos que enfrenta la integración de inteligencia artificial (IA) en la producción de medios probatorios, a fin de identificar las áreas que requieren mejoras y recomendaciones para lograr una integración efectiva en el sistema judicial ecuatoriano. Se abordan de manera exhaustiva los diferentes aspectos de la implementación de la inteligencia artificial (IA) en la producción de medios probatorios bajo el sistema procesal. El primer capítulo se centra en evaluar la validez de los medios de prueba obtenidas mediante IA, considerando su fundamento y generalidades en la aplicación del proceso judicial. Posteriormente, se analizará la transparencia y el entendimiento de los algoritmos de IA, así como su influencia en el derecho a una defensa adecuada. Además, se discutirá la protección de derechos fundamentales y la privacidad en el contexto de la IA, junto con la necesidad de capacitación especializada y una actualización normativa. Finalmente se destaca los desafíos y limitaciones que presenta la IA en el ámbito jurídico ecuatoriano, y cómo estos pueden ser subsanados para asegurar una administración de justicia eficaz.


DESARROLLO

  1. Fundamentos y Principios de la Inteligencia Artificial en el Ámbito Jurídico

    1. Conceptos y tipos de Inteligencia Artificial

      La inteligencia artificial (IA) es una disciplina de la informática enfocada en crear sistemas y algoritmos capaces de ejecutar tareas que típicamente ejecuta el ser humano. Según la Corte Constitucional de Colombia (2024):

      Dentro de las capacidades de los sistemas de IA se encuentran los siguientes criterios: (i) el razonamiento, (ii) la racionalidad, (iii) la conducta, y (iv) la fidelidad. De allí se infiere que, el desarrollo de la inteligencia artificial imita los canales neuronales del cerebro humano (párr. 83).

      Por otro lado, la Comisión Europea (2029), definió que las herramientas de Inteligencia Artificial son:

      Sistemas de software (y posiblemente también de hardware) diseñados por humanos que, ante un objetivo complejo, actúan en la dimensión física o digital percibiendo su entorno a través de adquisición de datos, interpretación de los datos estructurados o no, razonando sobre el conocimiento, o procesando la información derivada de estos datos y decidiendo las mejores acciones a tomar para lograr el objetivo. Los sistemas de IA pueden utilizar reglas simbólicas o aprender un modelo numérico, y también pueden adaptar su comportamiento analizando cómo se ve afectado el entorno por sus acciones anteriores (p. 09).

      Por su parte, la Organización para la Cooperación y el Desarrollo Económico (2024), publicó el nuevo memorando No. 8 sobre la definición actualizada de los sistemas de IA, el cual señala que:

      Un sistema de IA es un sistema basado en máquinas que, para objetivos explícitos o implícitos, infiere a partir de los datos de entrada que recibe, cómo generar información de salida como predicciones, contenidos, recomendaciones o decisiones, que pueden influir en entornos reales o virtuales. Los distintos sistemas de IA presentan diversos niveles de autonomía y varían en su capacidad de adaptación después de su implementación (pp. 3).

      Los sistemas de IA se pueden implementar de diversas maneras, desde algoritmos básicos hasta redes neuronales avanzadas, y se emplean en múltiples ámbitos para mejorar la eficiencia, precisión y capacidad de análisis de procesos que tradicionalmente dependían de la intervención humana.

      Para Hardy (2001): Entre los tipos de inteligencia artificial se encuentra la IA débil, IA fuerte y IA súper inteligente. La IA débil, también conocida como IA específica, se refiere a sistemas diseñados para realizar tareas particulares. Estos sistemas están programados para ejecutar funciones muy específicas, sin poseer una comprensión general o conciencia. Ejemplos comunes de IA débil incluyen asistentes virtuales como Siri y Alexa, que pueden responder preguntas, realizar búsquedas en la web y controlar dispositivos inteligentes, pero no pueden aprender o realizar tareas fuera de su programación específica… La IA fuerte, o inteligencia general artificial, es un concepto más avanzado y teórico en el que un sistema de IA posee capacidades cognitivas similares a las de un ser humano. Esto incluye la capacidad de aprender, razonar y aplicar conocimientos en diversas situaciones. A diferencia de la IA débil, la AGI puede entender y realizar cualquier tarea intelectual que un humano pueda. Sin embargo, a pesar del progreso en la investigación, la AGI sigue siendo un objetivo a largo plazo y no se ha logrado en la práctica (pp. 23 - 25).

      En el desarrollo de la inteligencia artificial (IA), los distintos tipos representan etapas significativas de evolución tecnológica y conceptual. La IA débil o específica, ampliamente utilizada en la actualidad, se enfoca en resolver problemas concretos dentro de un ámbito limitado. Herramientas como asistentes virtuales, tales como Siri y Alexa, ejemplifican esta categoría, ya que son capaces de interactuar con los usuarios mediante comandos programados, pero carecen de la capacidad de extrapolar sus habilidades fuera de los parámetros para los que fueron diseñadas. Este tipo de IA resulta invaluable en tareas repetitivas y específicas, optimizando procesos cotidianos y aumentando la productividad en diversas áreas, pero no representa una inteligencia "real" en términos humanos.

    2. Evolución histórica de Inteligencia Artificial.

      La inteligencia artificial (IA) ha experimentado una evolución trascendental desde sus primeros pasos en la década de 1940, consolidándose como un campo académico formal tras la Segunda Guerra Mundial. A partir de hitos como la prueba de Turing y la conferencia de Dartmouth, la IA ha avanzado desde programas básicos hasta tecnologías sofisticadas como el aprendizaje profundo y los asistentes virtuales. Estas innovaciones han transformado múltiples áreas, incluida la jurídica, presentando tanto oportunidades como retos éticos y regulatorios. Hoy, la IA se posiciona como una herramienta clave en la vida moderna, marcando el inicio de una nueva era tecnológica.

      Granados (2019): En 1950, Alan Turing publicó su influyente trabajo "Computing Machinery and Intelligence", donde propone la prueba de Turing como un criterio para determinar la inteligencia de una máquina. En 1956, la conferencia de Dartmouth marcó el inicio formal de la IA como un campo académico, con figuras clave como John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon estableciendo sus fundamentos… Durante las décadas de 1960 y 1970, se desarrollaron los primeros programas de IA, como ELIZA, un programa de procesamiento de lenguaje natural, y SHAKEN, un sistema experto. Paralelamente, se avanzó en la investigación de redes neuronales y aprendizaje automático, sentando las bases para futuros desarrollos (pp. 67 - 69).

      En los años 1980, emergieron los sistemas expertos, diseñados para tomar decisiones en áreas específicas como la medicina y la ingeniería, utilizando conocimientos especializados. Además, se realizaron importantes avances en los algoritmos de aprendizaje automático, consolidando la IA como una herramienta esencial en la toma de decisiones complejas.

      Según Granados (2019): La década de 1990 se caracterizó por un mayor uso de algoritmos genéticos y redes neuronales. Un hito notable fue alcanzado en 1997, cuando Deep Blue de IBM derrotó al campeón mundial de ajedrez Garry Kasparov, demostrando el potencial de la IA en juegos estratégicos y complejos… En los años 2000, la disponibilidad de grandes volúmenes de datos y el aumento en la capacidad computacional impulsaron avances significativos en la IA. Tecnologías de aprendizaje profundo (deep learning) y redes neuronales convolucionales mejoraron considerablemente la capacidad de la IA para aprender y tomar decisiones informadas… Durante la década de 2010, la IA se integró ampliamente en aplicaciones cotidianas, como asistentes virtuales (Siri, Alexa). También se realizaron avances importantes en el procesamiento de lenguaje natural y el reconocimiento de voz, haciendo la IA más accesible y útil en la vida diaria. En los años presentes, el debate se centra en las implicaciones éticas y legales de la IA. Se discuten la necesidad de regulación y el desarrollo de normativas para el uso responsable de la IA en diferentes sectores, buscando equilibrar los beneficios tecnológicos con la protección de derechos y principios éticos (pp. 119 – 120).

      La inteligencia artificial ha evolucionado notablemente desde sus inicios, pasando de conceptos teóricos a aplicaciones prácticas que transforman diversos aspectos de la vida moderna, incluyendo el ámbito jurídico, donde se plantean nuevos desafíos y oportunidades para su desarrollo pragmático.

    3. Beneficios de la Aplicación de la IA en el Derecho Penal

      La inteligencia artificial (IA) está transformando el derecho penal al ofrecer herramientas innovadoras que mejoran la administración de justicia, lo que requiere que estas herramientas sean precisas, consistentes y transparentes.

      Para Peris, et al (2023): Uno de los beneficios de la inteligencia artificial en el ámbito del derecho penal es la posibilidad de contar con nuevas herramientas que permiten medir y evaluar conceptos jurídicos que, hasta la fecha, dependían únicamente de la interpretación humana y de la formación académica del jurista. Un ejemplo de esto es la introducción de las huellas dactilares y el ADN en el sistema, ya que estos avances han facilitado la obtención de resultados en la investigación de delitos y en la persecución de culpables (p. 20).

      Así también facilitaría el análisis predictivo en materia de Derecho Penal, pues permite examinar grandes volúmenes de datos criminales para identificar patrones y prever delitos futuros, ayudando así a las fuerzas del orden a desarrollar estrategias preventivas más efectivas. El procesamiento de lenguaje natural es otra área donde la IA demuestra su utilidad, al analizar las transcripciones de juicios y declaraciones para extraer información relevante y detectar inconsistencias. La automatización de tareas administrativas mediante IA, como la gestión de archivos y el procesamiento de documentos, libera a los profesionales del derecho de tareas repetitivas, permitiéndoles enfocarse en aspectos más complejos del trabajo judicial (Morales, 2021).

    4. Principios éticos y legales en la implementación de la IA

      La implementación de la inteligencia artificial en el derecho penal, al igual que en otros ámbitos, requiere una estricta observancia de principios éticos y legales para garantizar su uso justo y responsable. Uno de los principios fundamentales es la transparencia, que exige que los sistemas de IA sean claros en su funcionamiento y en los procesos de toma de decisiones. Para Cortina (2019): “Esto implica la divulgación de los métodos de recopilación y procesamiento de datos, permitiendo a los interesados comprender y cuestionar las decisiones automatizadas” (p. 79).

      La implementación de la inteligencia artificial (IA) en el derecho penal debe respetar principios éticos y legales que garanticen su uso justo y responsable. Entre ellos, la transparencia es esencial, ya que asegura que los sistemas de IA sean comprensibles en su funcionamiento y en los procesos de toma de decisiones. Esto incluye la divulgación de los métodos utilizados para recopilar y procesar datos, lo que permite a los operadores jurídicos y ciudadanos evaluar la validez y fiabilidad de las decisiones automatizadas. Sin esta claridad, se corre el riesgo de generar percepciones de arbitrariedad o sesgo, comprometiendo la confianza en el sistema de justicia.

      La transparencia también protege los derechos fundamentales de las personas al facilitar que las decisiones automatizadas puedan ser auditadas, cuestionadas o impugnadas. Esto refuerza garantías procesales clave, como el derecho a la defensa y la contradicción, fundamentales para un juicio justo. Así, no solo se trata de un requisito técnico, sino de un compromiso ético indispensable para que la IA contribuya al fortalecimiento de la justicia penal, preservando los principios que rigen el sistema jurídico y la confianza pública.

      La equidad es otro principio fundamental, ya que los sistemas de inteligencia artificial (IA) deben ser diseñados para prevenir sesgos y discriminación. Es necesario

      que los algoritmos no perpetúen, ni amplifiquen desigualdades preexistentes, garantizando los resultados emergentes sean próximos a la realidad o hecho fáctico. El principio de equidad en la inteligencia artificial busca asegurar que los sistemas operen de manera justa y sin sesgos que generen favoritismo según sea el caso. Para lograr esto, los desarrolladores deben diseñar y ajustar los algoritmos con el objetivo de minimizar el riesgo de sesgos algorítmicos que afecten su resultado. Para Zúñiga (2024), esto implica una evaluación continua de los datos introducidos en el sistema y algoritmos utilizados, para evitar impactos desproporcionados en el resultado proporcionado, garantizando, así que todos los individuos reciban un trato justo y equitativo en los procesos automatizados (p. 66).

      Según Aparicio (2024): Otro principio referencial es la responsabilidad en el contexto de la IA, donde es necesario definir claramente quién es responsable de las decisiones tomadas por los sistemas automatizados. Esto asegura que los errores o abusos puedan ser identificados y corregidos, estableciendo una cadena de responsabilidad entre desarrolladores, operadores e interesados. La privacidad debe ser protegida rigurosamente en el uso de IA, garantizando que la recopilación y el procesamiento de datos personales cumplan con las leyes de protección de datos. Se deben implementar medidas adecuadas para salvaguardar la información confidencial y sensible (p. 123).

      El principio de responsabilidad en el uso de la inteligencia artificial (IA) es fundamental para garantizar que las decisiones automatizadas se ajusten a estándares éticos y legales. La claridad sobre quién asume la responsabilidad por los resultados generados por los sistemas de IA es crucial, ya que permite identificar y corregir errores o abusos de manera efectiva. Esto no solo asegura la integridad del sistema, sino que también protege los derechos de las personas afectadas. La creación de una cadena de responsabilidad bien definida, que involucre a desarrolladores, operadores y usuarios, es indispensable para evitar lagunas legales y garantizar que todos los actores tengan roles claramente establecidos.

      Este principio adquiere una relevancia especial en contextos donde el mal manejo de datos o decisiones erróneas podría tener consecuencias graves, como en el ámbito judicial o penal. Para ello, es necesario implementar medidas robustas que incluyan regulaciones claras sobre la responsabilidad civil, penal o administrativa, dependiendo de la naturaleza del fallo. Además, la protección de la privacidad y el manejo ético de los datos personales son componentes integrales de este principio. Al garantizar la confidencialidad y el cumplimiento de normativas de protección de datos, se refuerza la confianza en la IA y se asegura que su implementación no comprometa derechos fundamentales, contribuyendo a un uso justo y responsable de esta tecnología.

    5. Consideraciones Legales aplicables a la IA en el contexto penal.

Para integrar la inteligencia artificial en el ámbito penal, es imperativo cumplir con diversas normativas legales para garantizar un uso ético conforme establece la ley. Primero, la protección de datos personales es un aspecto fundamental. La normativa sobre protección de datos, como el Reglamento General de Protección de Datos en la Unión Europea, establece las directrices para la recolección, almacenamiento y procesamiento de datos personales. Para Cortina (2019), esto permite asegurar que la privacidad de los individuos sea respetada y que el uso de datos se realice de manera legal y ética (p. 20).

El uso de inteligencia artificial (IA) en el ámbito penal debe estar firmemente alineado con la protección de los derechos fundamentales de las personas. La privacidad, el derecho a un juicio justo y la garantía de no ser discriminado son pilares esenciales que deben preservarse en cualquier contexto donde se implemente esta tecnología. La introducción de la IA no puede implicar un retroceso en la protección de derechos constitucionales ni en principios como el debido proceso. Por el contrario, su aplicación debe fortalecer estos principios, ofreciendo herramientas que permitan una justicia más eficiente y equitativa sin comprometer las garantías básicas de los involucrados.

La transparencia es un componente indispensable en este contexto, ya que permite evaluar la validez y legitimidad de los sistemas de IA. Para que los algoritmos sean aceptados en el ámbito penal, deben ser comprensibles y auditable su funcionamiento. Esto implica que quienes desarrollan y operan estos sistemas tengan la capacidad de explicar de manera clara cómo se toman las decisiones automatizadas y cómo se procesan los datos involucrados. Solo a través de esta claridad se puede garantizar que los procesos sean justos y confiables, generando confianza tanto en el sistema judicial como en el público. Este nivel de transparencia no solo fortalece la seguridad jurídica, sino que también permite prevenir posibles abusos y corregir errores, asegurando un equilibrio entre la innovación tecnológica y la protección de los derechos fundamentales.

El principio de responsabilidad en la regulación de la IA por su parte establecer claramente quién es responsable por los errores o impactos negativos asociados con el uso de la IA. Por otro lado, Rouhiaine (2018), indica que es necesario que se definan las responsabilidades de los desarrolladores, operadores y entidades que utilizan la tecnología, asegurando que los problemas sean identificados y corregidos adecuadamente (p. 70).

La supervisión y control judicial son necesarios para garantizar que el uso de la IA en el contexto penal se mantenga dentro de los límites legales y éticos. Las leyes deben prever mecanismos para que los tribunales puedan revisar y auditar las decisiones automatizadas, asegurando que se respeten los derechos de las partes involucradas y que la tecnología no comprometa la integridad del sistema judicial.

2.- Retos en la Implementación de la IA en la Producción de Medios Probatorios

2.1.- Desafíos tecnológicos y operativos


Uno de los desafíos más significativos en el ámbito tecnológico y operativo es la compatibilidad de diversos sistemas. En un entorno legal, esto garantiza que los sistemas de gestión de casos, bases de datos legales y otras herramientas tecnológicas funcionen en armonía. La interoperatividad entre diferentes plataformas es esencial para evitar la duplicación de esfuerzos y asegurar que los datos fluyan sin problemas entre sistemas, para el efecto se deben establecer estándares claros de manejo, a fin de asegurar que todos cumplan con requisitos mínimos de compatibilidad y seguridad.


Por otro lado, Suárez (2019) manifiesta: precisamente en procesos judiciales, existen casos en los que la IA también se utiliza para detectar sesgos en la toma de decisiones judiciales, mediante algoritmos que pueden analizar datos históricos y ayudar a identificar patrones de sesgo en las sentencias,

constituyéndose así una herramienta útil para garantizar una justicia más imparcial. A través de la determinación y ponderación de estrategias de aplicación de la IA, esta permite una resolución de los procesos sin dejar de tomar como marco referencial el derecho a la tutela judicial efectiva (p. 20).


Las capacidades de gestión y análisis de datos son vitales para los sistemas jurídicos modernos. La tecnología de big data y la inteligencia artificial pueden ofrecer soluciones, pero también presentan desafíos en términos de precisión y confiabilidad. Estos puntos son fundamentales para determinar su aplicación, pues los sistemas deben ser capaces de filtrar información relevante y precisa sobre el resultado que se pretende alcanzar.


    1. Limitaciones Tecnológicas: Precisión, sesgos y fiabilidad de la IA.


      Si bien cierto la IA se encuentra aplicada cada vez más en sistemas sofisticados y amplios, existen limitaciones que pueden afectar al momento de determinar su validez. La precisión en los modelos de inteligencia artificial es fundamental, para que un sistema de IA sea eficaz, debido a que se debe analizar datos y generar resultados precisos con un alto grado de exactitud. Sin embargo, alcanzar esta precisión es desafiante debido a la necesidad de datos de alta calidad y representativos. Los algoritmos complejos y la gran cantidad de datos requeridos pueden limitar la precisión si no se producen adecuadamente.


      La credibilidad de la información proporcionada por los sistemas de IA, requiere que se adopte un enfoque crítico para su valoración. Un sistema fiable debe ser solido frente a cambios en los datos de entrada y mantener un rendimiento estable. En el contexto judicial, la fiabilidad es crucial para asegurar que las decisiones basadas en IA sean consistentes y reales. La falta de fiabilidad puede conducir a errores judiciales, con graves implicaciones para los derechos y libertades individuales. Por lo tanto, es vital que los sistemas de IA sean rigurosamente probados y validados antes de su implementación en procesos judiciales.


      Un ejemplo de lo dicho es el sistema denominado PROMETEA, utilizado en Buenos Aires – Argentina, donde este modelo experimental logró que “incluso un expediente ingresado a la Fiscalía y que había sido precalificado por una persona del equipo sobre un tema, en pocos segundos PROMETEA sugirió aplicar un modelo de dictamen vinculado a otro tema diferente; y precisamente este era el que correspondía” (Corvalán, 2017, p. 105).


      La implementación de IA en el sistema judicial ecuatoriano debe tener en cuenta no solo los aspectos técnicos, sino también las implicaciones legales y éticas. Las leyes ecuatorianas deben establecer directrices claras sobre el uso de IA en la administración de justicia, asegurando que estas tecnologías se utilicen de manera justa y transparente. Además, es fundamental promover la transparencia en el funcionamiento de los algoritmos de IA, permitiendo que las decisiones sean auditables y explicables. La protección de datos personales y la privacidad también deben ser priorizadas, cumpliendo con las normativas de protección de datos vigentes en el país.


      El uso de la IA, puede llegar a chocar con la transparencia dentro del proceso judicial e inclusive puede considerarse la vulneración de los derechos fundamentales como al del debido proceso, derecho de defensa y contradicción

      de las pruebas, con el simple hecho de que la decisión tomada por el algoritmo no será motivada, ya que será bastante complejo entender la manera en la funciona y las razones que lo llevaron a fallar de una u otra forma. (Gutiérrez, 2020, p. 56)


    2. Desafíos Operativos: Integración de la IA en los sistemas judiciales existentes.


      Muchos sistemas judiciales operan con infraestructuras tecnológicas obsoletas que no están diseñadas para soportar herramientas avanzadas de IA. La modernización de estas infraestructuras asegura que la IA pueda integrarse de manera efectiva y eficiente, esto incluye la actualización de hardware y software y la migración de datos a plataformas más avanzadas. Además, es esencial desarrollar interfaces y protocolos estandarizados que permitan la interoperatividad entre los sistemas existentes y las nuevas herramientas de IA.


      El manejo de datos personales y confidenciales es una parte integral de los sistemas judiciales. La integración de IA debe garantizar que estos datos estén protegidos en todo momento, cumpliendo con las normativas de privacidad y protección de datos. Las soluciones de IA deben cumplir con las leyes y regulaciones de protección de datos vigentes, como la Ley de Protección de Datos Personales de Ecuador. Además, es fundamental implementar medidas solidas de seguridad para proteger los datos judiciales contra accesos no autorizados, ciberataques y otros riesgos.


      La integración de la inteligencia artificial en los sistemas judiciales existentes presenta varios desafíos operativos que deben ser abordados con una estrategia integral. Esto incluye la modernización de infraestructuras, la capacitación del personal, la garantía de imparcialidad y transparencia, y la protección de datos. Abordar estos desafíos de forma correcta permite aprovechar el potencial de la IA para mejorar la eficiencia en el sistema judicial ecuatoriano.


    3. Problemas de Privacidad y Protección de Datos


      Con la creciente digitalización y el uso extendido de tecnologías de la información, los datos personales están expuestos a numerosos riesgos. Los ciberataques, como el hacking y el phishing, son amenazas constantes que pueden comprometer la seguridad de estos datos. Por ello, es fundamental implementar medidas de seguridad solidas, como la encriptación de datos, la autenticación multifactorial y los sistemas de detección de intrusos, para proteger la información contra accesos no autorizados.


      Cumplir con las leyes y regulaciones de protección de datos es un desafío significativo para las organizaciones. Normativas como el Reglamento General de Protección de Datos (GDPR) en Europa y la Ley de Protección de Datos Personales en Ecuador establecen requisitos estrictos para el manejo de información personal. Estas leyes otorgan a las personas derechos específicos, como el acceso, la rectificación y la eliminación de sus datos. Las organizaciones deben desarrollar procesos eficientes y efectivos para cumplir con estos derechos, garantizando así la protección de la privacidad de los individuos y el cumplimiento normativo.

      El uso de inteligencia artificial (IA) y big data también introduce nuevos desafíos en la privacidad y protección de datos. Estas tecnologías pueden procesar grandes volúmenes de información personal, aumentando el riesgo de violaciones de privacidad. Las organizaciones deben aplicar el principio de minimización de datos, recopilando y procesando solo la cantidad necesaria para cumplir con sus objetivos. Además, los algoritmos de IA deben ser transparentes y explicables, permitiendo a las personas entender cómo se toman las decisiones que afectan sus datos personales y asegurando que estas decisiones sean justas y no discriminatorias.


      1. Protección de Datos Personales: Normativas nacionales e internacionales.


        En Ecuador, la protección de datos personales está regulada principalmente por la Ley Orgánica de Protección de Datos Personales. Esta ley establece los principios y derechos fundamentales relacionados con el manejo de información personal, garantizando el derecho a la protección de los datos. Los individuos tienen derechos específicos, como el acceso, rectificación, cancelación y oposición (ARCO) de sus datos personales. Las organizaciones deben implementar medidas de seguridad adecuadas para proteger esta información y cumplir con sus obligaciones legales.


        La cooperación entre las autoridades de protección de datos de diferentes países es crucial para asegurar una protección coherente y efectiva a nivel global. Organizaciones como la OCDE y el Convenio 108 del Consejo de Europa promueven la colaboración internacional y el establecimiento de estándares comunes para la protección de datos personales. Estas iniciativas facilitan la armonización de normativas y la implementación de prácticas consistentes de protección de datos en todo el mundo.


        La protección de datos personales enfrenta varios desafíos, como la rápida evolución tecnológica, el aumento en el volumen de datos procesados y las amenazas cibernéticas. Para contrarrestar estos desafíos, es esencial que las normativas de protección de datos continuamente se actualicen y que las organizaciones adopten una cultura de privacidad desde el diseño. Además, la educación sobre la importancia de la protección de datos es fundamental para asegurar que tanto las empresas como los individuos comprendan sus derechos y responsabilidades.


    4. Aspectos Jurídicos y Procesales.


      En el ámbito jurídico, el principio de legalidad es fundamental y establece que todas las acciones deben estar basadas en leyes previamente establecidas. Este principio garantiza que los procedimientos judiciales se lleven a cabo de manera justa y transparente. El debido proceso asegura que todos los individuos reciban un trato equitativo ante la ley, protegiendo sus derechos durante todo el proceso judicial.


      La incorporación de tecnología en los procesos judiciales presenta tanto oportunidades como desafíos. Las herramientas tecnológicas pueden mejorar la eficiencia y accesibilidad del sistema judicial, pero también plantean cuestiones sobre privacidad y protección de datos. Es crucial que la implementación de tecnología en el ámbito judicial se realice de manera cuidadosa y regulada, asegurando el respeto a los derechos de todas las partes involucradas.

      1. Admisibilidad de Pruebas Basadas en IA: Requisitos y estándares para la aceptación en tribunales.


        Para que una prueba basada en inteligencia artificial (IA) sea admitida dentro del proceso, claramente deben existir los elementos de utilidad, conducencia y pertinencia con relación directa con el litigio. Esto significa que la evidencia debe tener un impacto significativo para la resolución del asunto judicial. Los jueces deben valorar si la prueba aportada dentro del expediente contribuye de manera sustancial con los hechos y si es directamente aplicable al caso en cuestión.


        Las pruebas basadas en IA deben cumplir con las normas y procedimientos legales establecidos por el sistema procesal ecuatoriano. Esto incluye adherirse a las reglas de cadena de custodia para asegurar que la evidencia no haya sido alterada desde su recolección hasta su presentación en el tribunal. Además, es esencial que se sigan los procedimientos legales correspondientes para la recopilación y análisis de datos, garantizando así su validez.


        Para que las pruebas basadas en inteligencia artificial sean admisibles, deben estar exentas de sesgos algorítmicos que puedan vulnerar derechos constitucionales. Es esencial que los algoritmos utilizados sean auditables para garantizar que no perpetúen prejuicios o discriminaciones. En el contexto de la admisibilidad probatoria, se recomienda incluir tanto el porcentaje de error fáctico como el grado de fiabilidad del sistema, esto permitirá asegurar que el uso de la inteligencia artificial aporte un mayor grado de certeza a la decisión judicial.


        Así, el juzgador, al valorar las pruebas en base a la sana critica de modo que se verifique que el medio probatorio obtenido mediante inteligencia artificial cumpla con los requisitos mínimos para acreditar el hecho fáctico en cuestión. Esto crea un nuevo escenario en el juzgador ya que se forma la convicción del hecho más allá de toda duda razonable.


      2. Impacto en el Proceso Judicial: Cómo la IA afecta la dinámica y procedimientos judiciales.


La incorporación de la inteligencia artificial (IA) en los procesos judiciales puede aumentar notablemente la eficiencia y rapidez. Los algoritmos de IA pueden analizar grandes cantidades de datos de manera más rápida que los métodos tradicionales, permitiendo una revisión expedita de pruebas y documentos. Esta mejora puede reducir los tiempos de espera para resoluciones judiciales y disminuir la carga de trabajo de los tribunales, beneficiando tanto a los jueces como a las partes involucradas.


Otro ensayo de sistemas judiciales intervenidos por la IA se está dando en México, donde los investigadores han encontrado algunos problemas bajo el actual sistema de administración de justicia (sin IA), pues los juzgadores no consideran o toman muy a la ligera las pruebas y testimonios del acusado, otorgando una valoración mayor a las pruebas actuadas por Fiscalía o a los testimonios de los agentes policiales. Se ha llegado al punto en el que, en muchas ocasiones, las sentencias reproducen las alegaciones del Ministerio Público (Cáceres, 2006, p. 50).

La IA puede influir en la toma de decisiones judiciales al proporcionar análisis y recomendaciones basadas en datos exactos. Los jueces pueden valorar las herramientas de IA para generar una visión más completa y objetiva de los casos, considerando precedentes y patrones en decisiones anteriores. Sin embargo, es crucial que los jueces mantengan su independencia y no deleguen completamente la toma de decisiones a los sistemas de IA, asegurando así que las decisiones garanticen la tutela judicial efectiva.


El uso de IA puede aumentar la transparencia y rendición de cuentas en el sistema judicial. Los algoritmos pueden documentar y justificar cada paso en el proceso de toma de decisiones, lo que facilita la auditoría y revisión de los casos. Esto puede ayudar a identificar y corregir errores o sesgos en las decisiones judiciales, mejorando la confianza pública en el sistema de justicia y garantizando un proceso más transparente.


La capacidad de las máquinas para usar algoritmos, aprender de los datos y utilizar lo aprendido en la toma de decisiones tal y como lo haría un ser humano. Sin embargo, a diferencia de las personas, los dispositivos basados en IA no necesitan descansar y pueden analizar grandes volúmenes de información a la vez (Rouhiainen, 2018, p. 17).


  1. Propuestas para una Integración Efectiva de la IA en el Sistema Legal Ecuatoriano.

    1. Recomendaciones para la Regulación de la IA en el Ámbito Jurídico.

      La integración de la inteligencia artificial (IA) en el sistema jurídico ecuatoriano ofrece una oportunidad sin precedentes para mejorar la eficiencia y eficacia en la administración de justicia. No obstante, para asegurar que esta integración, es fundamental establecer un marco jurídico adecuado que contemple las particularidades del contexto ecuatoriano y los desafíos inherentes al uso de tecnologías avanzadas en el ámbito jurídico. El desarrollo de normativas específicas es crucial para regular el uso de la IA en el ámbito jurídico ecuatoriano. Las propuestas legislativas deben incluir varios elementos esenciales.

      En primer lugar, es imperativo definir claramente qué se entiende por inteligencia artificial en el contexto legal, incluyendo sus diferentes tipos y aplicaciones. Esto abarca desde sistemas de apoyo a la decisión judicial hasta herramientas de gestión documental automatizada. Además, es necesario establecer en qué áreas del derecho y del sistema judicial se permitirá el uso de IA.

      Por ejemplo, su utilización podría ser más apropiada en la gestión de casos administrativos, producción de medios probatorios y menos en la toma de decisiones judiciales directas, donde el juicio humano es indispensable.

      Los sistemas de IA utilizados en el ámbito jurídico deben ser transparentes en su funcionamiento y resultado, lo que implica que, los algoritmos y los criterios deben ser accesibles para auditorías, revisiones independientes, de modo que se asegure la confianza pública en su uso. Asimismo, el marco normativo debe garantizar que el uso de IA cumpla con los criterios básicos para la protección de derechos constitucionales. Un punto clave para encaminar el desarrollo del uso de inteligencia artificial en la legislación ecuatoriana es definir la responsabilidad de la persona que ejecute al sistema

      de IA dentro del medio probatorio, en caso de errores o mal funcionamiento que afecten el resultado judicial, esto incluye la posibilidad de sanciones y la posibilidad de contrarrestar la carga probatorio con otro medio de prueba de la misma naturaleza.

      El Parlamento Europeo, en su Resolución de 2017, manifiesta acerca de la regulación de la IA lo siguiente:

      […]la futura legislación, explore, analice y considere las implicancias de todas las posibles soluciones jurídicas, tales como: […] f) Crear a largo plazo una personalidad jurídica específica para los robots, de forma que como mínimo los robots autónomos más complejos puedan ser considerados personas electrónicas responsables de reparar los daños que puedan causar, y posiblemente aplicar la personalidad electrónica a aquellos supuestos en los que los robots tomen decisiones autónomas inteligentes o interactúen con terceros de forma independiente (Parlamento Europeo, 2017).

      De la misma manera, el mismo Parlamento Europeo advierte y manifiesta que:

      […]las actividades de investigación en materia de robótica deben respetar los derechos fundamentales; y por su parte, las actividades de concepción, ejecución, difusión y explotación, por su parte, han de estar al servicio del bienestar y la autodeterminación de las personas y de la sociedad en general. La dignidad y la autonomía humanas —tanto físicas como psicológicas— siempre tienen que respetarse (Parlamento Europeo, 2017).

      Para lograr una implementación efectiva de la IA en el sistema judicial, es necesario desarrollar políticas específicas que guíen este proceso de manera estructurada y coherente. Antes de una implementación a gran escala, se debe realizar estudios piloto para evaluar el impacto potencial de la IA en diferentes áreas del sistema judicial. Estos estudios pueden ayudar a identificar posibles beneficios y riesgos, y a ajustar las estrategias de implementación en consecuencia.

      La implementación de IA requiere una inversión significativa en infraestructura tecnológica. Esto incluye la adquisición de hardware avanzado, el desarrollo de software especializado y la creación de redes de comunicación seguras y eficientes. Es esencial fomentar la colaboración entre el sector público, el sector privado y las instituciones académicas para el desarrollo y la implementación de soluciones de IA. Esta colaboración puede facilitar la innovación y asegurar que las tecnologías desarrolladas sean adecuadas para el contexto judicial.

      La formación de jueces, abogados y personal administrativo debe asegurar una implementación efectiva de la IA. Los programas de capacitación deben enfocarse en el uso práctico de herramientas de IA, así como en la comprensión de sus implicaciones éticas y legales. La implementación de IA debe ser acompañada de mecanismos de monitoreo y evaluación continuos para asegurar que los objetivos planteados se cumplan y que se realicen ajustes según sea necesario. Esto incluye la recopilación y análisis de datos sobre el desempeño de los sistemas de IA y su impacto en el sistema judicial.

    2. Estrategias para la Formación y Capacitación

      La integración de la IA en el sistema legal no solo requiere una regulación adecuada, sino también una formación y capacitación exhaustiva de todos los actores

      involucrados. La capacitación de los profesionales del derecho es fundamental para asegurar que puedan utilizar eficazmente las herramientas de IA y comprender sus implicaciones. Los profesionales del derecho deben recibir formación en conceptos básicos de inteligencia artificial y aprendizaje automático. Esto incluye una comprensión general de cómo funcionan los algoritmos de IA y cómo se aplican en el contexto legal.

      De la Cuesta Aguado (2020), ha ilustrado las distintas hipótesis delictuales posibles en relación con los daños ocasionados por una IA, considerando tres modelos de responsabilidad penal:

      1. Responsabilidad personal por acciones o daños u otros resultados típicos, cuando la IA actúe bajo el control de una persona.

      2. Responsabilidad personal por acciones o daños u otros resultados típicos cuando la IA actúe dirigida por una persona, pero en la decisión en concreto hayan intervenido factores ajenos al individuo que dirige o desarrolla el software.

      3. Responsabilidad personal por acciones o daños u otros resultados típicos cuando la IA actúe autónomamente, en cuyo caso habría que introducir dos sub- variantes:

        1. Como consecuencia de errores, déficits o deficiencias de cualquier tipo en el software que establece fines, objetivos, límites y condiciones que incidieron en la toma de decisiones; y

        2. subsidiariamente cuando no concurriera el supuesto anterior, por la decisión autónoma y derivada del propio aprendizaje (pp. 122 – 123)

      Es esencial enseñar a los profesionales del derecho cómo utilizar herramientas de IA en sus prácticas diarias. Esto puede incluir desde la investigación legal hasta la gestión de casos y la elaboración de documentos. Los profesionales del derecho deben desarrollar la capacidad de evaluar críticamente las decisiones y recomendaciones generadas por sistemas de IA. Esto incluye la identificación de posibles sesgos y la comprensión de las limitaciones de los sistemas de IA. Es importante implementar cursos y seminarios regulares, tanto presenciales como en línea, sobre el uso de la IA en el ámbito legal. Estos programas de formación deben ser accesibles y actualizados regularmente para reflejar los avances en la tecnología de IA. Ofrecer certificaciones oficiales para aquellos que completen programas de formación específicos en el uso de IA en el derecho puede ayudar a asegurar que los profesionales tengan las habilidades y conocimientos necesarios.

      El uso ético de la IA es crucial para mantener la confianza pública en el sistema judicial. Los sistemas de IA deben ser diseñados y desarrollados con principios éticos desde el inicio, incluyendo la equidad, la transparencia y la responsabilidad. Esto implica considerar los posibles impactos éticos en cada etapa del desarrollo del sistema. La formación debe incluir una comprensión profunda de los derechos humanos y cómo la IA puede impactarlos positiva o negativamente. Esto es especialmente relevante en el contexto judicial, donde las decisiones pueden tener un impacto significativo en la vida de las personas.

      Analizar casos de estudio donde el uso de la IA ha tenido implicaciones éticas significativas puede ayudar a los profesionales del derecho a entender mejor los desafíos y las oportunidades que presenta la IA. Organizar debates y talleres sobre los

      dilemas éticos relacionados con la IA puede fomentar una cultura de reflexión crítica y diálogo abierto. Estos eventos deben involucrar a jueces, abogados, académicos y la sociedad civil. Desarrollar y adoptar un código de ética específico para el uso de IA en el sistema judicial es fundamental. Este código debe ser ampliamente difundido y adoptado por todos los profesionales del derecho, asegurando un compromiso común con los principios éticos.

      Miró Llinares (2020), en su artículo "El sistema penal ante la inteligencia artificial: actitudes, usos y retos" en “Cibercrimen III”, ha considerado:

      […]la autonomía de una inteligencia artificial no provendría de la capacidad real de adaptar las decisiones a un contexto distinto de aquel para el que ha sido programada; esto es, o bien el aprendizaje por el que se toma la decisión no hubiera devenido de una acción humana, sino de la propia máquina que ha aprendido por sí misma o de otra máquina educadora anterior, o bien su comportamiento no dependiera de ese aprendizaje anterior y de las decisiones atribuidas previamente en la inteligencia artificial de algo ajeno a ello y propio del mismo sistema, siendo, a fecha de hoy, el ser humano quien determina la situación concreta a la que se ve expuesta la inteligencia artificial y su reacción ante una lista cerrada de estímulos (p.56).

    3. Evaluación Continua y Mejora

Surge una necesidad imperiosa de mantener un control y vigilancia constantes sobre los sistemas de inteligencia artificial. En algunos casos, es incluso necesaria la intervención humana en su diseño y desarrollo, con el fin de evitar acciones u omisiones que puedan vulnerar o amenazar los derechos humanos ya reconocidos en el marco jurídico (Sánchez & Toro, 2021, p.223).

Para asegurar que la integración de la IA en el sistema legal sea efectiva y se mantenga actualizada, hay que establecer mecanismos de evaluación y mejora continua. La evaluación continua del impacto de la IA en el sistema judicial es esencial para identificar áreas de mejora y asegurar que se cumplan los objetivos propuestos. Establecer indicadores de rendimiento claros y medibles para evaluar la eficacia y eficiencia de los sistemas de IA. Estos indicadores deben ser revisados regularmente para asegurar que reflejen adecuadamente el desempeño de los sistemas.

Recoger y analizar regularmente la retroalimentación de jueces, abogados y otros usuarios sobre su experiencia con los sistemas de IA. Esta retroalimentación puede proporcionar información valiosa sobre áreas de mejora y éxito. Realizar auditorías regulares de los sistemas de IA para asegurarse de que están funcionando correctamente y cumpliendo con los estándares establecidos. Estas auditorías deben ser realizadas por terceros independientes para asegurar la objetividad.

La actualización continua de normativas y prácticas debe adaptarse a los avances tecnológicos y las necesidades cambiantes del sistema judicial. Establecer un calendario de revisión periódica de las normativas y políticas relacionadas con la IA es crucial para asegurar que se mantengan relevantes y efectivas. Estas revisiones deben incluir consultas con todos los actores involucrados, incluyendo la sociedad civil. Involucrar a la sociedad civil, profesionales del derecho y expertos en tecnología en el proceso de revisión y actualización de normativas puede asegurar que las políticas sean inclusivas y reflejen una variedad de perspectivas.

Acerca de lo manifestado el Comité Económico y Social Europeo en su Dictamen sobre “Inteligencia artificial: anticipar su impacto en el trabajo para garantizar una transición justa” manifiesta que:

[…] la humanidad se encuentra a las puertas de una era en la que robots, bots, androides y otras formas de inteligencia artificial cada vez más sofisticadas parecen dispuestas a desencadenar una nueva revolución industrial que probablemente afecte a todos los estratos de la sociedad, resulta de vital importancia que el legislador pondere las consecuencias jurídicas y éticas, sin obstaculizar con ello la innovación (Comité Económico y Social Europeo, 2018)

Asegurarse que la regulación sea lo suficientemente solida para adaptarse a nuevas tecnologías y avances en la IA evita que se queden obsoletas rápidamente. Esto incluye la posibilidad de realizar ajustes rápidos en respuesta a nuevos desarrollos sociales. Mantener programas de formación continua para profesionales del derecho sobre las reformas y nueva normativa relacionada con la IA, puede asegurar que estén siempre preparados para trabajar con las tecnologías más recientes. Fomentar la innovación y la experimentación controlada en el uso de IA en el sistema judicial puede proporcionar datos valiosos y ayudar a desarrollar mejores prácticas judiciales.


DISCUSIÓN Y CONCLUSIONES

La implementación de la inteligencia artificial (IA) en el sistema judicial ecuatoriano ofrece un abanico de oportunidades para optimizar la administración de justicia. La IA puede incrementar significativamente la eficiencia y precisión en la gestión de casos, facilitar el manejo de grandes volúmenes de datos y la identificación de patrones relevantes que pueden ser cruciales en la resolución de disputas legales. Sin embargo, también implica una serie de retos éticos y legales que deben ser abordados con la debida diligencia para su correcta implementación.

Uno de los desafíos más significativos relacionados con la administración de justicia es asegurar la fiabilidad y validez de las pruebas obtenidas mediante inteligencia artificial, de acuerdo con el sistema procesal ecuatoriano. Debido a que, si los algoritmos de inteligencia artificial no están diseñados y validados adecuadamente, pueden provocar errores que comprometan la integridad de las pruebas, afectando el derecho a la contradicción y a un juicio imparcial. La falta de transparencia en los procesos algorítmicos puede dificultar la comprensión y valoración de las pruebas, lo cual es esencial para mantener la confianza en el sistema judicial. Los profesionales del derecho deben ser capaces de entender cómo se generaron las pruebas para evaluarlas adecuadamente.

La protección de datos personales y la privacidad son también cuestiones de suma importancia en la aplicación de IA en el ámbito judicial. El uso de IA implica analizar datos sensibles en grandes volúmenes. Es crucial que el procesamiento de estos datos cumpla con las normativas de protección de datos vigentes, para garantizar que se respete la privacidad de los individuos. Las leyes deben proporcionar directrices claras sobre cómo se debe utilizar la IA, asegurando que la información manejada por los sistemas judiciales esté protegida contra accesos no autorizados y otras amenazas.

Para enfrentar estos desafíos, es indispensable la formación de los operadores del sistema judicial que principalmente se encuentra integrado por los jueces, abogados

y demás profesional del derecho, quienes deben estar capacitados para comprender y utilizar las herramientas de IA de manera efectiva y ética. Esto incluye entender los principios básicos de funcionamiento de la IA, así como los posibles sesgos y limitaciones de los algoritmos utilizados. Además, es necesario actualizar y modernizar las infraestructuras tecnológicas del sistema judicial para que puedan soportar estas nuevas tecnologías y asegurar una integración exitosa de la IA en los procesos judiciales.

La inteligencia artificial tiene el potencial de revolucionar profundamente el sistema judicial ecuatoriano, ofreciendo mejoras significativas en términos de eficiencia y eficacia en la administración de justicia. Sin embargo, su implementación debe ser gestionada con cuidado para superar los desafíos éticos y legales asociados. La validez, fiabilidad, y transparencia de las pruebas obtenidas mediante IA, son esenciales para entender la naturaleza integral de la IA dentro del sistema procesal.

La adaptación de normativas nacionales e internacionales en marco jurídico ecuatoriano son esenciales para garantizar un uso ético y responsable de la IA. La armonización de las regulaciones permitirá una aplicación coherente y efectiva de la IA en el ámbito judicial de modo que se garantice el derecho a la seguridad jurídica. Uno de los principales criterios a considerarse es la modernización de las infraestructuras tecnológicas existentes en el sistema judicial para soportar la integración de la IA, para el efecto se deben integrar proyectos vinculantes al área del derecho penal.

Aunque la inteligencia artificial ofrece grandes oportunidades para mejorar el sistema judicial, su implementación debe realizarse con un enfoque riguroso, siendo necesario garantizar el respeto a los derechos fundamentales y mantener la confianza en el sistema de justicia. El fin principal de implementar IA, es ampliar la eficiencia en la administración de justicia y cumplir con los fines estatales. Un manejo adecuado de los desafíos y una regulación apropiada de la IA puede contribuir significativamente a una administración de justicia más eficiente y transparente en Ecuador, siendo importante la coexistencia de estos elementos dentro del sistema procesal ecuatoriano.


DECLARACIÓN DE CONFLICTO DE INTERÉS

No existe conflicto de intereses


APORTE DEL ARTÍCULO EN LA LÍNEA DE INVESTIGACIÓN

El presente artículo se encuentra bajo las líneas de investigación de la Revista, en razón que, aporta una solución sobre la validez del uso de la inteligencia artificial en la administración de justicia.


DECLARACIÓN DE CONTRIBUCIÓN DE CADA AUTOR

Christian Israel Rodríguez Barroso se encargó de la recolección de información, escritura del documento, y envió. Como también se encargó de la idea de revisión bibliográfica, revisión y corrección del documento.

Lizbeth Adriana Martínez Cisneros, se encargó de la recolección de información, escritura del documento. Como también se encargó de la revisión bibliográfica, revisión y corrección del documento.


REFERENCIAS

Aparicio-Gómez, O., & Aparicio-Gómez, W. (2024). Principios éticos para el uso de la Inteligencia Artificial. Revista Internacional de Desarrollo Humano y Sostenibilidad, 1(1), 73-87.

Bahena, G. C. M. (2012). La inteligencia artificial y su aplicación al campo del Derecho. Alegatos, (82), 827-846.

Cáceres, E. (2006). Inteligencia artificial, derecho y E-JUSTICE (El Proyecto IIJ-CONACYT).

Boletín Mexicano de Derecho Comparado, (116), 593-611.

Comisión Europea. (2019). AI Watch Defining Artificial Intelligence. Joint Research Centre. Cortina Orts, A. (2019). Ética de la inteligencia artificial. Anales de la Real Academia de Ciencias

Morales y Políticas,(96), 379-394.

Corte Constitucional Colombia. Expediente No. T-9.301.656. Sentencia No. T-323 de 2024 Comité Económico y Social Europeo.(20 de septiembre del 2018). Dictamen sobre “Inteligencia

artificial: anticipar su impacto en el trabajo para garantizar una transición justa” (2018/C 440/01).


Corvalán, J. G. (2017). La primera inteligencia artificial predictiva al servicio de la Justicia: Prometea. La Ley. 12.


De La Cuesta Aguado P.(2019-2020). Inteligencia artificial y Derecho Penal. Revista Penal 16 y 17, 51-62.


Granados, J. J. R., & Baena, L. R. (2019). Perspectiva histórica y evolución de la inteligencia artificial. La inteligencia artificial, aplicada a la defensa.


Guaña Moya, J., & Chipuxi Fajardo, L. (2023). Impacto de la inteligencia artificial en la ética y la privacidad de los datos. RECIAMUC, 7(1), 923-930.


Gutierrez Rodríguez, J. D. (2020). Retos éticos de la inteligencia artificial en el proceso judicial. En Derecho Procesal. Nuevas Tendencias: XLI Congreso Colombiano de Derecho Procesal (1 ed., pp. 499-516). Instituto Colombiano de Derecho Procesal. https://www.researchgate.net/publication/343797970_Retos_eticos_de_la_inteligencia

_artificial_en_el_proceso_judicial

Hardy, T. (2001). IA (inteligencia artificial). Polis: Revista Latinoamericana, 1(2), 1-23. Méndez, L. & Sánchez, R. (2023). Inteligencia artificial y el futuro del derecho. Nexos.

https://eljuegodelacorte.nexos.com.mx/inteligencia-artificial-y-el-futuro-del-derecho/

Miró Llinares, F. (2020). El sistema penal ante la inteligencia artificial: actitudes, usos y retos. Cibercrimen III: inteligencia artificial, automatización, algoritmos y predicciones en el derecho penal y procesal penal (1 ed., pp. 81 y 88). Dupuy D., Corvalán J. G., Editorial B de f.


Morales Moreno, Á. M. (2021). Inteligencia Artificial y Derecho Penal: Primeras Aproximaciones. Revista jurídica de Castilla y León, (53), 177-202.


OCDE. (2024). Explanatory Memorandum on the updated OECD Definition Of An Ai System.

OECD Publishing. http://www.oecd.org/termsandconditions.


Parlamento Europeo. (17 de febrero de 2017). Resolución con recomendaciones destinadas a la Comisión sobre normas de Derecho Civil sobre robótica. P8_TA (20017) 0051.


Peris, J., & Massaro, A. (2023).Derecho Penal, Inteligencia Artificial y Neurociencias. Roma Tre-Press.


Rouhiainen, L. (2018). Inteligencia Artificial: 101 cosas que debes saber hoy sobre nuestro futuro. Editorial Planeta, S.A. https://proassetspdlcom.cdnstatics2.com/usuaris/libros_contenido/arxius/40/39307_Int eligencia_artificial.pdf


Sánchez C., & Toro J. (2021). El derecho al control humano:Una respuesta jurídica a la inteligencia artificial. Revista Chilena de Derecho y Tecnología, 10(2), 211-228


Samacá, A. F. (2016). Inteligencia artificial aplicada al derecho [Tesis de pregrado, Universidad Santo Tomás]. https://repository.usta.edu.co/handle/11634/9376


Serna, A., Acevedo, E., & Serna, E. (2017). Principios de la inteligencia artificial en las ciencias computacionales. Desarrollo e innovación en ingeniería, 161-172.


Suarez Manrique, W. Y., & De León Vargas, G. I. (2019). Inteligencia artificial y su aplicación en la administración de justicia. Revista Jurídica Mario Alario D´ Filippo, 11(21), 71–83.


Zuñiga, K. M., Soledispa, M. I. G., Velázquez, R. V., & Fernández, E. A. C. (2024). Desafíos universitarios: equidad, transparencia, responsabilidad y oportunidades en el uso de la Inteligencia Artificial. Serie Científica de la Universidad de las Ciencias Informáticas, 17(5), 70-83.

NOTA BIOGRÁFICA


3 xx  4

image

Christian Rodríguez Barroso. ORCID iD id https://orcid.org/0009-0000-5615-6651. Juez de los Juzgados y Tribunales del Ecuador. Docente de la Universidad Indoamérica. Abogado por la Universidad Técnica de Ambato. Magister en Derecho Constitucional. Especialista en Derechos Humanos por la Universidad Castilla- La Mancha.


Lizbeth Martínez Cisneros ORCID iD https://orcid.org/0009-0002-1796-7974. Es abogada por la Universidad Técnica de Ambato.


Licencia CC By 4.0.png

This work is licensed under the Creative Commons Attribution 4.0 International License. To view a copy of this license, visit http://creativecommons.org/licenses/by/4.0/ or send a letter to Creative Commons, PO Box 1866, Mountain View, CA 94042, US