Inteligencia artificial ¿Un riesgo para el respeto de los derechos fundamentales? Por Juan Carlos Silva Opazo.

Ago 28, 2023 | Opinión

Juan Carlos Silva Opazo. Juez del 9º Juzgado de Garantía de Santiago. Abogado, egresado de la Pontificia Universidad Católica de Valparaíso. Magíster en Derecho Penal, Universidad de Talca.

La inteligencia artificial (IA) es posible definirla, en términos sencillos, como sistemas que reproducen el pensamiento y el obrar humano, mediante la utilización de algoritmos basados en el procesamiento de datos, con la finalidad de establecer patrones o sistemas predictivos que ayuden a la toma de decisiones.

Es indudable que el desarrollo de la IA a contar de la última década ha significado un avance trascendental en todas las áreas del conocimiento y desarrollo humano (por ej. prevención de enfermedades, predictibilidad de índices económicos, sistemas de producción, cambio climático, etc.), pues posibilita a través de la recolección y procesamiento de información de múltiples y diferentes fuentes, elaborar ambientes y patrones determinados para dar respuesta a un problema concreto. Sin embargo, la IA puede conllevar una serie de riesgos, en especial en la protección de los derechos fundamentales: libertad personal, debido proceso, derecho a la intimidad, protección de datos, libertad de expresión, información, creación artística e investigación, por nombrar algunos.

Ahora bien, en relación con los sistemas de administración de justicia donde se ven involucrados derechos de relevancia como la libertad personal, derecho a una investigación objetiva y el debido proceso, la incorporación de herramientas basadas en la IA necesariamente afecta a tales garantías, ya que altera los requisitos de lógica y conciencia asociados a la imparcialidad, ausencia de discrecionalidad e información fiable.

Es sabido que en Europa como en los Estados Unidos de América y de forma incipiente en los países Latinoamericanos, los sistemas de IA ya se están desarrollando en el ámbito de las investigaciones policiales para la prevención y anticipación a la comisión de posibles delitos (predictive policing), en base a criterios geográficos y circunstancias personales o familiares del delincuente.

Esto no es en sí un problema. El conflicto  se plantea cuando los datos que se proporcionan a los sistemas informáticos para generar el algoritmo incurren en sesgos de raza, índices de pobreza, marginalidad, género y migración, por nombrar sólo algunos. Estos antecedentes necesariamente inciden en la retroalimentación que efectúa el sistema de IA (software), para determinar áreas geográficas o grupos de  riesgos más propensos que otros a la actividad criminal, lo que puede desembocar necesariamente,  no sólo  en la estigmatización de  determinados grupos humanos, sino también en la marginalidad de determinadas zonas geográficas y sus habitantes, aumentando las formas de discriminación  ya existentes.

En el ámbito de la libertad ambulatoria y específicamente en lo que dice relación con  la aplicación de medidas cautelares personales, penas sustitutivas y el  beneficio de la libertad condicional,  existe la posibilidad cierta de que  la toma de decisiones basadas en factores de riesgo de reincidencia, apoyo social o familiar o peligrosidad social fundada en delito cometido, sean precisamente los datos que se proporcionen a un sistema  de IA, para que sea este -en definitiva- quién pondere el nivel de riesgo que sustente una decisión jurisdiccional. Sin embargo, podría plantearse la posibilidad de que tales datos, ya sea de forma intencionada o no, no sean del todo fiables, transparentes y seguros, para arrojar un resultado que cumpla con los criterios de proporcionalidad y necesidad que se exigen en una decisión de esta naturaleza.

En lo que respecta a las resoluciones judiciales, la IA ya está entre nosotros. Basta un simple recorrido por la internet para encontrarnos con un sinnúmero de portales gratuitos o por suscripción que proporcionan a los operadores del derecho, las distintas tendencias o criterios jurisprudenciales, agrupadas por materia, tribunal e instancia. Pero no es todo. Las posibilidades que se abren en este ámbito son aún mayores, sólo piénsese en materia laboral y tributaria como la focalización de datos a través de sistemas de IA para determinar empresas con un largo historial de incumplimiento o infracciones en estas materias, lo que hace posible una competente fiscalización en el futuro y una eficaz aplicación del Derecho Administrativo Sancionador.

En lo que dice relación con el enjuiciamiento de infracciones penales y aplicación de sanciones, el uso de aplicaciones de IA supone un alto riesgo porque despersonaliza la función jurisdiccional, además afecta el derecho de defensa del imputado y la presunción de inocencia. En efecto, como podrá acceder la defensa de un imputado a los datos que fueron cuantificados en la herramienta de IA, para establecer, por ejemplo, su nivel de reincidencia o peligrosidad para la aplicación de la sanción penal, cuando la mayoría de las empresas desarrolladoras de software de IA niegan la posibilidad de acceso a su algoritmo, por ser un secreto esencial para desarrollo de su actividad económica. Por otra parte, el sistema de justicia penal se funda en elementos de argumentación y justificación para determinar la conducta delictiva y establecer la sanción a imponer lo que obliga necesariamente individualizar, por lo que no resulta posible establecer un sistema de responsabilidad penal basado en factores y variables.

En conclusión, los sistemas de IA ya están aquí y tendrán incidencia en todas las áreas de la vida humana. En lo que respecta al derecho y en particular el respeto de los derechos fundamentales es necesario que los miembros de nuestra comunidad jurídica comiencen desde ahora el debate en torno a sus efectos, con la finalidad de establecer en un futuro cercano una legislación adecuada que permita prever y disminuir los riesgos de una realidad en plena expansión.

 

| LO MAS LEIDO