Por Juan Carlos Manríquez R., Abogado, LLM (CWSL, USA); Profesor LLM UC, Especialista en Derecho Penal Económico y de la Empresa (UC-LM, España), AD en Derecho Penal Internacional (Siracusa, Italia) Litigante ante la Corte Penal Internacional (La Haya, Holanda). Director de Compliance Academy.
EUROPOL, EDEN y ERA llevaron a cabo el 16.12.2020 desde La Haya y Londres un Panel Internacional por medio de una novedosa plataforma interactiva, una “isla virtual”, dedicado en extenso al tema “Reforzando la legalidad en la era de la Inteligencia Artificial y Big Data: la Democracia bajo amenaza”.
La mesa sobre Reconocimiento Facial dejó planteado porqué en Europa se ha optado por una “moratoria” en la aplicación de esta tecnología, dado, entre muchos aspectos de cuidado, su alto nivel de error 1:N, sesgo, prejuicio racial, falta de control del insumo con que las policías alimentan las bases de rostros, cómo y de dónde los obtienen, y por el peligro de afectar la presunción de inocencia y otras libertades civiles de manera innecesaria o desproporcionada. Ejemplos hay con la Policía de New York y con la Policía Metropolitana de Londres.
El lector interesado podrá hallar acá el estado del asunto y ver el mapa completo de Europa sobre la permisividad, la prohibición, restricción o regulación del RF en el espacio común y porqué las organizaciones civiles se oponen: https://euobserver.com/science/148839
De igual modo, EUROPOL y la Academia están relevando un aspecto procesal penal relativo a la “prueba o herramientas digitales o de recolección de evidencia por Inteligencia Artificial”, por ejemplo, como ocurre con el “reconocimiento de emociones” asociado al reconocimiento facial, aditivo que podría ser presentado por las Policías o las Fiscalías como “indicios serios” de conexión con un hecho penal o con la voluntad o propósito y fin de llevarlo a cabo, cuando no se tiene evidencia directa o una confesión. O sea, han detectado el peligro que sin mayor filtro y control judicial estricto, se sumen como un ingrediente más en el debate de audiencias o juicios para fijar “hechos” por medio de esa técnica de “neo evidencia” que podría establecer indicios que den basa a una supuesta prueba indirecta, desarrollada sugestivamente cuadro a cuadro por quien exponga el caso ante el tribunal. Así lo ha ido tratando la ABA (American Bar Association) en https://www.americanbar.org/groups/criminal_justice/publications/criminal-justice-magazine/2019/spring/facial-recognition-technology/
La UE, si bien tiene una fuerte legislación de protección de la privacidad incluso en lugares públicos, no ha definido del todo que se hará con el RF, como lo destaca https://www.biometricupdate.com/202009/european-commission-hasnt-completely-ruled-out-biometric-facial-recognition-ban-in-public-spaces
Sin embargo, se han ido creando criterios de Admisibilidad que podrían validar su uso y rendimiento ante los tribunales sin violar los derechos fundamentales de los ciudadanos, como puede verse en comparado entre USA y la UE en Celentino: 2016 https://repository.law.umich.edu/cgi/viewcontent.cgi?article=1261&context=mlr
Invito a leer la práctica y dudas de los defensores públicos de USA en Jackson: 2019 https://www.nacdl.org/getattachment/548c697c-fd8e-4b8d-b4c3-2540336fad94/challenging-facial-recognition-software-in-criminal-court_july-2019.pdf
En este contexto, preocupa que sin más en Chile se gaste muchos millones de dólares en tecnología de vigilancia por medio de herramientas de IA para generar evidencia, sin conocer bien su origen, si controlan la fuga de datos o cuál es su nivel de actualidad para superar las objeciones técnicas y legales que hemos venido expresando, y sobre todo, que pueda generarse una “Admisibilidad Automática” de sus hallazgos sin un contrapeso efectivo.
En tal sentido, un fallo quizás polémico por los hechos que encierra, pero que está en la línea de la Tutela Judicial Efectiva, es aquel del TOP de Santa Cruz (RIT 54-2020, RUC 1.901.382.973-2) que absolvió a imputados de traficar droga, porque la evidencia incriminante se logró con un dron que sobrevoló una propiedad privada sin autorización judicial previa, violando el art. 19.4 de la Constitución. Así en https://enestrado.com/prueba-ilicita-absuelven-a-acusados-de-trafico-de-drogas-porque-se-utilizo-sin-autorizacion-judicial-un-dron-para-obtener-imagenes-al-interior-de-un-domicilio/
Las tecnologías que usan IA, como el Reconocimiento Facial y otras herramientas de Big Data son útiles, pero necesitan control exhaustivo y un apego riguroso a la Constitución, y eso se puede lograr con un control judicial previo y bilateral en audiencia y en el debate de Admisibilidad, en cualquier etapa del procedimiento, como lo establece claramente el art. 83 inciso tercero de la Constitución.