Los abogados Juan Carlos Manríquez y Roberto Contreras abordan las bases de la nueva política nacional sobre inteligencia artificial y cómo ésta puede afectar, por ejemplo, en la programación algorítmica de las tarjetas de juego.
A fines de octubre 2021, el Ministerio de Ciencia, Conocimiento, Tecnología e Innovación publicó la primera Política Nacional de Inteligencia Artificial (IA) en Chile y su Plan de Acción, convirtiendo a Chile en el país pionero en crear y proteger los neuroderechos, así como regular las neurotecnologías y las plataformas digitales.
Dicha legislación contiene cuatro principios y está dividida en tres ejes con interdependencia. Cada eje aborda las oportunidades y brechas en su ámbito e introduce los objetivos y acciones prioritarias que Chile debe emprender en un horizonte de tiempo de 10 años para cumplir con el objetivo de esta política el 2031.
Estos tienen relación con IA con centro en el bienestar de las personas, respeto a los derechos humanos y la seguridad; IA para el desarrollo sostenible; IA inclusiva; e IA globalizada y en evolución.
Pero específicamente, según coinciden los abogados expertos en la materia, Juan Carlos Manríquez, y Roberto Contreras, el punto que aborda específicamente el interés por impulsar la transparencia algorítmica, tiene un impacto directo en la industria del juego y en especial, en la programación algorítmica de las tarjetas de juego, siendo –también- muy relevante para evitar discriminación o excesos en la predictibilidad de la “justicia algorítmica predictiva”.
Según el decreto “se debe establecer estándares y recomendaciones de transparencia algorítmica para aplicaciones críticas, esto es, la entrega de información sobre cómo funcionan los algoritmos decisionales que utilizan los órganos de la Administración del Estado, así como los datos involucrados en la toma de decisiones, incluyendo los de su fase de aprendizaje, debe ser oportuna y clara en concordancia con el derecho de acceso establecido en la ley Número 19.628”.
Asimismo, agrega la ley, “se debe velar por la identificación de sesgos en algoritmos, bases de datos y demás componentes de los sistemas de IA, y por la mitigación de riesgos de afectación de derechos fundamentales, especialmente tratándose de los de privacidad, protección de datos personales y no discriminación arbitraria utilizados por los órganos de la administración del Estado”.
Y este sentido, detalla la legislación “en base al liderazgo internacional de Chile en transparencia, “elaboraremos recomendaciones para los sectores privado y público en relación con identificación de sesgos no deseados y transparencia algorítmica, que podrán ser piloteadas en áreas de riesgo”.
Al respecto, Manríquez explica que “dentro de las bases de la nueva política nacional sobre inteligencia artificial, se promueve el desarrollo, la educación constante en los colegios, recolección de talentos y establecimiento de laboratorios de trabajo, mencionando que “el tema de los algoritmos, impacta en múltiples actividades: las ventas, la economía, el retail, el juego, la salud, y todo aquello que se basa en decisiones en razón de bases y procesamientos de datos, muchas veces, invasivos; muchas veces, con traqueos absolutamente bombásticos que lo que hacen es molestar a las personas, en este caso, transparentar la programación algorítmicas, evitar la predictibilidad en materias judiciales, de familia, penales, etc., y también, en determinar las necesidades de los consumidores en materia comercial”.
“De ser así, se vería obligado el programador a entregar las bases de la programación algorítmica, sobre todo, en las tarjetas de juego, cuáles son los ciclos, cuáles son las probabilidades de ganar, etcétera, entonces, es interesante lo que viene como balance de derechos socioeconómicos de cuarta generación”.
Por su parte, Contreras – quien es académico de la Universidad Central y coautor del libro “Inteligencia artificial en el sistema de justicia” agrega que “es relevante señalar que la utilización de algoritmos basados en Inteligencia Artificial, podrían considerar una serie de datos parciales o bien, una metodología de diseño sesgada, que no recoja la totalidad de situaciones que representan una determinada realidad y en consecuencia, afectar la toma de decisiones, principalmente en temas tan sensibles como la impartición de justicia”.
“A esto se le denomina ‘los sesgos de los algoritmos’, consecuencialmente, es muy relevante propender a que éstos se basen en datos que representen la totalidad disponible de antecedentes y, además, que sean constantemente analizados y recalibrados según la nueva información disponible, como también revisada la operatoria en el diseño. De esta manera, maximizamos los datos, para que los algoritmos permitan decisiones conforme a la realidad y en forma democrática, en concordancia con el párrafo final incorporado en el artículo 19 Nº 1 de la Carta Constitucional”, concluye Contreras.