¿Legislar o resignarse?

Lo que no regule la política, lo programa el algoritmo
[i]Por Martín Doñate.
Introducción
La democracia del siglo XXI no puede construirse sobre tecnologías opacas. En un escenario global donde la inteligencia artificial, las neurotecnologías y el tratamiento masivo de datos personales transforman nuestras vidas, la ausencia de regulación no es neutral: beneficia a los más poderosos, consolida asimetrías y pone en riesgo la vigencia efectiva de múltiples derechos fundamentales. Por eso, legislar sobre estas materias, lejos de constituir un cometido meramente técnico, implica una responsabilidad política urgente.
Entendiendo que la regulación no puede llegar después del daño, sino que debemos trabajar para encontrar los consensos en relación a la creación de una arquitectura jurídica preventiva, protectora y proactiva, es que impulsamos un conjunto de propuestas legislativas articuladas entre sí para hacer frente a los desafíos que presenta el nuevo ecosistema tecnológico.
Los límites de la IA
En primer lugar, presentamos un proyecto de Ley Nacional de Regulación de la Inteligencia Artificial (Acceda al texto: https://institutoargentina2050.com.ar/2024/05/06/proyecto-de-ley-regulacion-de-la-inteligencia-artificial/), mediante el cual proponemos un marco normativo para garantizar el desarrollo, la implementación y el uso ético de los sistemas de Inteligencia Artificial (IA), para asegurar su utilización ética, segura, equitativa y transparente, y resguardar y garantizar la protección de los derechos humanos, los datos personales, la privacidad y la seguridad de las personas. Esta iniciativa se encuentra expresamente articulada en torno a los principios de explicabilidad, supervisión humana, certificación de compliance y análisis de riesgos. Ello, en consonancia con las recomendaciones de la UNESCO sobre la Ética de la Inteligencia Artificial (2021), los principios de la OCDE (2019), y los estándares que inspiran el reglamento europeo conocido como AI Act.
Se basa en los siguientes ejes fundamentales:
- Ético:implica quetodo desarrollo, implementación, distribución, aplicación y uso de IA debe estar basado en principios éticos fundamentales, incluyendo el respeto a la dignidad humana, la privacidad, la transparencia, la responsabilidad y la equidad.
- Protección de los derechos fundamentales: se deberán garantizar el respeto y la protección de los Derechos Humanos y las libertades individuales en un marco de cuidado y protección de la dignidad de las personas y, muy especialmente, de las niñas, niños y adolescentes. Además, prevé la protección de la privacidad de las personas y el tratamiento de sus datos personales de acuerdo con la normativa vigente de protección de datos personales, y la prohibición de aquellas prácticas que violen derechos humanos, que manipulen o influyan indebidamente en la toma de decisiones, causen daños graves o riesgos para la seguridad y que falten a la transparencia.
- Transparencia y supervisión: se establece la obligación de documentación y explicabilidad de los algoritmos utilizados en IA, para lo cual se prevé la creación de la Agencia Nacional de Supervisión de la Inteligencia Artificial (ANSIA) como organismo regulador y fiscalizador. Entre las funciones a su cargo está la implementación de un Registro Nacional de Sistemas de IA donde deberán inscribirse todos los sistemas de IA alcanzados por la regulación.
- Responsabilidad: Prevé que los sujetos alcanzados por la ley, deben garantizar que sus sistemas sean seguros, confiables, equitativos, transparentes y cumplan con los estándares de calidad establecidos, y serán responsables de las consecuencias de sus acciones y decisiones relacionadas con el uso de la IA. Deberán asimismo, disponer de mecanismos tecnológicos que permitan limitar, restringir o mitigar los efectos de la IA en contextos que afecten derechos humanos o grupos vulnerables y notificar la detección de fallas, incidentes o errores a los afectados. Por último, se prevén sanciones para quienes incumplan las normativas, incluyendo multa, suspensión, cancelación o prohibición del uso del sistema de IA.
Neuroderechos: reconociendo el status de nuevos derechos
En segundo término, impulsamos la creación de una Comisión Bicameral Especial para la Protección Integral de los Neuroderechos (Acceda al texto: https://institutoargentina2050.com.ar/2024/05/06/proyecto-de-ley-creacion-de-la-comision-bicameral-especial-para-la-redaccion-de-propuestas-legislativas-que-tiendan-a-la-proteccion-integral-de-los-neuroderechos/).
Las neurotecnologías ya no pertenecen al campo de la ciencia ficción: permiten interfaces cerebro-computadora, la decodificación de patrones neuronales y la potencial manipulación de la esfera mental. Nuestro ordenamiento jurídico aún no ofrece respuesta suficiente ante los desafíos y dilemas que se derivan de estas tecnologías. El objetivo de la Comisión, es redacción de una o más propuestas legislativas que establezcan un marco normativo total o parcial orientado a la protección integral de los neuroderechos, como derechos esenciales y fundamentales de todas las personas humanas ante los tratamientos, avances, desarrollos, investigaciones y/o intervenciones de las neurociencias y las neurotecnologías.
Mediante el trabajo en la Comisión, se pretende elaborar una regulación interdisciplinaria sobre la libertad cognitiva, la neuroprivacidad y los riesgos del inquietante fenómeno emergente del llamado “neurocapitalismo”. Todo ello, en línea con experiencias pioneras como la reforma constitucional chilena de 2021 —la primera en incorporar la protección de la integridad mental frente a avances científicos y tecnológicos— y las recomendaciones del Comité Internacional de Bioética de la UNESCO[ii]: “Las neurotecnologías están llamadas a desempeñar un papel cada vez más importante en nuestras vidas. Para bien cuando se trata de aportar soluciones para tratar algunas patologías neurológicas o mentales, o para mal si abren paso a una explotación no consentida de los datos extraídos de nuestro cerebro. El último informe del Comité Internacional de Bioética (CIB) de la UNESCO aborda precisamente cuestiones éticas y jurídicas inéditas suscitadas por el notable desarrollo reciente de las neurociencias, formula diversas recomendaciones al respecto y propugna el reconocimiento de nuevos derechos humanos: los “neuroderechos”. Porque las neurotecnologías, que posibilitan el registro y la transmisión de datos neuronales, también abren potencialmente el acceso a las informaciones almacenadas en el cerebro. Esto constituye un problema muy delicado ya que esas informaciones cada vez se utilizan más en el campo de la medicina, pero también en los ámbitos de la industria, el marketing y los juegos. Ahora bien, aunque existen marcos legales para proteger la vida privada de los consumidores, en lo que respecta a los riesgos éticos que pueden entrañar las neurotecnologías el vacío jurídico es prácticamente total. El sistema existente de protección de los derechos humanos no llega a abarcar todos los aspectos propios de las neurociencias, como la confidencialidad mental o el libre albedrío. En informe hace un llamamiento a todos los países para que garanticen los “neuroderechos” de sus ciudadanos promulgando leyes que protejan su derecho a la privacidad mental y la libertad de pensamiento. EL CIB insiste en la necesidad de prestar una atención especial a los niños y adolescentes, a causa de la plasticidad de su cerebro en vías de desarrollo. El CIB también insta a las empresas tecnológicas a adoptar un código de conducta para una investigación y una innovación responsables, y al mismo tiempo invita a los investigadores a respetar los principios de confidencialidad, seguridad y no discriminación. Los autores del informe destacan también que los medios tienen que desempeñar una función específica explicando objetivamente los problemas vinculados a las neurotecnologías que pueden plantearse, a fin de que el público pueda decidir, con conocimiento de causa, qué puede admitir y qué resulta inaceptable. Por último, el CIB sugiere que sea la UNESCO la que encabece los esfuerzos encaminados a garantizar a todos los seres humanos una protección de sus actividades cerebrales para que los datos recogidos sólo se puedan utilizar, publicar o intercambiar con el consentimiento aclarado y explícito de las personas interesadas. La Organización ha entablado ya una serie de discusiones a nivel internacional para elaborar una hoja de ruta que sirva de base para establecer un marco mundial de gobernanza de las neurotecnologías.”[iii]
Esto subraya la imperativa necesidad de regular de manera inminente. Sin embargo, aún no existe consenso en las diversas facetas de su regulación, por lo que hace esencial un debate amplio e interdisciplinario, y la Comisión Bicameral estaría llamada a convertirse en ese espacio de confluencia para el debate. Si bien, el conjunto de los derechos humanos reconoce que la ciencia y la tecnología deben servir a las personas humanas y respetar sus derechos y libertades fundamentales, es necesario contar con una regulación específica que emane del acuerdo entre diversos sectores.
Los datos personales y la privacidad
Por último, estamos terminando de confeccionar —para su inmediata presentación— un proyecto de ley de actualización integral de la Ley de Protección de Datos Personales, apuntando a la modernización completa de la norma actualmente vigente (Ley 25.326, del año 2000) (Acceda al texto: https://institutoargentina2050.com.ar/2024/05/06/proyecto-de-ley-proteccion-de-los-datos-personales/).
Esta nueva iniciativa incorpora principios y figuras jurídicas como la privacidad desde el diseño, las decisiones automatizadas, la portabilidad de datos, la supervisión algorítmica y la responsabilidad proactiva. Se trata de un trabajo construido a partir de los más altos estándares internacionales, como el Reglamento General de Protección de Datos de la Unión Europea (GDPR), la Declaración de Derechos Digitales Iberoamericana, y las recomendaciones del Comité Jurídico Interamericano de la OEA[iv].
Establece las reglas para el debido tratamiento de los datos personales y la autodeterminación informativa, así como el ejercicio de otros derechos y los deberes de quienes realizan dicho tratamiento.
Cada vez que interactuamos en la red, ya sea a través de una compra online, una red social o la suscripción a un newsletter, autorizamos la recolección de nuestros datos personales, sin entender acabadamente los términos y condiciones que aceptamos e incluso, muchas otras, ni siquiera manifestamos de manera expresa dicho consentimiento. A esto, se suma el desarrollo de nuevas tecnologías y entre ellas la inteligencia artificial (IA), que ahora van más allá de analizar y clasificar datos, ya que, hasta crean nuevos contenidos. Con la IA se analizan y utilizan los datos recolectados de forma automatizada, para la elaboración de perfiles y la toma de decisiones.
En otros términos, cuando navegamos y utilizamos motores de búsqueda, producimos datos que van desde nuestros intereses, ubicación, gustos, e incluso el tiempo que tardamos leyendo o viendo algo específico; y estos datos son utilizados a través de algoritmos para inferir nuestras preferencias y orientar la publicidad, cuando no para incidir en nuestro comportamiento. Y esta capacidad de inferir datos, genera una profunda preocupación por la afectación a las libertades, a la privacidad y a la seguridad de los datos personales.
Las políticas de tratamiento de datos personales y sus actualizaciones en las diferentes apps no son comprendidas y a veces ni siquiera leídas por los usuarios al otorgar su consentimiento, el cual ha pasado a ser un mero formalismo, que, lejos está de garantizar el control sobre la información personal y su consiguiente protección. ¿Se puede consentir aquello que no se comprende?. La respuesta negativa se impone.
Conforme una encuesta realizada por Amnistía Internacional[v], en Argentina 3 de cada 4 personas están preocupadas por el uso de los datos personales que hacen las grandes compañías de tecnología. La encuesta, también reveló que, el 80% de los consultados considera que debe regularse.
La iniciativa se sustenta en 3 pilares:
a) el derecho humano a la protección de los datos personales y la autodeterminación informativa,
b) la innovación tecnológica basada en principios éticos que promueva un desarrollo económico inclusivo,
c) la construcción de confianza a través de reglas de juego claras.
Hay que desterrar la falsa dicotomía entre la innovación versus la regulación. Es necesario promover y promocionar la innovación tecnológica y el desarrollo de la economía del conocimiento y digital y, en paralelo, establecer reglas claras desde un enfoque de derechos humanos en consonancia con los estándares internacionales en la materia.
Conclusiones
Las tres iniciativas no representan compartimentos estancos, sino que dialogan entre sí y convergen en un marco coherente que ofrece regulación jurídica a tecnologías que, por su propia naturaleza y funcionamiento, resultan convergentes. Asimismo, esta “trilogía” implica una invitación pública —en el sentido más amplio de la expresión— al diálogo democrático, al debate abierto y respetuoso, a la participación social y a la cooperación internacional. Porque regular la tecnología no es oponerse al progreso, sino definir colectivamente en qué términos queremos convivir con ese progreso y hacia dónde queremos orientarlo.
Con este objetivo, desde el Senado de la Nación ya hemos dado un primer paso, con el inicio de un extenso ciclo de jornadas de reflexión y debate público, en el cual destacados especialistas en los diversos campos involucrados —ética, derecho, neurociencia, informática, ciberseguridad— están aportando sus conocimientos para enriquecer las propuestas normativas en cuestión. Pero la urgencia no es solo técnica: es histórica. La aceleración exponencial del cambio tecnológico ha trastocado ya no solo la vida de las personas, sino también los marcos institucionales que garantizan la soberanía y la democracia. La velocidad con que avanzan los sistemas de IA, la manipulación de datos y las neurotecnologías supera hoy la capacidad regulatoria de los Estados y amenaza con desplazar el protagonismo del ser humano como sujeto de derecho.
Si no actuamos a tiempo, corremos el riesgo de que la planificación y el ordenamiento de nuestra vida en común queden en manos de un puñado de actores globales que —al menos en el escenario actual— controlan las infraestructuras tecnológicas, los flujos de información y los sistemas de decisión automatizados. La política no puede permanecer indiferente ni tampoco inerme frente a semejante fenómeno. El mismo impulso que nos llevó a prohibir prácticas como la clonación humana reproductiva mediante compromisos internacionales y principios constitucionales en defensa de la dignidad humana, y a legislar sobre comercio electrónico o sobre los derechos del consumidor en entornos digitales —como el derecho al arrepentimiento en compras online— debe ahora llevarnos a responder al desafío más profundo de este siglo: proteger la dignidad humana, la autonomía individual, la privacidad y la libertad personal frente a tecnologías que, sin la debida regulación, amenazan con transformarnos en objetos de cálculo y manipulación.
Argentina tiene la oportunidad histórica de convertirse en un actor regional de vanguardia. Pero para lograrlo, debemos construir un consenso político, social y académico que entienda que el futuro ya llegó —y que el derecho, si no lo regula, lo legitima por omisión.
[i] Martín Doñate es Senador de la Nación por la Provincia de Río Negro. Es también el Presidente del Instituto Argentina 2050.
[ii] https://www.unesco.org/es/articles/recomendaciones-del-comite-internacional-de-bioetica-de-la-unesco-0
[iii] Luis Vásquez, La regulación de la neuroprotección en Chile: una aproximación al estudio de los Neuroderechos, Revista Argentina de Teoría Jurídica (RATJ), Volumen 22, Número 1, diciembre 2021
[iv] https://www.oas.org/es/sla/ddi/proteccion_datos_personales_ley_modelo.asp
[v] https://amnistia.org.ar/noticias/en-argentina-3-de-cada-4-personas-estan-preocupadas-por-el-uso-de-los-datos-personales-que-hacen-las-grandes-companias-de-tecnologia