Dña. Belén Arribas.
Presidenta ENATIC, Presidenta IFCLA, abogada experta en regulación digital.
Entrevista realizada por José Mª Camarero (Periodista económico) en el marco del Proyecto de ADICAE: “Los consumidores ante los nuevos avances tecnológicos y legislativos en el E-commerce”
-¿De qué debemos fiarnos, y de qué no en términos legales y de protección de datos, cuando nos enfrentamos a una aplicación de IA?
R: Debemos fiarnos de aplicaciones de IA que cumplan con la legislación vigente, como el Reglamento General de Protección de Datos (RGPD), y que ofrezcan transparencia y una adecuada gobernanza en relación al tratamiento de datos. De igual manera, hemos de preocuparnos de que las aplicaciones de IA que usamos respeten los derechos de propiedad intelectual.
No debemos confiar en aplicaciones que no expliquen claramente cómo se recaban, usan o ceden los datos personales, ya que su uso podría representar riesgos para la protección de datos y, por ende, de incumplimiento normativo con consecuencias sancionatorias o reputacionales.
-¿Es correcta la regulación actual sobre la IA, tras la nueva Ley de Inteligencia Artificial europea?
R: El nuevo Reglamento IA establece una base normativa, pionera en el mundo, al clasificar los riesgos de la tecnología y regular las áreas de mayor impacto. Sin embargo, aún hemos de presencias cómo se resuelven problemas como su aplicación práctica y que nuevos desarrollos e innovaciones futuras pueden quedar fuera del alcance del marco legal.
El Reglamento IA, por otro lado, ha sido muy criticado por algunos sectores que defienden que impide o frena la innovación, frente a la ventaja competitiva que nos llevan algunos países no europeos.
¿Se ha quedado corta o ha ido demasiado lejos? ¿Veremos aprobarse más obligaciones normativas con el paso de los meses?
R: En algunos aspectos, se dice que se ha quedado corta al no abordar completamente los impactos de tecnologías como la IA Generativa o los grandes modelos lingüísticos.
Podría ser que por vía de reforma legislativa, mediante actos de la Comisión, se introduzcan obligaciones adicionales, especialmente en áreas como la protección del consumidor y la transparencia algorítmica.
se ha quedado corta al no abordar completamente los impactos de tecnologías como la IA Generativa. Podría ser que por vía de reforma legislativa, mediante actos de la Comisión, se introduzcan obligaciones adicionales, especialmente en áreas como la protección del consumidor y la transparencia algorítmica.
-En muchos debates, la IA se expone como un riesgo brutal para la sociedad. En otros debates, solo se habla de las bondades de la tecnología. ¿Cuál es el punto óptimo en estas dos visiones antagónicas desde su punto de vista legal?
R: En efecto, a menudo se contraponen visiones catastrofistas a visiones demasiado optimistas que confían en que la IA lo salvará todo. En particular, los medios de comunicación abonan un enfoque apocalíptico y no nos parece que sea la mejor manera de enfocarlo de cara al gran público. Más que asustar a la ciudadanía, hemos de informarla y educarla.
Por otro lado, como se ha dicho también por parte de las instituciones europeas, el punto óptimo está en regular los riesgos sin frenar la innovación, adoptando un enfoque de precaución informado. La ley debe enfocarse en garantizar que las aplicaciones de IA sean seguras, transparentes y respetuosas con los derechos humanos, equilibrando protección y progreso tecnológico.
-¿Cómo debemos clasificar y definir los riesgos de la IA para el consumidor, ante un impacto tan extenso como el que tiene esta tecnología actualmente?
R: Los riesgos se pueden clasificar en éticos (sesgos en los resultados), de privacidad (uso indebido de datos), económicos (impacto en empleos) y sociales (desinformación).
El Reglamento aborda unos y otros riesgos e impone un sistema de responsabilidad a los desarrolladores para la protección de los usuarios y de las partes interesadas. A tener en cuenta también son las posibles afectaciones a los derechos fundamentales.
Los riesgos se pueden clasificar en éticos (sesgos en los resultados), de privacidad (uso indebido de datos), económicos (impacto en empleos) y sociales (desinformación).
-¿Los ciudadanos se encuentran ahora más desprotegidos que antes ante lo que les ofrece la IA?
R: En algunos casos, sí, ya que las tecnologías avanzan más rápido que la norma. Sin embargo, iniciativas pioneras como el Reglamento europeo de IA están empezando a abordar esta desprotección, ofreciendo más salvaguardas legales, éticas y de gobernanza.
-¿Cómo se establece hasta dónde llega la ética de la IA?
R: La ética en la IA debe definirse a través de estándares claros, como el principio de beneficiencia y no maleficencia (com por ejemplo los usos para la guerra) y otros principios, así como la transparencia algorítmica. También es crucial que existan órganos de supervisión independientes para garantizar el cumplimiento de las obligaciones y la salvaguardia de los
-Para muchos ciudadanos, sobre todo jóvenes, ChatGPT se ha convertido en una tecnología básica en su día a día. ¿Nos podemos fiar de todo lo que nos diga esta herramienta?
R: pues no siempre, porque ChatGPT puede generar respuestas inexactas, incompletas o sesgadas. Aunque es una herramienta útil, debe complementarse con fuentes verificables y por parte de personas con conocimiento de la materia en cuestión. Lo que es especialmente verdad para temas sensibles como la salud, la seguridad y los derechos de las personas.
-En el caso de los datos biométricos, ¿se encuentran bien regulados?
R: Aunque hay avances, como las restricciones del RGPD en el tratamiento de datos biométricos, la regulación sigue siendo insuficiente en la protección contra usos indebidos. Se necesitan medidas más específicas para abordar riesgos como la vigilancia masiva y el mal uso en aplicaciones comerciales.
-¿Cómo se debe desarrollar la IA para que no caiga en un pozo repleto de mentiras y muera de éxito?
R: La IA debe desarrollarse con datos fiables, auditorías independientes y mecanismos de corrección de sesgos. Además, es esencial fomentar la responsabilidad de los desarrolladores en la creación de herramientas que prioricen la precisión, la ética y las estructuras de gobernanza de los datos y los contenidos.
¿Qué acciones debe ejercitar la Administración española para poner en la práctica el reglamento europeo adaptándolo a la realidad de nuestro país?
R: La Administración debe invertir en educación digital, dotar de poder y presupuestos a organismos que supervisen la implementación de la normativa (la AESIA y otros) y fomentar la colaboración público-privada. También ha de poner en práctica el sandbox de IA, previsto en el Reglamento IA y sobre el cual ya tenemos una reglamentación aprobada y vigente en España. También debe centrarse en sectores clave como la protección del consumidor y el uso ético de la IA en el ámbito laboral. La Carta de Derechos Digitales es un buen ejemplo de norma prospectiva e inspiradora de políticas públicas, pero todavía ha de ser desarrollada e implementada.
La Administración debe invertir en educación digital, dotar de poder y presupuestos a organismos que supervisen la implementación de la normativa (la AESIA y otros) y fomentar la colaboración público-privada.
-¿Pueden ejercer los poderes públicos en España determinadas acciones legales para evitar un impacto negativo de la IA en los consumidores
R: Sí, pueden imponer sanciones a las empresas que no cumplan con la normativa y fomentar el acceso a herramientas de IA seguras y transparentes. Además, pueden desarrollar campañas de sensibilización para que los consumidores comprendan mejor los riesgos y beneficios.
- ¿La regulación de la IA va ya por detrás de la realidad, de lo que viven los ciudadanos en su día a día?
R: En gran medida, sí, ya que las tecnologías avanzan a un ritmo que supera la capacidad legislativa. Esto deja a los ciudadanos en una situación de vulnerabilidad ante posibles abusos o fallos de las aplicaciones de IA.
-¿Cuál debe ser esa regulación a partir de ahora? ¿Son los ciudadanos más vulnerables socialmente los más expuestos a estos peligros de la IA?
La regulación debe centrarse en garantizar la transparencia algorítmica, la seguridad de los datos y la responsabilidad legal de los desarrolladores. Los ciudadanos más vulnerables están en mayor riesgo, ya que a menudo carecen de los recursos o conocimientos necesarios para defender sus derechos.