Categorías: Sin categoría

D. Borja Adsuara Varela. Experto en Derecho y Estrategia Digital.

D. Borja Adsuara Varela.

Experto en Derecho y Estrategia Digital.

Entrevista realizada por José Mª Camarero (Periodista económico) en el marco del Proyecto de ADICAE: “Los consumidores ante los nuevos avances tecnológicos y legislativos en el E-commerce”

-¿De qué debemos fiarnos, y de qué no, cuando nos enfrentamos a una aplicación de IA?

Debemos revisar en el ‘Aviso Legal’ dónde se encuentra la sede de la empresa. Si está en la UE, podemos fiarnos, porque estará sujeta la legislación europea: tanto al Reglamento de Inteligencia Artificial (RIA) como al Reglamento General de Protección de Datos (RGPD) o a la DSA (Reglamento de Servicios Digitales). Pero, si la sede no está en la UE, no debemos fiarnos mucho de ella.

Dónde se encuentra la sede de la empresa. Si la sede no está en la UE, no debemos fiarnos mucho de ella.

-¿Es correcta la regulación actual sobre la IA, tras la nueva Ley de Inteligencia Artificial europea?

Es correcta, pero como un marco regulatorio de referencia. El Reglamento de Inteligencia Artificial es una norma horizontal o transversal, pero ya se habían aprobado antes algunas normas verticales o sectoriales con referencias a la IA (como el RGPD, la DSA, la Directiva de Copyright en el Mercado único Digital o la Directiva relativa a la mejora de las condiciones laborales en plataformas digitales) y se seguirán aprobando otras.

¿Se ha quedado corta o ha ido demasiado lejos?

Sienta una serie de principios, que deben desarrollarse. No sólo mediante leyes, europeas y nacionales, sino también mediante un ‘sandbox’ regulatorio y Guías de Buenas Prácticas.

En muchos debates la IA se expone como un riesgo brutal para la sociedad. En otros debates solo se habla de las bondades de la tecnología. ¿Cuál es el punto óptimo en estas dos visiones antagónicas?

Como en cualquier tema, las dos visiones son parciales. El punto óptimo de estas dos visiones es la visión completa, porque está claro que los usos de la IA, como de cualquier tecnología, pueden ser buenos y malos.

¿Cómo debemos clasificar y definir los riesgos de la IA para el consumidor, ante un impacto tan extenso como el que tiene esta tecnología actualmente?

El mayor riesgo de la IA para el consumidor es el tratamiento ilegal de sus datos personales con el fin de manipularle y condicionar sus decisiones de compra, utilizando su perfil psicológico y algoritmos poco éticos.

¿Los ciudadanos se encuentran ahora, ante lo que les ofrece la IA, más desprotegidos que antes?

Sin duda. Por eso es muy importante no sólo la regulación de los usos de la IA, sino, sobre todo, la supervisión de dichos usos. Las fortalezas son evidentes: gracias a los patrones y perfiles que utiliza, la IA, nos ayuda a buscar información o productos de acuerdo con nuestros gustos e intereses, pero los riesgos y amenazas están en los sesgos y la manipulación.

¿Cómo se establece hasta dónde llega la ética de la IA?

Con las leyes, que son las que ofrecen seguridad jurídica. Todas las Leyes tienen implícitas unos valores éticos, que parten del respeto a los Derechos Humanos. Pero lo importante es saber quién tiene la responsabilidad jurídica si algo va mal.

Para muchos ciudadanos, sobre todo jóvenes, ChatGPT se ha convertido en una tecnología básica en su día a día. ¿Nos podemos fiar de todo lo que nos diga esta herramienta?

La IA generativa se está convirtiendo en la nueva forma de buscar información en red y también de generarla. El riesgo está en que no se conoce de qué fuentes bebe y en que, cuando no encuentra una información, se la inventa: las famosas ‘alucinaciones’. También en que se centra sólo en las respuestas más probables o frecuentes. Es un buen punto de partida, pero hay que contrastar los datos.

¿Cómo se debe desarrollar la IA para que no caiga en un pozo repleto de mentiras y muera de éxito?

Entrenamiento y supervisión con el método científico, académico y periodístico: comprobando las fuentes primarias de información y contrastando los hechos. Es la base del conocimiento humano, de la ciencia y del periodismo.

¿Qué acciones debe ejercitar la Administración española para poner en la práctica el reglamento europeo adaptándolo a la realidad de nuestro país?

Debe poner en marcha un ‘sandbox’ regulatorio, elaborar una Guías de Buenas Prácticas sectoriales para dar seguridad jurídica y una autoridad independiente de supervisión de la IA (la AESIA es un organismo dependiente de la SEDIA)

¿Pueden ejercer los poderes públicos en España determinadas acciones legales para evitar un impacto negativo de la IA en los consumidores?

Por supuesto; cada una de las Autoridades sectoriales deben velar por el buen uso de la IA en sus respectivos ámbitos. La IA es un fenómeno transversal, que tendrá distinto uso e impacto en un sector o en otro.

¿La regulación de la IA va ya por detrás de la realidad, de lo que viven los ciudadanos en su día a día?

La regulación siempre va por detrás de la innovación y de la realidad que viven los ciudadanos en su día a día. Sería imposible que fuera por delante. Pero eso no quiere decir que haya un vacío regulatorio, porque las leyes no regulan una tecnología concreta, sino lo que se hace con ella. Una estafa es una estafa, se haga con el timo de la estampita (física) o con una ‘deepfake’ elaborada con IA.

¿Cuál debe ser esa regulación a partir de ahora?

Habrá actos de ejecución de la Comisión europea, leyes sectoriales (por ejemplo, en materia de propiedad intelectual, sector financiero, asegurador, sanitario, etc.) y directrices de la Oficina europea de IA.

¿Son los ciudadanos más vulnerables socialmente los más expuestos a estos peligros de la IA?

Los ciudadanos más expuestos a los peligros de la IA serán los que no tengan acceso a ella. Se va a producir una nueva brecha digital, entre los que no sepan utilizarla, que quedarán excluidos del mercado del trabajo, y los que sí se formen.

Los ciudadanos más expuestos a los peligros de la IA serán los que no tengan acceso a ella. Se va a producir una nueva brecha digital, entre los que no sepan utilizarla, que quedarán excluidos del mercado del trabajo, y los que sí se formen.

supervisor