Categorías: Sin categoría

D. Iñigo García de Mata, profesor del Máster en Blockchain e inversión en activos digitales del IEB.

D. Iñigo García de Mata.

Profesor del Máster en Blockchain e inversión en activos digitales del IEB

Entrevista realizada por José Mª Camarero (Periodista económico) en el marco del Proyecto de ADICAE: “Los consumidores ante los nuevos avances tecnológicos y legislativos en el E-commerce”

-¿De qué debemos fiarnos, y de qué no, cuando nos enfrentamos a una aplicación de IA?

Cuando hablamos de aplicaciones de IA, el objetivo principal que perseguimos habitualmente es facilitarnos el trabajo especifico. Que quiere decir esto, pues si nos fijamos en el uso habitual de las aplicaciones como ChatGPT, dall-E y similares, nos acercan la capacidad de un traductor, un dibujante, un programador,… y con el paso del tiempo, este rol que asume la IA se va perfeccionando, pero siempre debemos someterlo a un juicio de calidad. Por ello, podemos fiarnos en reglas generales para un uso que no necesitaría de un perfil de alta especialización, pero cuando si lo requiera, debemos buscar un contrapunto de un especialista, que necesitará menos esfuerzo para lograr el mismo objetivo.

ChatGPT, dall-E y similares, podemos fiarnos en reglas generales para un uso que no necesitaría de un perfil de alta especialización

-¿Es correcta la regulación actual sobre la IA, tras la nueva Ley de Inteligencia Artificial europea?

Aunque a priori podemos pensar que la regulación ralentiza la innovación, lo cierto es que poner una serie de reglas del juego para poder crear tecnología que sea responsable y justa para todos, lo considero de vital importancia. En la nueva regulación Europea, se persiguen tres objetivos, que aunque pueden necesitar diversas iteraciones para que su aplicación practica sea la mejor posible, son un buen punto de partida:

  • Garantizar la seguridad y los derechos fundamentales de los ciudadanos
  • Fomentar la innovación y la competencia en el mercado de la IA.
  • Promover la transparencia de la IA.

Creo que el foco en la transparencia y la seguridad son cruciales para una IA accesible para todos, aunque creo que sería importante tener un margen para utilizar IAs de forma completamente libre para investigar su comportamiento y funcionamiento.

-¿Se ha quedado corta o ha ido demasiado lejos?

De momento, se ha quedado corta, pero porque la tecnología avanza más rápido que la regulación, por lo que es probable que siempre se quede detrás. Pero es importante que intente cubrir todos los frentes posibles, sin perder la flexibilidad de modificarse y adaptarse a las necesidades del mercado.

-En muchos debates, la IA se expone como un riesgo brutal para la sociedad. En otros debates, solo se habla de las bondades de la tecnología. ¿Cuál es el punto óptimo en estas dos visiones antagónicas?

Soy partidario de que la tecnología es neutral; somos nosotros quienes debemos usarla correctamente. Una buena regulación puede impedir que demos herramientas peligrosas a los usuarios. Así como existen diferentes tipos de carnets para conducir, deberíamos tener requisitos específicos para trabajar con ciertas aplicaciones de IA. Es crucial llevar la tecnología al límite para prevenir usos maliciosos, porque si no, otros lo harán y nos encontrarán desprevenidos. 

existen diferentes tipos de carnets para conducir, deberíamos tener requisitos específicos para trabajar con ciertas aplicaciones de IA.

-¿Cómo debemos clasificar y definir los riesgos de la IA para el consumidor, ante un impacto tan extenso como el que tiene esta tecnología actualmente?

En mi conocimiento, la IA tienes dos grandes grupos de riesgo para los usuarios, uno, donde se provee al usuario de una herramienta que le acerca el conocimiento muy avanzado en gran cantidad de materias, reduciendo la barrera de entrada que pueden tener ciertas acciones de riesgo, y, por otro lado, esta el riesgo que puede entrañar interactuar con ciertas IAs que pueden generar contenido inapropiado para el usuario (por ejemplo, un autodiagnóstico medico mediante chatGPT). 

el riesgo que puede entrañar interactuar con ciertas IAs que pueden generar contenido inapropiado para el usuario (por ejemplo, un autodiagnóstico medico mediante chatGPT).

-¿Los ciudadanos se encuentran ahora más desprotegidos que antes ante lo que les ofrece la IA?

Yo creo que no, cada vez los usuarios van conociendo como funcionan los modelos, y la fascinación inicial esta dando paso a un uso cada vez más operativo y que permite a los usuarios explorar y entender las limitaciones existentes.

-¿Cómo se establece hasta dónde llega la ética de la IA?

Yo creo que la ética de la IA la debe elegir cada creador, sabiendo que según las limitaciones éticas que imponga a su modelo, podrá ofrecerlo a unos usuarios u otros, siendo el caso más extremo únicamente interesante para la investigación.

-Para muchos ciudadanos, sobre todo jóvenes, ChatGPT se ha convertido en una tecnología básica en su día a día. ¿Nos podemos fiar de todo lo que nos diga esta herramienta?

De momento, no, y creo que para poder fiarnos al 100%, aún le queda bastante recorrido, pero creo que podemos confiar en que los resultados que arroja pueden ser de gran utilidad y ahorrarnos mucho trabajo, aunque mi experiencia es que todavía se necesita casi el mismo esfuerzo para conseguir el resultado final esperado que cuando no teníamos chatGPT.

-¿Cómo se debe desarrollar la IA para que no caiga en un pozo repleto de mentiras y muera de éxito?

Es una pregunta complicada, pero lo cierto es que, a día de hoy, aunque se ha colado en nuestro día a día en tareas cotidianas, y ha generado grandes mejoras en muchos procesos, la mayoría de estos son para el usuario final, aún se esta explorando su uso a nivel corporativo, y será esa via de actuación la que determinará los próximos años de la evolución de la IA.

-¿Pueden ejercer los poderes públicos en España determinadas acciones legales para evitar un impacto negativo de la IA en los consumidores?

Un mecanismo dual basado en formación y prevención, puede ser una forma muy interesante mediante la cual, las administraciones públicas pueden crear una barrera que proteja al ciudadano, sin mermar en exceso el acceso y la exploración de posibilidades de la IA, lo que seguro será un generador de empleo en los próximos años.

-¿La regulación de la IA va ya por detrás de la realidad, de lo que viven los ciudadanos en su día a día?

Yo creo que si, pero es cierto que a medida que avanza la IA, el avance es más sutil, aunque más interesante, por eso, aunque siempre estará desfasada, ese desfase es aceptable y saludable.

-¿Cuál debe ser esa regulación a partir de ahora? ¿Son los ciudadanos más vulnerables socialmente los más expuestos a estos peligros de la IA?

La regulación debe partir de la formación, el tener el conocimiento necesario para discernir los resultados de cualquier IA, es clave para utilizarla de forma correcta. Esto hace que aquellas personas que por su situación han tenido una formación más escasa, se encuentren en mayo riesgo de caer en un mal uso de la IA.

supervisor