D. Ramón Miralles.
Profesor de OBS Business School.
Entrevista realizada por José Mª Camarero (Periodista económico) en el marco del Proyecto de ADICAE: “Los consumidores ante los nuevos avances tecnológicos y legislativos en el E-commerce”
-¿De qué debemos fiarnos, y de qué no, cuando nos enfrentamos a una aplicación de IA?
En general, para tener confianza en una aplicación que use IA, en primer lugar debemos tener en cuenta quién nos propone usarla, quien nos la ofrece; por tanto, debemos valorar si es una empresa o entidad conocida, o no, y como en todo lo que tienen que ver con el uso de las TIC debemos desconfiar de lo desconocido, ya que la propia naturaleza de la red hace que no siempre tengamos la certeza de quién hay
detrás de una aplicación.
para tener confianza en una aplicación que use IA, en primer lugar debemos tener en cuenta quién nos propone usarla, quien nos la ofrece; por tanto, debemos valorar si es una empresa o entidad conocida, o no, y como en todo lo que tienen que ver con el uso de las TIC debemos desconfiar de lo desconocido, ya que la propia naturaleza de la red hace que no siempre tengamos la certeza de quién hay detrás de una aplicación.
Partiendo de la base de que es un sistema de IA en el que podemos confiar, debemos tener en cuenta cuales son las funcionalidades de la aplicación, es decir, el uso que le vamos a dar; en general, si se trata de una aplicación que nos resuelve dudas o cuestiones sobre temáticas concretas, por ejemplo relacionadas con la historia o cualquier otra materia tipica de estudio, nos podremos fiar de sus respuestas, ya que se trata de información que no requiere una actualización continuada. En cambio, si se trata de temas en los que la información cambia con una cierta periodicidad, debemos tener cuidado, puesto el entrenamiento de la IA no es continuo. Por ejemplo, si es una IA especializada en temas jurídicos, podemos encontrarnos con que tal vez no esté actualizada a una ley recientemente publicada.
Cuanto más compleja sea la pregunta o problema a resolver por parte de la IA, más medidas debemos adoptar para contrastar la información y menos debemos confiar de los resultados. Y dependiendo del uso que vayamos a dar a la respuesta será necesario ser más prudentes a la hora de usarla, en función de las consecuencias que pueda tener.
En general no podemos partir de la base de que la IA es infalible, puede equivocarse.
-¿Es correcta la regulación actual sobre la IA, tras la nueva Ley de Inteligencia Artificial europea?
Es una regulación orientada a la seguridad de la IA, en el sentido de considerar que la IA es un producto cuyo consumo por parte de terceros, o por nosotros mismos, no está exento de riesgos. En función del riesgo, las exigencias de la norma son mayores, llegando incluso a la prohibición de ciertos usos cuando ese riesgo sea inaceptable.
Al tratarse de una norma de seguridad de producto, cubre todo el ciclo de vida de los sistemas de IA, desde su desarrollo a su distribución, importación, despliegue (uso por parte de empresas y entidades), su incorporación en otros productos (automóviles, electrodomésticos inteligentes, asistentes virtuales, etc.). Por tanto, a toda la cadena de agentes que están involucrados en los sistemas de IA se les aplica el Reglamento de IA.
El enfoque a riesgos y que la norma aplique a todo el ciclo de vida de los sistemas de IA hace que sea una norma adecuada en lo que respecta a que se puede confiar en los sistemas de IA, al menos con el actual estado de la IA en termino de tecnología.
También hay que mencionar que se trata de una regulación centrada en proteger a las personas ante potenciales vulneraciones de sus derechos y libertades fundamentales, como vienen siendo habitual en las normas de la UE.
Además, el hecho de que existan autoridades específicas de supervisión del cumplimento de Reglamento de IA y que se complemente con el Reglamento de protección de Datos Personales hace que a priori sea un marco jurídico aceptable.
Por supuesto, el hecho de que se hayan excluido ciertos ámbitos del Reglamento de IA hace que sea incompleta, ya que no aplica al uso militar o la seguridad nacional, entre otros, pero para aquello a lo que aplica es una regulación correcta.
¿Se ha quedado corta o ha ido demasiado lejos?
Para el actual estado de las tecnologías de IA y los potenciales usos, es una norma equilibrada, regula lo que en estos momentos se puede regular sin perjuicio de que, probablemente, hacia el año 2028 deba ser revisada, una vez agotados todos los plazos para su aplicación.
-En muchos debates, la IA se expone como un riesgo brutal para la sociedad. En otros debates, solo se habla de las bondades de la tecnología. ¿Cuál es el punto óptimo en estas dos visiones antagónicas?
Por definición todas las tecnologías y todos los avances tecnológicos, junto con los evidentes beneficios que suponen, exponen a riesgos a las personas, algunas incluso ponen en riesgo la vida de las personas o pueden llegar a causar graves daños.
Pensemos en la industria automovilística, la aviación, la energía nuclear, la industria farmacéutica, etc.. Por supuesto, el actual grado de desarrollo de la IA puede suponer riesgos importantes, como la discriminación, el control social, la vigilancia indiscriminada de la personas, la manipulación o incluso poner en riesgo la democracia y los estados de derecho, pero precisamente, para eso está la regulación, para detectar esos riesgos e imponer límites.
No es una visión antagónica, son 2 caras de la misma moneda y debemos convivir con ello.
-¿Cómo debemos clasificar y definir los riesgos de la IA para el consumidor, ante un impacto tan extenso como el que tiene esta tecnología actualmente?
Desde el punto de vista de los consumidores y los ciudadanos los principales riesgos tienen que ver con la manipulación de sus comportamientos o de las ideas de las personas; en un segundo lugar debemos prestar especial atención a las cuestiones relacionadas con la ciber-inseguridad, ya que la IA se usa también para cometer ciberdelitos con métodos cada vez más sofisticados y de más difícil detección.
-¿Cómo se establece hasta dónde llega la ética de la IA?
La ética no es la ley. Un texto legal es algo que queda fijado mediante un procedimiento legislativo, y tiene como resultado la concreción de un conjunto de derechos y obligaciones. Por tanto, como principio general el contenido de la ley y lo que pretende es conocido y es común para todos aquellos a los que aplica esa ley.
En cambio, hay muchas éticas diferentes. Aunque el concepto de ética esté relacionado con discernir lo que está bien y lo que está mal, no es lo mismo la ética que pueda tener una persona, una profesión mediante un código deontológico, una cultura o una sociedad, un grupo religioso o étnico, etc.
La ética relacionada con el Reglamento Europeo de la IA tiene en cuenta los principios y valores europeos, con una clara orientación humanística, por tanto, enfocada a proteger los derechos humanos. Pero no tiene por qué coincidir con el planteamiento ético que se pueda hacer en otras zona geo-políticas del mundo.
Por tanto, la ética de la IA llegará hasta donde los principios y valores de quien la desarrolle o despliegue la lleven.
No existe una ética universal. En cambio la IA es una tecnología global, por tanto, no hay un único modo de establecer hasta donde debe llegar.
-Para muchos ciudadanos, sobre todo jóvenes, ChatGPT se ha convertido en una tecnología básica en su día a día. ¿Nos podemos fiar de todo lo que nos diga esta herramienta?
No, en absoluto. Contiene sesgos negativos que se ha demostrado que amplifica y perpetúa, alucinaciones que provocan respuestas fuera de lugar, puede no estar actualizada o sencillamente se ha podido entrenar con información no adecuada; el hecho de que, hoy por hoy, no existe un control de calidad de la IA como producto, hace que no podamos fiarnos por completo. No se trata de dejar de usarla, se trata de aplicar un cierto sentido crítico a las respuestas que nos proporciona y contrastarlas.
hoy por hoy, no existe un control de calidad de la IA como producto, hace que no podamos fiarnos por completo. No se trata de dejar de usarla, se trata de aplicar un cierto sentido crítico
-¿Cómo se debe desarrollar la IA para que no caiga en un pozo repleto de mentiras y muera de éxito?
Aplicando estándares de calidad al desarrollo y al entrenamiento de la IA, con códigos deontológicos y sometiendo a los sistemas de IA a supervisión humana. A la industria no le interesa que no confiemos en la IA, por tanto, son procesos de control que iremos viendo con el tiempo; ahora todavía estamos en la fase de deslumbramiento provocado por la magia de la IA, pero eso se nos pasará tarde o temprano.
ahora todavía estamos en la fase de deslumbramiento provocado por la magia de la IA, pero eso se nos pasará tarde o temprano.
-¿Qué acciones debe ejercitar la Administración española para poner en la práctica el reglamento europeo adaptándolo a la realidad de nuestro país?
Dejando de lado las obligaciones que debe asumir a raíz del propio Reglamento de IA, la información y formación dirigida a la ciudadanía, sobre lo que es la IA y cómo usarla adecuadamente. Debería ser algo que planifique desde las etapas educativas más tempranas.
-¿Pueden ejercer los poderes públicos en España determinadas acciones legales para evitar un impacto negativo de la IA en los consumidores
Los poderes públicos ya tienen la obligación de proteger a los consumidores. Como ya he dicho, el Reglamento de IA es una norma de seguridad de producto, por tanto, las administraciones públicas deben garantizar su cumplimiento y, en su caso, actuar cuando no se cumpla con lo dispuesto por el mismo, en forma de sanciones a los infractores; de hecho, son medidas que ya están previstas en nuestro ordenamiento jurídico, por tanto, debe hacer lo que ya hace cuando controla la seguridad de otro tipo de productos, sean alimentarios, de medicamentos o de electrodomésticos.
-¿La regulación de la IA va ya por detrás de la realidad, de lo que viven los ciudadanos en su día a día?
Creo que no. Creo que va algo por delante. En cualquier caso, las leyes deben regular realidades, el legislador no debe adivinar o elucubrar sobre situaciones que no son reales, así que en general siempre va por detrás de la realidad, pero en este caso, creo que el Reglamento de IA es lo suficientemente preventivo como para haberse avanzado al uso que se hace en estos momentos de la IA que pueda llegar a afectar a las personas.
-¿Cuál debe ser esa regulación a partir de ahora? ¿Son los ciudadanos más vulnerables socialmente los más expuestos a estos peligros de la IA?
Antes de hablar de una nueva regulación, creo que hay que esperar a ver cómo funciona la que acabamos de estrenar, y después de evaluar su impacto habrá que decidir si requiere ser corregida, que muy posiblemente será necesario.
Sin duda los ciudadanos más vulnerables seguirán siéndolo, seguramente más porque no tendrán acceso al uso de la IA o sus efectos positivos no les llegarán puesto que necesitan respuestas a otras necesidades. Al menos culturalmente y términos de oportunidades y de desarrollo personal van a ser más vulnerables, sin perjuicio de que ciertas iniciativas de la IA vayan dirigidas precisamente a afectar positivamente a las personas más vulnerables.