D. Juan Carlos Hernández Peña.
Profesor de Derecho Administrativo e investigador en el Instituto de Ciencia de Datos e IA (DATAI) de la Unversidad de Navarra.
Entrevista realizada por José Mª Camarero (Periodista económico) en el marco del Proyecto de ADICAE: “Los consumidores ante los nuevos avances tecnológicos y legislativos en el E-commerce”
1. ¿De qué debemos fiarnos, y de qué no, cuando nos enfrentamos a una aplicación de IA?
La experiencia que hemos acumulado estos años de desarrollo nos llevan a pensar que para fiarnos de aplicaciones de IA, están deben ser transparentes, robustas y fiables.
Debemos ser proactivos y verificar que los sistemas nos ofrezcan información clara sobre su funcionamiento, así como sus límites y usos para los que fueron desarrollados.
Aunque aún está en desarrollo, podremos fiarnos más de aquellos sistemas que cumplan con las normas técnicas que se están e irán aprobando, y en el caso de los sistemas de riesgo alto de aquellos que cuenten con declaraciones de conformidad. Es más que previsible que también se desarrollen sellos éticos, vinculados a mecanismos de auditoria de sistemas y algoritmos, que otorgarán un plus de fiabilidad dado que no sólo exigirán que se cumplan con la normativa, sino que fijarán estándares éticos.
Evidentemente, si son sistemas que recopilen y traten datos personales, sólo podemos confiar en ellos si presentan una política de privacidad transparente y clara dónde nos indiquen con que fines se realiza el tratamiento y las medidas que utilizan para protegerlos.
En sentido contrario, todo sistema o aplicación que opera con opacidad, explicando deficientemente su funcionamiento, exigirá elevar nuestra cautela.
todo sistema o aplicación que opera con opacidad, explicando deficientemente su funcionamiento, exigirá elevar nuestra cautela.
2. ¿Es correcta la regulación actual sobre la IA, tras la nueva Ley de Inteligencia Artificial europea? ¿Se ha quedado corta o ha ido demasiado lejos?
La regulación europea de IA es pionera, y su enfoque se centra en promover un estándar elevado de los derechos fundamentales y la IA humanocéntrica, por lo que desde mi perspectiva es un acierto. La IA debe estar al servicio del ser humano, y no ser un medio para esclavizarlo, limitar su libertad o recortar derechos.
Ahora bien, al encontrarnos en un momento crítico del desarrollo y posicionamiento competitivo global, es necesario aquilatar la regulación para no ahogar la innovación. Desde esa perspectiva, el RIA es prudente porque valora que usos o aplicaciones de la IA no son admisibles o conformes con los valores europeos y las prohíbe. El resto las somete a mayores o menores obligaciones legales, según el nivel de riesgo. Es decir, aplica un enfoque basado en riesgos, e imponiendo cargas regulatorias.
Hay cuestiones, no obstante que no están del todo resueltas y generan inseguridad, pero deben irse clarificando con el desarrollo de normativa complementaria. Por ejemplo, en el caso de los sistemas prohibidos, se puede generar cierta confusión al entender que se entiende por emociones según el reglamento o qué debe entenderse por sistema que analiza emociones. Los reguladores nacionales y la propia Comisión, con la Oficina de IA a la cabeza, elaborarán listados que ejemplifiquen y clarifiquen cuestiones como éstas.
Si debe señalar que al tratarse de la primera regulación intensa de la IA se corre el riesgo de no acertar y perder competitividad frente a China o EE.UU. que han adoptado medidas regulatorias más laxas y menos restrictivas. No obstante, se espera que el RIA genere una suerte de efecto Bruselas y termine siendo el estándar global a semejanza de los ocurrido con el RGPD.
En todo caso, aunque haya aspectos mejorables o cuestiones a clarificar, debo señalar que priorizar los derechos de las personas es un acierto y un avance al que no debe renunciarse. No veo que haya necesariamente una colisión entre proteger a los ciudadanos y promover la competitividad europea de la IA. Si esta es la duda, quizás tendríamos que cambiar la pregunta ¿Queremos la IA a cualquier precio, incluso transando nuestros derechos?
3. En muchos debates, la IA se expone como un riesgo brutal para la sociedad. En otros debates, solo se habla de las bondades de la tecnología. ¿Cuál es el punto óptimo en estas dos visiones antagónicas?
La IA es una tecnología que está llamada a tener un impacto profundo en la sociedad. Nos puede ayudar a resolver los grandes retos a los que nos enfrentamos, pero su uso puede tener también un impacto negativo, no sólo en casos como el ‘predicting policing’ o la videovigilancia. Todos hemos oído casos de uso de algoritmos de IA que discriminan o que han aprendido que pueden incrementar las ganancias de aerolíneas sentando automáticamente a familias que viajan con niños, obligando así a pagar más por los billetes o asientos. Es una tecnología muy permeable en todas las fases y procesos productivos y, por tanto, si no es ético o robusta nos impactará negativamente.
Creo que el enfoque adecuado parte por reconocer que es una buena tecnología, pero que aún no la conocemos del todo y estamos experimentando socialmente con ella.
Eso exige que la promovamos, pero que seamos cautos. En cierta medida que la ‘domestiquemos’. Para eso contamos con un arsenal regulatorio, técnico y ético que no es exclusivo de la IA. Ya estamos habituados a introducir riesgos en la sociedad y controlarlos con instrumentos legales. Pensemos en los medicamentos. Sus verdaderos riesgos sólo se materializan cuando están en el mercado e interactúan con miles de variables. Si no es seguro o tiene efectos adversos admisibles, se retira del mercado. Eso mismo se plantea para la IA con el Reglamento aprobado.
4. ¿Cómo debemos clasificar y definir los riesgos de la IA para el consumidor, ante un impacto tan extenso como el que tiene esta tecnología actualmente?
Creo que la propuesta de la UE acierta en este sentido y nos brinda una respuesta. Debemos clasificarlas en atención al impacto sobre los derechos fundamentales de las personas, su seguridad o salud. A mayor riesgo, mayores restricciones, mayores medidas de transparencia, más información para que los usuarios puedan tomar decisiones sobre el uso o no de una determinada aplicación o sistema de IA.
Como ya comentaba, los reguladores desarrollarán listados ejemplificativos para ayudarnos a entender el riesgo de los sistemas, así como aquellos que no son admisibles e intolerables desde la perspectiva de los valores europeos. La labor de alfabetización en materia de IA, debería ayudar a comprender no sólo los riesgos sino también los derechos de los consumidores.
La labor de alfabetización en materia de IA, debería ayudar a comprender no sólo los riesgos sino también los derechos de los consumidores.
5. ¿Los ciudadanos se encuentran ahora más desprotegidos que antes ante lo que les ofrece la IA?
Con la aprobación del Reglamento de IA y con todo el resto de paquetes normativos que está aprobando la UE, como la DSA o DMA, pienso que es todo lo contrario. Ahora tenemos más derechos. Por ejemplo, tenemos derecho a exigir transparencia, a que nos informen sobre la lógica de los algoritmos, que nos expliquen si se toman medidas automatizadas que afecten nuestros derechos. Todo esto se ha construido con el marco normativo que ha promovido la UE en los últimos años.
Lo que si es cierto es la normativa puede estar sometida a una cierta obsolescencia debido a la rapidez de los avances tecnológicos. Esto puede generar ámbitos de afectación de derechos que quizás no estén cubiertos adecuadamente. De ahí la importancia de que se cuenten con normativa resiliente e incluso que, en casos dónde previsiblemente se generarán riesgos inadmisibles, el RIA no se aplique como un instrumento reactivo sino que se apliquen los mecanismos que permiten respuestas preventivas.
6. Usted elabora auditorías de modelos de IA. ¿Cuáles son las fortalezas, riesgos y amenazas que está vislumbrando en esos estudios pormenorizados?
Las auditorías de IA son esenciales para identificar posibles sesgos, o errores en los modelos. Para valorar la opacidad o explicabilidad de los modelos, así como su ajuste a la normativa y los derechos fundamentales. En definitiva para garantizar que sean trasparentes y robustos, especialmente para el caso de aquellos sistemas que pueden tener un impacto directo sobre el acceso a bienes o servicios esenciales, o que afecten directamente derechos fundamentales como el empleo o la educación.
Como fortalezas destacaría que aunque nos estamos encontrando con modelos mejorables u opacos, las personas están aplicando salvaguardias y son prudentes en su uso. Existe preocupación, tanto en desarrolladores como implementadores, de que los modelos se ajusten y anticipen a la normativa europea, aunque las dudas de cómo se aplicará o cómo deben entenderse muchas de las previsiones del Reglamento son habituales.
Quizás los principales riesgos y amenazas se centran en el diseño adecuado y robusto. Existe un principio que se repite como mantra y es fundamental en el entrenamiento de modelos: Garbage In, Garbage Out. Si los datos de entrenamiento no tienen calidad adecuada, los output del modelo serán deficientes. Esto suele explicar la presencia de sesgos.
También hay riesgo con el tratamiento de datos personales. Con cumplir los elevados estándares que establece el RGPD. Muchos cientificos de datos no comprenden adecuadamente principios como la privacidad o la protección de datos desde el diseño o el principio de minimización, y realizan tratamientos extensivos para entrenar modelos que no son realmente necesarios.
7. ¿Cómo se establece hasta dónde llega la ética de la IA?
No entiendo del todo la pregunta, pero respondo según lo que intuyo – aunque puede ser errado mi enfoque.
Creo que debemos diferenciar por una parte los mandatos y prescripciones legales, de las directrices éticas. El RIA no obstante, se diseña teniendo como base una serie de principios éticos recogidos en las Directrices É)cas para una IA Fiable. Entre ellos, el respecto a la autonomía humana, de ahí la prohibición de sistemas que manipules; la prevención del daño, lo que supone que el RIA se base en un enfoque basado en riesgo
y prohíba sistemas que pueden causar daños inadmisibles; la equidad y la explicabilidad, que se traducen en mandatos de transparencia, robustez, etc.
Los principios éticos, no obstante, son mandatos de muy alto nivel. Es decir, que nos brindan enunciados generales que deben interpretarse en atención a las circunstancias concretas, por lo que genera problemas para los ciudadanos y las organizaciones. De ahí la importancia de que sean operativizados, tanto a través de las normas jurídicas (el RIA y su norma de desarrollo), y las normas técnicas, que establecen criterios de naturaleza técnicas que aterrizan estos principios. Por ejemplo, ¿Qué es un sistema de IA robusto? ¿Qué métricas debemos considerar para valorar si un LLM no está sesgado? La respuesta parte de aplicar esos principios de alto nivel, pero la norma jurídica y las normas técnicas completan el dibujo final.
debemos diferenciar por una parte los mandatos y prescripciones legales, de las directrices éticas.
8. Usted ha comentado en varias ocasiones en sus intervenciones que uno de los puntos sobre los que hay que incidir es la investigación básica que, en ocasiones, “se tiene algo descuidada”. ¿Podría aclarar estos términos?
La investigación básica es fundamental para los avances de la actividad cientifica en general. La IA, ciencia con décadas de desarrollo, no escapa de esa dinámica.
Muchos de los avances que vemos y veremos estarán impulsados con ánimo de llegar al mercado. De monetizarse, cuestión legítima. Por ejemplo, las capacidades de los modelos de IA Generativa se incrementarán porque los desarrolladores quieren llevar al mercado nuevas funcionalidades que les permitan incrementar la cuenta de resultados.
No obstante, hay cuestiones cómo la explicabilidad de los modelos de caja negra para las que quizás no hay un incentivo económico tan claro por parte de las empresas. También puede pensarse en el desarrollo de algoritmos de IA verdes (que consuman menos energía). Avances de este tipo exigen muchos esfuerzos que no se verán monetizados en el corto plazo, pero que asegurarán una IA fiable en el futuro. Aquí, es necesario contar con la financiación pública, las universidades y centros de investigación que pueden dedicar recursos al desarrollo de aplicaciones no comerciales. La investigación básica ayudará a entender mejor los límites y capacidades de la IA, a profundizar en sus riesgos o diseñar y desarrollar nuevas medidas para hacerla robusta y segura. En definitiva, contribuiría a garantizar una IA fiable, ética y sostenible.
9. Para muchos ciudadanos, sobre todo jóvenes, ChatGPT se ha convertido en una tecnología básica en su día a día. ¿Nos podemos fiar de todo lo que nos diga esta herramienta?
ChatGPT es lo que se conoce como un gran modelo de lenguaje natural o LLM. Se basan en una arquitectura de deep learning desarrollada por Google, que denominaron ‘Transformer’. Aprenden del conjunto de datos con el que se entrenó, entienden su distribución estadistica y nos dan una respuesta razonable imitando lo que han ‘leído’.
Tienen la ventaja de permitirnos interactuar con ellos de forma simple y fluida utilizando lenguaje natural, y su respuesta también es conversacional por lo que se suple la curva de aprendizaje técnica que exige otros modelos de IA, donde hay que saber código e interpretarlo.
Si consideramos, además, que tienen una capacidad muy potente para interpretar texto o imágenes y darnos respuestas coherentes y razonables; que pueden gestionar mucha mayor cantidad de información en escaso tiempo; y que son muy eficientes para determinadas labores dónde el aporte creativo es limitado o se trata, sin más, de tareas repetitivas. No resulta sorprendente que se estén adoptando con una rapidez sin precedente, especialmente entre los jovenes.
Sin embargo, siguen siendo inteligencias artificiales y siguen respondiendo a las mismas limitaciones del resto de sistemas de IA. Por tanto, si en el universo de datos de entrenamiento hay un porcentaje de datos de poca calidad, es probable que nos encontremos con resultados cuestionables o sesgados. Es decir, Garbage In Garbage Out. Esto explica que en ocasiones los resultados sean inadecuados, inexactos o sesgados. De hecho en las condiciones de uso de ChatGPT la propia OpenAI avisa de estos riesgos inherentes a las distintas versiones del modelo.
Por otra parte, estos modelos tienen riesgos específicos. No son deterministas, por lo que sus respuestas no son únicas. Si hacemos la misma pregunta varias veces, en cada ocasión nos dará una versión diferente. Tampoco saben decir que no, por lo que si no tiene datos de suficiente calidad para dar la respuesta puede darnos un output o salida aproximada interpretando erróneamente la información. Por eso es frecuente escuchar casos en los que estos modelos ‘alucinan’, bien interpretando equivocadamente la información o bien directamente inventándola. Son muy conocidos los casos en los que, por ejemplo, se ha inventado referencias bibliográficas o incluso sentencias judiciales.
Mi consejo para los jóvenes es el mismo que doy respecto a la información en internet. Que sean escépticos y ejerciten su espíritu crítico, contrastando el resultado con otras fuentes que sean fiables. Esto sin ir más lejos, es a lo que se refiere el RIA cuando aconseja el ‘human in the loop’, es decir, la mediación humana para valorar críticamente los resultados de un modelo de IA y decidir en atención a su competencia y capacidad.
10. ¿Cómo se debe desarrollar la IA para que no caiga en un pozo repleto de mentiras y muera de éxito?
Creo que en general recogiendo lo que hemos comentado. Incorporando los principios éticos desde el diseño. De ellos considerando fundamental la perspectiva humanocéntrica. Que se diseñen modelos que potencien y ayuden a las personas a desarrollarse, a mejorar sus capacidades. Una IA por y para las personas.
También la transparencia y la supervisión son claves para el desarrollo sostenible de la IA responsable. Los procesos de auditorías, también ya comentados, pueden contribuir a asegurar una IA segura y ética.