D. Carlos Gómez Rodríguez.
Universidade da Coruña (UDC) Catedrático de universidad (CAT-UN). Departamento, Ciencias de la Computación y Tecnologías de la Información.
Entrevista realizada por José Mª Camarero (Periodista económico) en el marco del Proyecto de ADICAE: “Los consumidores ante los nuevos avances tecnológicos y legislativos en el E-commerce”
-¿De qué debemos fiarnos, y de qué no, cuando nos enfrentamos a una aplicación de IA?
Hay muchos tipos de aplicaciones de IA, y algunas son muy fiables. Por ejemplo, los algoritmos que buscan la mejor ruta (como los que usa Google Maps) son IA y su fiabilidad es casi absoluta. Podemos tener problemas porque una carretera no esté actualizada en el mapa que manejan, pero no va a ser culpa del algoritmo de IA que busca la ruta.
Ahora bien, si hablamos de la última ola de IA generativa, con modelos como ChatGPT, la respuesta es que no podemos fiarnos de nada que no podamos comprobar, sea por nosotros mismos o verificándolo con una fuente fiable. Estos sistemas en su esencia están hechos para generar texto plausible, pero no necesariamente para decir la verdad, así que muchas veces pueden mostrar lo que se llama «alucinaciones», es decir, generar textos que no se ajustan a la realidad. Se está trabajando en reducir esas alucinaciones dentro de lo posible, pero de momento sólo se consigue parcialmente, y tal vez nunca se eliminen por completo.
de la última ola de IA generativa, con modelos como ChatGPT, la respuesta es que no podemos fiarnos de nada que no podamos comprobar
-¿Es correcta la regulación actual sobre la IA, tras la nueva Ley de Inteligencia Artificial europea? ¿Se ha quedado corta o ha ido demasiado lejos?
Lo cierto es que no soy experto en legislación, sino en los aspectos técnicos, y probablemente alguien con formación legal tenga una opinión más formada. Mi opinión es que por supuesto es muy necesaria la regulación, porque los riesgos éticos de la IA son reales; pero no debería ser tan engorrosa que las empresas de IA no quieran establecerse en Europa o desarrollar sus innovaciones aquí.
las empresas de IA no quieran establecerse en Europa o desarrollar sus innovaciones aquí. Ahora mismo ese problema se está dando, así que probablemente debería relajarse la legislación, por supuesto no en el sentido de permitir usos poco éticos, pero sí de hacerla más ágil y minimizar la burocracia.
-En muchos debates, la IA se expone como un riesgo brutal para la sociedad. En otros debates, solo se habla de las bondades de la tecnología. ¿Cuál es el punto óptimo en estas dos visiones antagónicas?
Ambas visiones son correctas. Es una tecnología revolucionaria con un potencial enorme para conseguir mejorar nuestra calidad de vida; pero como casi todas las tecnologías de esas características, conlleva también grandes riesgos. No es distinto de lo que pasa con, por ejemplo, los combustibles fósiles, que fueron la llave de la revolución industrial y nos trajeron la sociedad actual tal como la conocemos, pero también nos han traído también el cambio climático que nos puede llevar al desastre si no actuamos a tiempo. Igual que en ese caso, creo que lo deseable es tener en cuenta tanto los beneficios como los riesgos, intentando maximizar los primeros y mitigar los segundos.
-¿Los ciudadanos se encuentran ahora más desprotegidos que antes ante lo que les ofrece la IA?
Los ciudadanos siempre han estado bastante desprotegidos ante las grandes empresas tecnológicas. La IA les permite afianzar todavía más su poder, pero en el fondo es más de lo mismo. Hace unos meses salió en la prensa que Meta iba a usar datos de sus usuarios para entrenar modelos de IA, y mucha gente se indignó. No veo mal molestarse por eso, pero Meta lleva muchos años usando los datos de los usuarios para multitud de intereses propios, es básicamente a lo que se dedica como empresa y el motivo por el cual ofrece redes sociales sin cobrar (como dicen los americanos, «si no estás pagando por el producto, eres el producto»). En todo caso, si la proliferación de la IA consigue que la gente sea más consciente de estas cosas, será positivo.
-¿Cómo se establece hasta dónde llega la ética de la IA?
Es un tema muy complejo para resumirlo en una respuesta corta, pero en general, el factor más importante no es tanto lo que hace un sistema de IA como para qué se usa. Por ejemplo, un mismo sistema de IA que diagnostique enfermedades puede ser muy positivo si está en manos de un médico que lo usa como «asesor» para informarse, pero tomando él la decisión final. Pero el mismo sistema no sería ético si se pretende usarlo para sustituir al médico. En este sentido, una de las claves para utilizar la IA de forma ética es que no sustituya a los humanos en la toma de decisiones, lo cual está contemplado en la regulación europea. Por supuesto, hay más aspectos importantes, como el respeto a la privacidad, la transparencia, la no discriminación, etc.
una de las claves para utilizar la IA de forma ética es que no sustituya a los humanos en la toma de decisiones
-Usted ha comentado en varias ocasiones en sus intervenciones que uno de los puntos sobre los que hay que incidir es la investigación básica que, en ocasiones, “se tiene algo descuidada”. ¿Podría aclarar estos términos?
La investigación básica es la que busca ampliar el conocimiento humano y comprender mejor las cosas sin que haya necesariamente una aplicación inmediata. En España está descuidada porque hay un culto excesivo a la ciencia aplicada, y mucha gente tiene la idea de que quien investiga y no genera en poco tiempo una patente, un producto o una empresa es una persona que está en su torre de marfil desperdiciando el tiempo y el dinero, así que es difícil conseguir financiación para hacer ciencia en líneas que no prometan aplicaciones a corto plazo. Pero lo cierto es que detrás de cualquier aplicación práctica, siempre hay muchos años de trabajo en investigación básica. En la reciente revolución de la IA tenemos un ejemplo claro: todos los modelos generativos actuales se basan en redes neuronales, una tecnología que durante muchos años no tenía mucha utilidad, simplemente porque había otras que daban mejores resultados para las mismas tareas. Si no fuese por los investigadores (casi exclusivamente académicos, aunque muchos se hayan pasado ahora al mundo empresarial) que durante años estuvieron trabajando en ese campo para ver si de ahí finalmente salía algo interesante, a pesar de no tener en aquel momento aplicaciones prácticas a la vista, no tendríamos la actual revolución de la IA.
-Para muchos ciudadanos, sobre todo jóvenes, ChatGPT se ha convertido en una tecnología básica en su día a día. ¿Nos podemos fiar de todo lo que nos diga esta herramienta?
No podemos: como comentaba antes, los modelos de lenguaje como ChatGPT generan texto plausible, pero que no tiene por qué ser verdadero. Sus desarrolladores se esfuerzan por mejorarlos cada vez más para reducir la frecuencia con la que dan respuestas falsas, pero sigue sucediendo y por el momento no hay visos de que esa limitación se vaya a eliminar de todo.
Por supuesto, esto no hace que modelos como ChatGPT dejen de ser útiles: hay casos donde la fiabilidad da igual (por ejemplo, si le pedimos que nos cuente una historia, un chiste o que nos genere ideas para una sesión de «brainstorming») y hay casos donde podemos simplemente comprobar en otra fuente si la información es correcta. Pero lo que nunca deberíamos hacer es suponer, sin comprobarlo, que algo que nos diga ChatGPT es verdad.
-¿Cómo se debe desarrollar la IA para que no caiga en un pozo repleto de mentiras y muera de éxito?
Para esto, hay tres aspectos importantes. Uno es intentar desarrollar modelos de IA transparentes y explicables, que son características que los modelos generativos como ChatGPT no tienen (nos proporcionan una respuesta, pero no sabemos cómo han llegado a ella). Otra es que el desarrollo de la IA siga un marco ético claro que priorice el bienestar humano, la privacidad y la justicia. Y la última, pero también muy importante, es la alfabetización digital: que la gente comprenda cómo funcionan los sistemas de IA y cómo interpretar sus resultados. Por ejemplo, como comentaba antes, que ChatGPT pueda dar respuestas falsas no lo hace inútil, mucha gente está utilizándolo para un sinfín de tareas y en muchas de ellas esto no es un impedimento importante. Pero es fundamental que los usuarios conozcan sus limitaciones para no caer en errores como el confiar ciegamente en las respuestas del sistema.
-¿La regulación de la IA va ya por detrás de la realidad, de lo que viven los ciudadanos en su día a día?
Sí, en muchos casos la regulación de la IA va por detrás de los avances tecnológicos. Lo cierto es que es normal, porque la IA está avanzando a un ritmo extremadamente rápido, con nuevas aplicaciones, modelos y capacidades surgiendo constantemente en distintos sectores, donde cada uno puede plantear desafíos únicos. Y legislar implica debates políticos y procesos legislativos que no pueden ser tan vertiginosos, así que hasta cierto punto es inevitable que sea así. Para mitigar este problema, convendría fomentar que los responsables de formular las regulaciones tuvieran conocimientos técnicos sobre IA, o un asesoramiento ágil y efectivo por parte de gente que los tenga.
es importante hacer énfasis en poner coto a la dependencia que nos pueden crear las grandes empresas tecnológicas en general. Son preocupantes cosas como que una de estas empresas pueda cerrar la cuenta de un usuario sin ofrecer una explicación clara ni proporcionar un proceso justo de apelación
-¿Cuál debe ser esa regulación a partir de ahora? ¿Son los ciudadanos más vulnerables socialmente los más expuestos a estos peligros de la IA?
Efectivamente, los ciudadanos más vulnerables son los más expuestos, por varias razones. Por un lado, la posible discriminación algorítmica (los sistemas de IA pueden estar sesgados debido a sus datos de entrenamiento, que pueden tener sesgos racistas, machistas, etc.). Por otro lado, las personas con menos recursos educativos o económicos pueden no tener la posibilidad de comprender cómo funcionan los sistemas de IA, lo que las coloca en una situación de desventaja. Por último, está la exclusión digital (los más vulnerables suelen ser los más afectados por la brecha digital, así que se aprovechan menos de las ventajas que pueden ofrecer estas tecnologías).
En este sentido, la regulación debe exigir que los sistemas de IA se diseñen para evitar la discriminación (eliminando en lo posible sesgos de género, raza u otros factores; y sobre todo, no tomando decisiones potencialmente discriminatorias sin supervisión humana) prestando especial atención a los grupos vulnerables. También es importante la explicabilidad, para que los ciudadanos comprendan los sistemas que les afectan, y el derecho a la privacidad y la protección de datos.
También es importante hacer énfasis en poner coto a la dependencia que nos pueden crear las grandes empresas tecnológicas en general. Ya antes de los últimos avances en IA, por ejemplo, las redes sociales estaban moldeando los comportamientos y hábitos de mucha gente a través de algoritmos diseñados para maximizar su tiempo en pantalla y crear adicción. También son preocupantes cosas como que una de estas empresas pueda cerrar la cuenta de un usuario sin ofrecer una explicación clara ni proporcionar un proceso justo de apelación, dado que por mucho que sean tecnologías privadas, hoy por hoy son básicas para mantener a la gente conectada y circunstancias como éstas pueden tener un impacto social o laboral desproporcionado. Por lo tanto, si bien los avances en IA refuerzan la importancia de regular la tecnología, esto debe hacerse desde un punto de vista más amplio.