D. Carlos Vizoso.
CTO de ESIC University.
Entrevista realizada por José Mª Camarero (Periodista económico) en el marco del Proyecto de ADICAE: “Los consumidores ante los nuevos avances tecnológicos y legislativos en el E-commerce”
-¿De qué debemos fiarnos, y de qué no, cuando nos enfrentamos a una aplicación de IA?
Tenemos que confiar en aplicaciones de IA cuando son transparentes en su política de recopilación de información, fuentes y en el propio modelo. Que estén diseñadas o certificadas bajo GPR compliance o que han demostrado con el tiempo precisión consistente sobre los resultados.
En este sentido, creo que las personas tenemos que tener el suficiente criterio para saber cuando estamos proporcionando información a este tipo de aplicaciones, cuando esta información está siendo utilizada para entrenar su modelo y por ente, que política de privacidad y contrato de servicio estamos aceptando al utilizarlas.
Si tras este análisis, vemos que no hay ninguna explicación clara sobre cómo funciona su modelo, los resultados carecen de validez o de fuentes verificables y/o existen conflictos de interés o riesgos de manipulación de datos, probablemente sean aspectos suficientes como para no confiar en esa aplicación.
-¿Es correcta la regulación actual sobre la IA, tras la nueva Ley de Inteligencia Artificial europea?¿Se ha quedado corta o ha ido demasiado lejos?
En mi opinión creo que la regulación de la inteligencia artificial en Europa es un gran paso desde el prisma de protección de derechos fundamentales de los ciudadanos, sostenido en garantizar una inteligencia artificial segura, transparente y ética. Es importante tener un marco regulatorio, lo más flexible posible para poder garantizar de forma transparente la protección de dichos derechos fundamentales. Ahora bien, pienso que la ley como está desarrollada actualmente puede ser insuficiente ante la evolución exponencial tecnológica en la que nos encontramos.
La innovación avanza más rápido que algunas disposiciones de la ley, lo que implica que queden desactualizadas en poco tiempo. Además veo muy complejo la gestión desde el prisma del cumplimiento en muchas empresas. Asegurar que todas las empresas cumplan con los nuevos estándares va a ser un verdadero desafío, especialmente en sectores con menos recursos económicos.
-En muchos debates, la IA se expone como un riesgo brutal para la sociedad. En otros debates, solo se habla de las bondades de la tecnología. ¿Cuál es el punto óptimo en estas dos visiones antagónicas?
Desde mi punto de vista, el equilibrio radica en varios enfoques, uno orientado a los riesgos reales( desinformación, sesgos, pérdida de empleo o reemplazo por agentes autónomos) y ventajas desde el prisma de eficiencia, usabilidad e innovación y otro desde su uso ético mediante políticas claras y educación digital.
Por ejemplo, no es lo mismo un sistema de spam en nuestro gestor de correo electrónico con un índice de riesgo mínimo que un sistema de puntuación social por parte de un ente gubernamental para la manipulación parcial o total de la sociedad.
-¿Cómo debemos clasificar y definir los riesgos de la IA para el consumidor, ante un impacto tan extenso como el que tiene esta tecnología actualmente?
-¿Cómo debemos clasificar y definir los riesgos de la IA para el consumidor, ante un impacto tan extenso como el que tiene esta tecnología actualmente?
Por definir una clasificación ponderada en base a los enfoques anteriores, nos encontramos con cuatro categorías de riesgos:
- Riesgo mínimo. Sistemas de IA que presentan un riesgo muy bajo para los derechos y la seguridad de los
- Riesgo limitado. Sistemas de IA que puedan tener un impacto moderado pero gestionado por
- Alto Sistemas de IA que puedan afectar total o parcialmente a los derechos fundamentales o seguridad de las personas.
- Riesgo Sistemas de IA que representan un riesgo inadmisible en la sociedad.
-¿Los ciudadanos se encuentran ahora más desprotegidos que antes ante lo que les ofrece la IA?
Habría que delimitar qué entendemos por antes, ya que muchos de los ecosistemas, aplicaciones y servicios que utilizamos en nuestro día a día ya utilizaban IA desde antes de lo que pensamos. En mi opinión, desde la democratización de la IA generativa gracias a la puesta en marcha de midjourney y chat GPT, los usuarios son conscientes de estas tecnologías y por ende, pueden sentirse más desprotegidos en algunos aspectos.
A día de hoy el usuario puede sentir que está expuesto a un alto nivel de desinformación en las redes sociales y medios, contenidos manipulados (voice fakes o deepfakes) y en muchos casos, la ausencia de mecanismos para la rectificación de errores generados por la IA en muchas de las aplicaciones que usamos. Por ello, pienso que el criterio y la educación digital para sentirse más cómodo ante una realidad exponencial como la que estamos viviendo, es aún más importante ahora mismo.
servicios que utilizamos en nuestro día a día ya utilizaban IA desde antes de lo que pensamos. En mi opinión, desde la democratización de la IA generativa gracias a la puesta en marcha de midjourney y chat GPT, los usuarios son conscientes de estas tecnologías y por ende, pueden sentirse más desprotegidos
-¿Cómo se establece hasta dónde llega la ética de la IA?
Si nos basamos en los principios fundamentales de transparencia, responsabilidad, justicia, privacidad y no maleficencia, podemos afirmar que son los ingredientes necesarios para establecer un diseño, implementación y supervisión desde el prisma ético en cualquier modelo de inteligencia artificial.
Buscando un equilibrio desde este conjunto de principios sobre el desarrollo responsable tecnológico con la protección de los derechos humanos y la seguridad de los mismos.
-Para muchos ciudadanos, sobre todo jóvenes, ChatGPT se ha convertido en una tecnología básica en su día a día. ¿Nos podemos fiar de todo lo que nos diga esta herramienta?
Desde mi punto de vista, es importante entender que chagpt, copilot o cualquier otra aplicación de IA generativa puede ser nuestro copiloto perfecto pero para poder usarla de una forma correcta lo más importante es tener un enfoque crítico sobre la solución que nos está ofreciendo. El criterio es la base de empoderamiento y optimización real apoyado, eso sí, por la tecnología.
Si no tenemos un enfoque crítico sobre lo que estamos consultando probablemente obtengamos imprecisiones ocasionadas por el entrenamiento del modelo, falta de información o incluso interpretaciones erróneas de temas tan importantes como las emociones o la ética. Chat GPT no tiene emociones y a día de hoy tampoco tiene una comprensión profunda de las experiencias humanas, por lo que sus respuestas en estos ámbitos pueden no ser correctas ni precisas.
Creo que es importante que las personas utilicemos estas herramientas como una herramienta en la que apoyarnos en nuestro día a día pero siempre teniendo en cuenta el enfoque crítico mencionado en unas líneas más arriba, verificando la información obtenida y elevando las consultas a otros profesionales o foros en el caso de ser necesario para evitar una interpretación equivoca.
-¿Cómo se debe desarrollar la IA para que no caiga en un pozo repleto de mentiras y muera de éxito?
La estrategia de IA de una compañía, producto o servicio lo definen las fuentes de datos que habilitan al modelo para poder dar una respuesta a cualquier pregunta para la que ha sido entrenada.
Es decir, para que una IA pueda aportar valor a los usuarios y seamos capaces de evitar que las respuestas sean lo más verificadas posibles, la IA debe desarrollarse bajo tres enfoques:
- Información verificada y de calidad como gasolina de nuestro modelo
- Audit interno y externo de revisión de casuísticas y soluciones para identificar y corregir Podemos incluso utilizar otra IA para ello.
- Educación digital para nuestros usuarios delimitando los usos y las expectativas sobre la tecnología.
-¿Qué acciones debe ejercitar la Administración española para poner en la práctica el reglamento europeo adaptándolo a la realidad de nuestro país?
Como en cualquier otro gran proyecto de digitalización creo que la administración pública española tendrá que crear un organismo nacional que supervise el cumplimiento del reglamento y sea capaz de ayudar y evangelizar sobre dicho reglamento.
Por otro lado, proporcionar incentivos a las empresas para poder adaptar sus ecosistemas a estas nuevas normativas.
Y por último, evangelizar con el ejemplo desde el prisma de las administraciones públicas y establecer una campaña de educación digital a los ciudadanos y empresas.
-¿Pueden ejercer los poderes públicos en España determinadas acciones legales para evitar un impacto negativo de la IA en los consumidores
Desde un punto de acciones legales, los poderes públicos pueden evitar un impacto negativo de la IA en los consumidores gracias a la implementación de sanciones claras ante abusos o errores ocasionadas por estas plataformas, regulando la privacidad y la protección de los datos personales de la ciudadanía, estableciendo responsabilidades claras sobre las empresas y servicios que haga uso interno y externo de estas tecnologías e invirtiendo en una monitorización sobre las soluciones utilizadas en el marco nacional desde el prisma ético y transparente.
Ahora bien, como he comentado en preguntas anteriores, la complejidad de poder monitorizar dicha regulación con un crecimiento exponencial de una tecnología en auge y cada vez más democratizada será un reto para las administraciones públicas del presente y del futuro.
la complejidad de poder monitorizar dicha regulación con un crecimiento exponencial de una tecnología en auge y cada vez más democratizada será un reto para las administraciones públicas del presente y del futuro.
-¿La regulación de la IA va ya por detrás de la realidad, de lo que viven los ciudadanos en su día a día?
En muchos aspectos, si. Muchos ciudadanos, a día de hoy no saben si la aplicación que están utilizando es GPRD compliance, si hace una transferencia internacional de su información o incluso en muchas ocasiones desconocemos a dónde viajan nuestros datos en estas aplicaciones, así como la gestión de las mismas.
En una sociedad cada vez más dirigida a resultados, inmediata y donde la IA nos proporciona de forma ágil una respuesta a nuestros problemas, creo que tenemos un gran reto de educación digital y enfoque de criterio sobre el uso y la demanda de servicios en estas aplicaciones.
-¿Cuál debe ser esa regulación a partir de ahora? ¿Son los ciudadanos más vulnerables socialmente los más expuestos a estos peligros de la IA?
No sabría decir exactamente la regulación idílica pero sí los ingredientes que componen una receta de regulación que puede evitar en gran parte dichas vulnerabilidades.
En este sentido, creo que debemos fomentar un marco flexible con revisiones periódicas adaptadas a los grandes avances tecnológicos en los modelos que usamos en nuestro día a día, incluir regulaciones globales, ya que la IA trasciende fronteras más allá de la Unión Europea y por último, desarrollar normas específicas que den respuesta a la evolución exponencial de la inteligencia artificial junto a equipos de trabajo compuesto por expertos en esta materia de empresas tecnológicas globales.