Cuando hablamos de aplicaciones de IA, el objetivo principal que perseguimos habitualmente es facilitarnos el trabajo especifico. Que quiere decir esto, pues si nos fijamos en el uso habitual de las aplicaciones como ChatGPT, dall-E y similares, nos acercan la capacidad de un traductor, un dibujante, un programador,… y con el paso del tiempo, este rol que asume la IA se va perfeccionando, pero siempre debemos someterlo a un juicio de calidad. Por ello, podemos fiarnos en reglas generales para un uso que no necesitaría de un perfil de alta especialización, pero cuando si lo requiera, debemos buscar un contrapunto de un especialista, que necesitará menos esfuerzo para lograr el mismo objetivo.
Aunque a priori podemos pensar que la regulación ralentiza la innovación, lo cierto es que poner una serie de reglas del juego para poder crear tecnología que sea responsable y justa para todos, lo considero de vital importancia. En la nueva regulación Europea, se persiguen tres objetivos, que aunque pueden necesitar diversas iteraciones para que su aplicación practica sea la mejor posible, son un buen punto de partida:
Creo que el foco en la transparencia y la seguridad son cruciales para una IA accesible para todos, aunque creo que sería importante tener un margen para utilizar IAs de forma completamente libre para investigar su comportamiento y funcionamiento.
De momento, se ha quedado corta, pero porque la tecnología avanza más rápido que la regulación, por lo que es probable que siempre se quede detrás. Pero es importante que intente cubrir todos los frentes posibles, sin perder la flexibilidad de modificarse y adaptarse a las necesidades del mercado.
Soy partidario de que la tecnología es neutral; somos nosotros quienes debemos usarla correctamente. Una buena regulación puede impedir que demos herramientas peligrosas a los usuarios. Así como existen diferentes tipos de carnets para conducir, deberíamos tener requisitos específicos para trabajar con ciertas aplicaciones de IA. Es crucial llevar la tecnología al límite para prevenir usos maliciosos, porque si no, otros lo harán y nos encontrarán desprevenidos.
En mi conocimiento, la IA tienes dos grandes grupos de riesgo para los usuarios, uno, donde se provee al usuario de una herramienta que le acerca el conocimiento muy avanzado en gran cantidad de materias, reduciendo la barrera de entrada que pueden tener ciertas acciones de riesgo, y, por otro lado, esta el riesgo que puede entrañar interactuar con ciertas IAs que pueden generar contenido inapropiado para el usuario (por ejemplo, un autodiagnóstico medico mediante chatGPT).
Yo creo que no, cada vez los usuarios van conociendo como funcionan los modelos, y la fascinación inicial esta dando paso a un uso cada vez más operativo y que permite a los usuarios explorar y entender las limitaciones existentes.
Yo creo que la ética de la IA la debe elegir cada creador, sabiendo que según las limitaciones éticas que imponga a su modelo, podrá ofrecerlo a unos usuarios u otros, siendo el caso más extremo únicamente interesante para la investigación.
De momento, no, y creo que para poder fiarnos al 100%, aún le queda bastante recorrido, pero creo que podemos confiar en que los resultados que arroja pueden ser de gran utilidad y ahorrarnos mucho trabajo, aunque mi experiencia es que todavía se necesita casi el mismo esfuerzo para conseguir el resultado final esperado que cuando no teníamos chatGPT.
Es una pregunta complicada, pero lo cierto es que, a día de hoy, aunque se ha colado en nuestro día a día en tareas cotidianas, y ha generado grandes mejoras en muchos procesos, la mayoría de estos son para el usuario final, aún se esta explorando su uso a nivel corporativo, y será esa via de actuación la que determinará los próximos años de la evolución de la IA.
Un mecanismo dual basado en formación y prevención, puede ser una forma muy interesante mediante la cual, las administraciones públicas pueden crear una barrera que proteja al ciudadano, sin mermar en exceso el acceso y la exploración de posibilidades de la IA, lo que seguro será un generador de empleo en los próximos años.
Yo creo que si, pero es cierto que a medida que avanza la IA, el avance es más sutil, aunque más interesante, por eso, aunque siempre estará desfasada, ese desfase es aceptable y saludable.
La regulación debe partir de la formación, el tener el conocimiento necesario para discernir los resultados de cualquier IA, es clave para utilizarla de forma correcta. Esto hace que aquellas personas que por su situación han tenido una formación más escasa, se encuentren en mayo riesgo de caer en un mal uso de la IA.