Tenemos que confiar en aplicaciones de IA cuando son transparentes en su política de recopilación de información, fuentes y en el propio modelo. Que estén diseñadas o certificadas bajo GPR compliance o que han demostrado con el tiempo precisión consistente sobre los resultados.
En este sentido, creo que las personas tenemos que tener el suficiente criterio para saber cuando estamos proporcionando información a este tipo de aplicaciones, cuando esta información está siendo utilizada para entrenar su modelo y por ente, que política de privacidad y contrato de servicio estamos aceptando al utilizarlas.
Si tras este análisis, vemos que no hay ninguna explicación clara sobre cómo funciona su modelo, los resultados carecen de validez o de fuentes verificables y/o existen conflictos de interés o riesgos de manipulación de datos, probablemente sean aspectos suficientes como para no confiar en esa aplicación.
En mi opinión creo que la regulación de la inteligencia artificial en Europa es un gran paso desde el prisma de protección de derechos fundamentales de los ciudadanos, sostenido en garantizar una inteligencia artificial segura, transparente y ética. Es importante tener un marco regulatorio, lo más flexible posible para poder garantizar de forma transparente la protección de dichos derechos fundamentales. Ahora bien, pienso que la ley como está desarrollada actualmente puede ser insuficiente ante la evolución exponencial tecnológica en la que nos encontramos.
La innovación avanza más rápido que algunas disposiciones de la ley, lo que implica que queden desactualizadas en poco tiempo. Además veo muy complejo la gestión desde el prisma del cumplimiento en muchas empresas. Asegurar que todas las empresas cumplan con los nuevos estándares va a ser un verdadero desafío, especialmente en sectores con menos recursos económicos.
Desde mi punto de vista, el equilibrio radica en varios enfoques, uno orientado a los riesgos reales( desinformación, sesgos, pérdida de empleo o reemplazo por agentes autónomos) y ventajas desde el prisma de eficiencia, usabilidad e innovación y otro desde su uso ético mediante políticas claras y educación digital.
Por ejemplo, no es lo mismo un sistema de spam en nuestro gestor de correo electrónico con un índice de riesgo mínimo que un sistema de puntuación social por parte de un ente gubernamental para la manipulación parcial o total de la sociedad.
Por definir una clasificación ponderada en base a los enfoques anteriores, nos encontramos con cuatro categorías de riesgos:
Habría que delimitar qué entendemos por antes, ya que muchos de los ecosistemas, aplicaciones y servicios que utilizamos en nuestro día a día ya utilizaban IA desde antes de lo que pensamos. En mi opinión, desde la democratización de la IA generativa gracias a la puesta en marcha de midjourney y chat GPT, los usuarios son conscientes de estas tecnologías y por ende, pueden sentirse más desprotegidos en algunos aspectos.
A día de hoy el usuario puede sentir que está expuesto a un alto nivel de desinformación en las redes sociales y medios, contenidos manipulados (voice fakes o deepfakes) y en muchos casos, la ausencia de mecanismos para la rectificación de errores generados por la IA en muchas de las aplicaciones que usamos. Por ello, pienso que el criterio y la educación digital para sentirse más cómodo ante una realidad exponencial como la que estamos viviendo, es aún más importante ahora mismo.
Si nos basamos en los principios fundamentales de transparencia, responsabilidad, justicia, privacidad y no maleficencia, podemos afirmar que son los ingredientes necesarios para establecer un diseño, implementación y supervisión desde el prisma ético en cualquier modelo de inteligencia artificial.
Buscando un equilibrio desde este conjunto de principios sobre el desarrollo responsable tecnológico con la protección de los derechos humanos y la seguridad de los mismos.
Desde mi punto de vista, es importante entender que chagpt, copilot o cualquier otra aplicación de IA generativa puede ser nuestro copiloto perfecto pero para poder usarla de una forma correcta lo más importante es tener un enfoque crítico sobre la solución que nos está ofreciendo. El criterio es la base de empoderamiento y optimización real apoyado, eso sí, por la tecnología.
Si no tenemos un enfoque crítico sobre lo que estamos consultando probablemente obtengamos imprecisiones ocasionadas por el entrenamiento del modelo, falta de información o incluso interpretaciones erróneas de temas tan importantes como las emociones o la ética. Chat GPT no tiene emociones y a día de hoy tampoco tiene una comprensión profunda de las experiencias humanas, por lo que sus respuestas en estos ámbitos pueden no ser correctas ni precisas.
Creo que es importante que las personas utilicemos estas herramientas como una herramienta en la que apoyarnos en nuestro día a día pero siempre teniendo en cuenta el enfoque crítico mencionado en unas líneas más arriba, verificando la información obtenida y elevando las consultas a otros profesionales o foros en el caso de ser necesario para evitar una interpretación equivoca.
La estrategia de IA de una compañía, producto o servicio lo definen las fuentes de datos que habilitan al modelo para poder dar una respuesta a cualquier pregunta para la que ha sido entrenada.
Es decir, para que una IA pueda aportar valor a los usuarios y seamos capaces de evitar que las respuestas sean lo más verificadas posibles, la IA debe desarrollarse bajo tres enfoques:
Como en cualquier otro gran proyecto de digitalización creo que la administración pública española tendrá que crear un organismo nacional que supervise el cumplimiento del reglamento y sea capaz de ayudar y evangelizar sobre dicho reglamento.
Por otro lado, proporcionar incentivos a las empresas para poder adaptar sus ecosistemas a estas nuevas normativas.
Y por último, evangelizar con el ejemplo desde el prisma de las administraciones públicas y establecer una campaña de educación digital a los ciudadanos y empresas.
Desde un punto de acciones legales, los poderes públicos pueden evitar un impacto negativo de la IA en los consumidores gracias a la implementación de sanciones claras ante abusos o errores ocasionadas por estas plataformas, regulando la privacidad y la protección de los datos personales de la ciudadanía, estableciendo responsabilidades claras sobre las empresas y servicios que haga uso interno y externo de estas tecnologías e invirtiendo en una monitorización sobre las soluciones utilizadas en el marco nacional desde el prisma ético y transparente.
Ahora bien, como he comentado en preguntas anteriores, la complejidad de poder monitorizar dicha regulación con un crecimiento exponencial de una tecnología en auge y cada vez más democratizada será un reto para las administraciones públicas del presente y del futuro.
En muchos aspectos, si. Muchos ciudadanos, a día de hoy no saben si la aplicación que están utilizando es GPRD compliance, si hace una transferencia internacional de su información o incluso en muchas ocasiones desconocemos a dónde viajan nuestros datos en estas aplicaciones, así como la gestión de las mismas.
En una sociedad cada vez más dirigida a resultados, inmediata y donde la IA nos proporciona de forma ágil una respuesta a nuestros problemas, creo que tenemos un gran reto de educación digital y enfoque de criterio sobre el uso y la demanda de servicios en estas aplicaciones.
No sabría decir exactamente la regulación idílica pero sí los ingredientes que componen una receta de regulación que puede evitar en gran parte dichas vulnerabilidades.
En este sentido, creo que debemos fomentar un marco flexible con revisiones periódicas adaptadas a los grandes avances tecnológicos en los modelos que usamos en nuestro día a día, incluir regulaciones globales, ya que la IA trasciende fronteras más allá de la Unión Europea y por último, desarrollar normas específicas que den respuesta a la evolución exponencial de la inteligencia artificial junto a equipos de trabajo compuesto por expertos en esta materia de empresas tecnológicas globales.