En general, para tener confianza en una aplicación que use IA, en primer lugar debemos tener en cuenta quién nos propone usarla, quien nos la ofrece; por tanto, debemos valorar si es una empresa o entidad conocida, o no, y como en todo lo que tienen que ver con el uso de las TIC debemos desconfiar de lo desconocido, ya que la propia naturaleza de la red hace que no siempre tengamos la certeza de quién hay
detrás de una aplicación.
Partiendo de la base de que es un sistema de IA en el que podemos confiar, debemos tener en cuenta cuales son las funcionalidades de la aplicación, es decir, el uso que le vamos a dar; en general, si se trata de una aplicación que nos resuelve dudas o cuestiones sobre temáticas concretas, por ejemplo relacionadas con la historia o cualquier otra materia tipica de estudio, nos podremos fiar de sus respuestas, ya que se trata de información que no requiere una actualización continuada. En cambio, si se trata de temas en los que la información cambia con una cierta periodicidad, debemos tener cuidado, puesto el entrenamiento de la IA no es continuo. Por ejemplo, si es una IA especializada en temas jurídicos, podemos encontrarnos con que tal vez no esté actualizada a una ley recientemente publicada.
Cuanto más compleja sea la pregunta o problema a resolver por parte de la IA, más medidas debemos adoptar para contrastar la información y menos debemos confiar de los resultados. Y dependiendo del uso que vayamos a dar a la respuesta será necesario ser más prudentes a la hora de usarla, en función de las consecuencias que pueda tener.
En general no podemos partir de la base de que la IA es infalible, puede equivocarse.
Es una regulación orientada a la seguridad de la IA, en el sentido de considerar que la IA es un producto cuyo consumo por parte de terceros, o por nosotros mismos, no está exento de riesgos. En función del riesgo, las exigencias de la norma son mayores, llegando incluso a la prohibición de ciertos usos cuando ese riesgo sea inaceptable.
Al tratarse de una norma de seguridad de producto, cubre todo el ciclo de vida de los sistemas de IA, desde su desarrollo a su distribución, importación, despliegue (uso por parte de empresas y entidades), su incorporación en otros productos (automóviles, electrodomésticos inteligentes, asistentes virtuales, etc.). Por tanto, a toda la cadena de agentes que están involucrados en los sistemas de IA se les aplica el Reglamento de IA.
El enfoque a riesgos y que la norma aplique a todo el ciclo de vida de los sistemas de IA hace que sea una norma adecuada en lo que respecta a que se puede confiar en los sistemas de IA, al menos con el actual estado de la IA en termino de tecnología.
También hay que mencionar que se trata de una regulación centrada en proteger a las personas ante potenciales vulneraciones de sus derechos y libertades fundamentales, como vienen siendo habitual en las normas de la UE.
Además, el hecho de que existan autoridades específicas de supervisión del cumplimento de Reglamento de IA y que se complemente con el Reglamento de protección de Datos Personales hace que a priori sea un marco jurídico aceptable.
Por supuesto, el hecho de que se hayan excluido ciertos ámbitos del Reglamento de IA hace que sea incompleta, ya que no aplica al uso militar o la seguridad nacional, entre otros, pero para aquello a lo que aplica es una regulación correcta.
Para el actual estado de las tecnologías de IA y los potenciales usos, es una norma equilibrada, regula lo que en estos momentos se puede regular sin perjuicio de que, probablemente, hacia el año 2028 deba ser revisada, una vez agotados todos los plazos para su aplicación.
Por definición todas las tecnologías y todos los avances tecnológicos, junto con los evidentes beneficios que suponen, exponen a riesgos a las personas, algunas incluso ponen en riesgo la vida de las personas o pueden llegar a causar graves daños.
Pensemos en la industria automovilística, la aviación, la energía nuclear, la industria farmacéutica, etc.. Por supuesto, el actual grado de desarrollo de la IA puede suponer riesgos importantes, como la discriminación, el control social, la vigilancia indiscriminada de la personas, la manipulación o incluso poner en riesgo la democracia y los estados de derecho, pero precisamente, para eso está la regulación, para detectar esos riesgos e imponer límites.
No es una visión antagónica, son 2 caras de la misma moneda y debemos convivir con ello.
Desde el punto de vista de los consumidores y los ciudadanos los principales riesgos tienen que ver con la manipulación de sus comportamientos o de las ideas de las personas; en un segundo lugar debemos prestar especial atención a las cuestiones relacionadas con la ciber-inseguridad, ya que la IA se usa también para cometer ciberdelitos con métodos cada vez más sofisticados y de más difícil detección.
La ética no es la ley. Un texto legal es algo que queda fijado mediante un procedimiento legislativo, y tiene como resultado la concreción de un conjunto de derechos y obligaciones. Por tanto, como principio general el contenido de la ley y lo que pretende es conocido y es común para todos aquellos a los que aplica esa ley.
En cambio, hay muchas éticas diferentes. Aunque el concepto de ética esté relacionado con discernir lo que está bien y lo que está mal, no es lo mismo la ética que pueda tener una persona, una profesión mediante un código deontológico, una cultura o una sociedad, un grupo religioso o étnico, etc.
La ética relacionada con el Reglamento Europeo de la IA tiene en cuenta los principios y valores europeos, con una clara orientación humanística, por tanto, enfocada a proteger los derechos humanos. Pero no tiene por qué coincidir con el planteamiento ético que se pueda hacer en otras zona geo-políticas del mundo.
Por tanto, la ética de la IA llegará hasta donde los principios y valores de quien la desarrolle o despliegue la lleven.
No, en absoluto. Contiene sesgos negativos que se ha demostrado que amplifica y perpetúa, alucinaciones que provocan respuestas fuera de lugar, puede no estar actualizada o sencillamente se ha podido entrenar con información no adecuada; el hecho de que, hoy por hoy, no existe un control de calidad de la IA como producto, hace que no podamos fiarnos por completo. No se trata de dejar de usarla, se trata de aplicar un cierto sentido crítico a las respuestas que nos proporciona y contrastarlas.
Aplicando estándares de calidad al desarrollo y al entrenamiento de la IA, con códigos deontológicos y sometiendo a los sistemas de IA a supervisión humana. A la industria no le interesa que no confiemos en la IA, por tanto, son procesos de control que iremos viendo con el tiempo; ahora todavía estamos en la fase de deslumbramiento provocado por la magia de la IA, pero eso se nos pasará tarde o temprano.
Dejando de lado las obligaciones que debe asumir a raíz del propio Reglamento de IA, la información y formación dirigida a la ciudadanía, sobre lo que es la IA y cómo usarla adecuadamente. Debería ser algo que planifique desde las etapas educativas más tempranas.
Los poderes públicos ya tienen la obligación de proteger a los consumidores. Como ya he dicho, el Reglamento de IA es una norma de seguridad de producto, por tanto, las administraciones públicas deben garantizar su cumplimiento y, en su caso, actuar cuando no se cumpla con lo dispuesto por el mismo, en forma de sanciones a los infractores; de hecho, son medidas que ya están previstas en nuestro ordenamiento jurídico, por tanto, debe hacer lo que ya hace cuando controla la seguridad de otro tipo de productos, sean alimentarios, de medicamentos o de electrodomésticos.
Creo que no. Creo que va algo por delante. En cualquier caso, las leyes deben regular realidades, el legislador no debe adivinar o elucubrar sobre situaciones que no son reales, así que en general siempre va por detrás de la realidad, pero en este caso, creo que el Reglamento de IA es lo suficientemente preventivo como para haberse avanzado al uso que se hace en estos momentos de la IA que pueda llegar a afectar a las personas.
Antes de hablar de una nueva regulación, creo que hay que esperar a ver cómo funciona la que acabamos de estrenar, y después de evaluar su impacto habrá que decidir si requiere ser corregida, que muy posiblemente será necesario.
Sin duda los ciudadanos más vulnerables seguirán siéndolo, seguramente más porque no tendrán acceso al uso de la IA o sus efectos positivos no les llegarán puesto que necesitan respuestas a otras necesidades. Al menos culturalmente y términos de oportunidades y de desarrollo personal van a ser más vulnerables, sin perjuicio de que ciertas iniciativas de la IA vayan dirigidas precisamente a afectar positivamente a las personas más vulnerables.