Debemos revisar en el ‘Aviso Legal’ dónde se encuentra la sede de la empresa. Si está en la UE, podemos fiarnos, porque estará sujeta la legislación europea: tanto al Reglamento de Inteligencia Artificial (RIA) como al Reglamento General de Protección de Datos (RGPD) o a la DSA (Reglamento de Servicios Digitales). Pero, si la sede no está en la UE, no debemos fiarnos mucho de ella.
Es correcta, pero como un marco regulatorio de referencia. El Reglamento de Inteligencia Artificial es una norma horizontal o transversal, pero ya se habían aprobado antes algunas normas verticales o sectoriales con referencias a la IA (como el RGPD, la DSA, la Directiva de Copyright en el Mercado único Digital o la Directiva relativa a la mejora de las condiciones laborales en plataformas digitales) y se seguirán aprobando otras.
Sienta una serie de principios, que deben desarrollarse. No sólo mediante leyes, europeas y nacionales, sino también mediante un ‘sandbox’ regulatorio y Guías de Buenas Prácticas.
Como en cualquier tema, las dos visiones son parciales. El punto óptimo de estas dos visiones es la visión completa, porque está claro que los usos de la IA, como de cualquier tecnología, pueden ser buenos y malos.
El mayor riesgo de la IA para el consumidor es el tratamiento ilegal de sus datos personales con el fin de manipularle y condicionar sus decisiones de compra, utilizando su perfil psicológico y algoritmos poco éticos.
Sin duda. Por eso es muy importante no sólo la regulación de los usos de la IA, sino, sobre todo, la supervisión de dichos usos. Las fortalezas son evidentes: gracias a los patrones y perfiles que utiliza, la IA, nos ayuda a buscar información o productos de acuerdo con nuestros gustos e intereses, pero los riesgos y amenazas están en los sesgos y la manipulación.
Con las leyes, que son las que ofrecen seguridad jurídica. Todas las Leyes tienen implícitas unos valores éticos, que parten del respeto a los Derechos Humanos. Pero lo importante es saber quién tiene la responsabilidad jurídica si algo va mal.
La IA generativa se está convirtiendo en la nueva forma de buscar información en red y también de generarla. El riesgo está en que no se conoce de qué fuentes bebe y en que, cuando no encuentra una información, se la inventa: las famosas ‘alucinaciones’. También en que se centra sólo en las respuestas más probables o frecuentes. Es un buen punto de partida, pero hay que contrastar los datos.
Entrenamiento y supervisión con el método científico, académico y periodístico: comprobando las fuentes primarias de información y contrastando los hechos. Es la base del conocimiento humano, de la ciencia y del periodismo.
Debe poner en marcha un ‘sandbox’ regulatorio, elaborar una Guías de Buenas Prácticas sectoriales para dar seguridad jurídica y una autoridad independiente de supervisión de la IA (la AESIA es un organismo dependiente de la SEDIA)
Por supuesto; cada una de las Autoridades sectoriales deben velar por el buen uso de la IA en sus respectivos ámbitos. La IA es un fenómeno transversal, que tendrá distinto uso e impacto en un sector o en otro.
La regulación siempre va por detrás de la innovación y de la realidad que viven los ciudadanos en su día a día. Sería imposible que fuera por delante. Pero eso no quiere decir que haya un vacío regulatorio, porque las leyes no regulan una tecnología concreta, sino lo que se hace con ella. Una estafa es una estafa, se haga con el timo de la estampita (física) o con una ‘deepfake’ elaborada con IA.
Habrá actos de ejecución de la Comisión europea, leyes sectoriales (por ejemplo, en materia de propiedad intelectual, sector financiero, asegurador, sanitario, etc.) y directrices de la Oficina europea de IA.
Los ciudadanos más expuestos a los peligros de la IA serán los que no tengan acceso a ella. Se va a producir una nueva brecha digital, entre los que no sepan utilizarla, que quedarán excluidos del mercado del trabajo, y los que sí se formen.