Quizás no deba verse el cumplimiento normativo como un problema, sino como una oportunidad de mejorar la protección de los derechos de los clientes y mostrarse en el mercado como una entidad responsable y diligente, que gestiona bien sus riesgos de cumplimiento. Para ello, deben planificarse bien las obligaciones que la ley exige cumplir, y trabajar (con recursos internos o con apoyo externo) en la implementación de las medidas necesarias. Bien es cierto que eso requiere una inversión, de tiempo y -en ocasiones- de dinero, que debe planificarse adecuadamente y con tiempo, o asumir el riesgo de sanciones, que resulta más costoso.
El Código Penal es un documento muy completo con respecto a las nuevas tipologías delictivas, aunque este tipo de actuaciones van evolucionando, lo que requiere que la normativa se actualice a menudo. En cualquier caso, en la mayoría de las ocasiones la dificultad está más en la investigación y persecución que en el castigo penal, de ahí que se requieren más medios para las fuerzas y cuerpos de seguridad del estado.
Así lo creo, y por ello en 2025 publicaré otro libro titulado “cuentos de IA” donde poder explicar a padres e hijos estos nuevos riesgos que trae consigo esta tecnología. Esto es importante, ya que estas nuevas generaciones van a interactuar con la IA de manera natural, lo que dificulta aún más la labor de concienciación, que todos sabemos imprescindible, pero que es muchas ocasiones es complicada. Por poner un ejemplo, gracias a los cuentos he podido explicarles riesgos de ciberseguridad a personas con discapacidad intelectual, que es España son casi unos 300.000 y que son ciudadanos con un alto nivel de conectividad, pero que nadie sabe cómo contarles los riesgos tecnológicos.
Es una manera de representar una más que probable realidad, en la que aquellos abogados que sepan utilizar de manera eficiente la IA lograrán destacar sobre los que no lo hagan.
De entrada hay que ser conscientes de que estamos ante un asistente que nos ayuda a realizar nuestra tarea, pero que puede cometer errores o no interpretar nuestras consultas de manera correcta, por lo que no debemos olvidar nuestra espíritu crítico y nuestra supervisión de los datos obtenidos, responsabilizándonos del uso que hagamos de aquellos.
También hay que estar atentos a si la app utiliza IA generativa, ya que las respuestas que nos ofrezca pueden tener sesgos en su programación o causadas por un entrenamiento defectuoso o incompleto.
En el fondo, lo que la ley pretende regular es la protección de los derechos de las personas, y no la tecnología en sí, que sería imposible regular de manera eficaz. Con esta idea, el legislador europeo plantea una regulación estructurada en distintos niveles de riesgo para los derechos fundamentales, lo que parece una buena aproximación si queremos construir una IA sostenible.
Toda tecnología trae consigo ventajas e inconvenientes. Hay que sabe aprovechar las ventajas y evitar o minimizar los riesgos que la acompañan. Y, para ello, primero hay que identificarlos, medirlos y sabe cómo mitigarlos. Creo que la mayoría todavía está en esa fase.
En riesgos económicos, físicos y socio-culturales.
Hay que partir del principio de neutralidad tecnológica, en el sentido de que la IA no es buena o mala, sino que dependerá del uso de se le dé. Pero con respesto al uso que hacen las empresas de ella, sí que se ha detectado un incremento de la desprotección de los ciudadanos, por ejemplo en temas de predicción o perfilado, que la normativa pretende reconducir.
La ética parte de que la IA permite hacer muchas cosas, y debemos decidir cuáles de ellas no deben hacerse. En este sentido, la ética está llamada a convertirse en un aspecto esencial de cualquier desarrollo e implementación de IA, especialmente en territorio europeo, donde apostamos por una IA ética y fiable.
De momento no, ya que todavía está en una fase incipiente en lo que tiene que ver con la interactuación humano-máquina. Pero el ritmo de evolución sí hace prever un horizonte en el que la fiabilidad de la IA sea muy relevante.
La normativa hace bien en distribuir la responsabilidad legal entre los intervinientes de las distintas fases de implementación de la IA, de manera que dependiendo del rol que cada uno juegue en el proceso, tendrá una serie de responsabilidades legales específicas. Esto garantiza que cada interviniente se encargue de dar cumplimiento a sus deberes y, por tanto, garantizar que el desarrollo e implementación de una IA en concreto cumple con la norma.
España ha avanzado rápido con la creación de la Agencia Española de Supervisión de la IA (AESIA) desde donde se coordinará la implementación de esta tecnología tanto en el sector privado como en el público. En este sentido, se esperan guías orientativas y criterios interpretativos que ayuden al sector a llevar a cabo una interpretación correcta de la norma de conformidad con el criterio del regulador español.
Sí. La normativa faculta y habilita al regulador (AESIA), así como a otras entidades que puedan resultar afectadas (AEPD; CNMV, CNMC, Consumo…), a iniciar procesos de investigación y sanción a aquellas empresas que no den cumplimiento adecuado a los objetivos de la norma. No obstante, está por ver cómo se desarrollará este tipo de procesos.
La regulación siempre va por detrás de la realidad porque sólo aparece cuando se identifica una necesidad de poner normas. En este caso, todavía se esperan muchas normas a través de las cuales se pueda aplicar esta tecnología de manera útil y eficaz. Pero como toda disrupción social, las normas irán poco a poco apareciendo (especialmente en áreas más sesnsibles como pueden ser las de protección del consumidor, protección de datos personales y derechos fundamentales, y del mercado), y este caso no es una excepción.
Es importante que desde los poderes públicos y privados se diseñe una estrategia clara para poder dar una protección debida a los grupos más vulnerables. En el caso de la IA, el impacto que puede tener en estos colectivos es muy relevante, y no debemos permitir que se vean expuestos a prácticas que puedan causarles daños de ninguna clase. Y, en este aspecto, de nuevo la sensibilización, concienciación y formación van a ser elementos clave para poder lograr un desarrollo sano de esta tecnología con respecto a este tipo de perfiles.