LlamarInformación

D. Francisco Pérez Bes.

Socio en el área de Derecho Digital en Ecix y ex-secretario general de Incibe.

Entrevista realizada por José Mª Camarero (Periodista económico) en el marco del Proyecto de ADICAE: “Los consumidores ante los nuevos avances tecnológicos y legislativos en el E-commerce”

-¿Cómo pueden las empresas cumplir de forma segura con la regulación en IA teniendo en cuenta los obstáculos o trámites normativos que ello conlleva para su día a día y responsabilidad legal?

Quizás no deba verse el cumplimiento normativo como un problema, sino como una oportunidad de mejorar la protección de los derechos de los clientes y mostrarse en el mercado como una entidad responsable y diligente, que gestiona bien sus riesgos de cumplimiento. Para ello, deben planificarse bien las obligaciones que la ley exige cumplir, y trabajar (con recursos internos o con apoyo externo) en la implementación de las medidas necesarias. Bien es cierto que eso requiere una inversión, de tiempo y -en ocasiones- de dinero, que debe planificarse adecuadamente y con tiempo, o asumir el riesgo de sanciones, que resulta más costoso.

¿Está nuestro Código Penal preparado para castigar todos los ciberdelitos?

El Código Penal es un documento muy completo con respecto a las nuevas tipologías delictivas, aunque este tipo de actuaciones van evolucionando, lo que requiere que la normativa se actualice a menudo. En cualquier caso, en la mayoría de las ocasiones la dificultad está más en la investigación y persecución que en el castigo penal, de ahí que se requieren más medios para las fuerzas y cuerpos de seguridad del estado.

en la mayoría de las ocasiones la dificultad está más en la investigación y persecución que en el castigo penal, de ahí que se requieren más medios para las fuerzas y cuerpos de seguridad del estado.

-Usted publicó un libro en 2020 llamado ‘Cuentos de Ciberseguridad’ para enseñar a familias y a niños los riesgos de Internet. ¿Está la sociedad, en general, y la infancia, particular, demasiado expuesta a riesgos como los derivados de la IA?

Así lo creo, y por ello en 2025 publicaré otro libro titulado “cuentos de IA” donde poder explicar a padres e hijos estos nuevos riesgos que trae consigo esta tecnología. Esto es importante, ya que estas nuevas generaciones van a interactuar con la IA de manera natural, lo que dificulta aún más la labor de concienciación, que todos sabemos imprescindible, pero que es muchas ocasiones es complicada. Por poner un ejemplo, gracias a los cuentos he podido explicarles riesgos de ciberseguridad a personas con discapacidad intelectual, que es España son casi unos 300.000 y que son ciudadanos con un alto nivel de conectividad, pero que nadie sabe cómo contarles los riesgos tecnológicos.

-En el sector se comenta habitualmente que la IA diferenciará a los abogados listos de los tontos. ¿Está de acuerdo?

Es una manera de representar una más que probable realidad, en la que aquellos abogados que sepan utilizar de manera eficiente la IA lograrán destacar sobre los que no lo hagan.

-¿De qué debemos fiarnos, y de qué no, cuando nos enfrentamos a una aplicación de IA?

De entrada hay que ser conscientes de que estamos ante un asistente que nos ayuda a realizar nuestra tarea, pero que puede cometer errores o no interpretar nuestras consultas de manera correcta, por lo que no debemos olvidar nuestra espíritu crítico y nuestra supervisión de los datos obtenidos, responsabilizándonos del uso que hagamos de aquellos.
También hay que estar atentos a si la app utiliza IA generativa, ya que las respuestas que nos ofrezca pueden tener sesgos en su programación o causadas por un entrenamiento defectuoso o incompleto.

hay que estar atentos a si la app utiliza IA generativa, ya que las respuestas que nos ofrezca pueden tener sesgos en su programación o causadas por un entrenamiento defectuoso o incompleto.

-¿Es correcta la regulación actual sobre la IA, tras la nueva Ley de Inteligencia Artificial europea?¿Se ha quedado corta o ha ido demasiado lejos?

En el fondo, lo que la ley pretende regular es la protección de los derechos de las personas, y no la tecnología en sí, que sería imposible regular de manera eficaz. Con esta idea, el legislador europeo plantea una regulación estructurada en distintos niveles de riesgo para los derechos fundamentales, lo que parece una buena aproximación si queremos construir una IA sostenible.

-En muchos debates, la IA se expone como un riesgo brutal para la sociedad. En otros debates, solo se habla de las bondades de la tecnología. ¿Cuál es el punto óptimo en estas dos visiones antagónicas?

Toda tecnología trae consigo ventajas e inconvenientes. Hay que sabe aprovechar las ventajas y evitar o minimizar los riesgos que la acompañan. Y, para ello, primero hay que identificarlos, medirlos y sabe cómo mitigarlos. Creo que la mayoría todavía está en esa fase.

-¿Cómo debemos clasificar y definir los riesgos de la IA para el consumidor, ante un impacto tan extenso como el que tiene esta tecnología actualmente?

En riesgos económicos, físicos y socio-culturales.

-¿Los ciudadanos se encuentran ahora más desprotegidos que antes ante lo que les ofrece la IA?

Hay que partir del principio de neutralidad tecnológica, en el sentido de que la IA no es buena o mala, sino que dependerá del uso de se le dé. Pero con respesto al uso que hacen las empresas de ella, sí que se ha detectado un incremento de la desprotección de los ciudadanos, por ejemplo en temas de predicción o perfilado, que la normativa pretende reconducir.

se ha detectado un incremento de la desprotección de los ciudadanos, por ejemplo en temas de predicción o perfilado, que la normativa pretende reconducir.

-¿Cómo se establece hasta dónde llega la ética de la IA?

La ética parte de que la IA permite hacer muchas cosas, y debemos decidir cuáles de ellas no deben hacerse. En este sentido, la ética está llamada a convertirse en un aspecto esencial de cualquier desarrollo e implementación de IA, especialmente en territorio europeo, donde apostamos por una IA ética y fiable.

-Para muchos ciudadanos, sobre todo jóvenes, ChatGPT se ha convertido en una tecnología básica en su día a día. ¿Nos podemos fiar de todo lo que nos diga esta herramienta?

De momento no, ya que todavía está en una fase incipiente en lo que tiene que ver con la interactuación humano-máquina. Pero el ritmo de evolución sí hace prever un horizonte en el que la fiabilidad de la IA sea muy relevante.

-¿Cómo se debe desarrollar la IA para que no caiga en un pozo repleto de mentiras y muera de éxito?

La normativa hace bien en distribuir la responsabilidad legal entre los intervinientes de las distintas fases de implementación de la IA, de manera que dependiendo del rol que cada uno juegue en el proceso, tendrá una serie de responsabilidades legales específicas. Esto garantiza que cada interviniente se encargue de dar cumplimiento a sus deberes y, por tanto, garantizar que el desarrollo e implementación de una IA en concreto cumple con la norma.

-¿Qué acciones debe ejercitar la Administración española para poner en la práctica el reglamento europeo adaptándolo a la realidad de nuestro país?

España ha avanzado rápido con la creación de la Agencia Española de Supervisión de la IA (AESIA) desde donde se coordinará la implementación de esta tecnología tanto en el sector privado como en el público. En este sentido, se esperan guías orientativas y criterios interpretativos que ayuden al sector a llevar a cabo una interpretación correcta de la norma de conformidad con el criterio del regulador español.

-¿Pueden ejercer los poderes públicos en España determinadas acciones legales para evitar un impacto negativo de la IA en los consumidores

Sí. La normativa faculta y habilita al regulador (AESIA), así como a otras entidades que puedan resultar afectadas (AEPD; CNMV, CNMC, Consumo…), a iniciar procesos de investigación y sanción a aquellas empresas que no den cumplimiento adecuado a los objetivos de la norma. No obstante, está por ver cómo se desarrollará este tipo de procesos.

-¿La regulación de la IA va ya por detrás de la realidad, de lo que viven los ciudadanos en su día a día?

La regulación siempre va por detrás de la realidad porque sólo aparece cuando se identifica una necesidad de poner normas. En este caso, todavía se esperan muchas normas a través de las cuales se pueda aplicar esta tecnología de manera útil y eficaz. Pero como toda disrupción social, las normas irán poco a poco apareciendo (especialmente en áreas más sesnsibles como pueden ser las de protección del consumidor, protección de datos personales y derechos fundamentales, y del mercado), y este caso no es una excepción.

-¿Cuál debe ser esa regulación a partir de ahora? ¿Son los ciudadanos más vulnerables socialmente los más expuestos a estos peligros de la IA?

Es importante que desde los poderes públicos y privados se diseñe una estrategia clara para poder dar una protección debida a los grupos más vulnerables. En el caso de la IA, el impacto que puede tener en estos colectivos es muy relevante, y no debemos permitir que se vean expuestos a prácticas que puedan causarles daños de ninguna clase. Y, en este aspecto, de nuevo la sensibilización, concienciación y formación van a ser elementos clave para poder lograr un desarrollo sano de esta tecnología con respecto a este tipo de perfiles.

X