Expertos alertan en la UA de los agujeros de la ley europea sobre inteligencia artificial

El reglamento de la UE no contempla herramientas propias para que los particulares puedan defenderse frente a los bulos y las imágenes creadas por la ia

Juristas sostienen que el texto es más laxo de lo esperado y que puede quedar desfasado en breve

El uso del ChatGPT y sus errores centraron la primera mesa redonda de las jornadas de la UA.

El uso del ChatGPT y sus errores centraron la primera mesa redonda de las jornadas de la UA. / Información

J. A. Martínez

J. A. Martínez

Los expertos alertaron ayer de la falta de herramientas jurídicas para que los ciudadanos particulares puedan defenderse de las amenazas que representa la inteligencia artificial ante bulos e imágenes falsas creadas por estos sistemas informáticos. A pesar de que recientemente el Parlamento Europeo sacaba pecho ante la aprobación de una norma histórica para la regulación de la inteligencia artificial, estos expertos lamentan que el texto finalmente aprobado es demasiado administrativo, farragoso, más suave que lo que inicialmente se pretendió y que deja a los particulares con pocas herramientas para defenderse ante los bulos generados por estos sistemas. 

Desde este lunes, la Universidad de Alicante celebra un congreso para analizar el nuevo marco jurídico sobre la inteligencia artificial y sobre todo su irrupción en el Derecho de daños. El ChatGPT y otros modelos de lenguaje en internet centró la primera de las mesas redondas en las que han intervenido expertos tanto del campo del Derecho como de la Ingeniería Informática, en unas jornadas organizadas por el departamento de Derecho Civil de la Universidad de Alicante. Las jornadas fueron inauguradas por la secretaria general de la UA, Esther Algarra, y los catedráticos de este departamento Pedro Femenía y Juan Antonio Moreno. Algarra señaló que «la inteligencia artificial ha irrumpido con fuerza en todos los aspectos de nuestra vida y el Derecho Civil está obligado a dar respuesta a estas cuestiones», destacando que «estamos ante una oportunidad para que este avance se ponga al servicio de las personas». Además de los populares chatbots, en estas jornadas se van a analizar aspectos tan diversos como la biomedicina, los sistemas de conducción automática e incluso el derecho en el campo del metaverso.

La profesora titular de Derecho Civil de la Universidad Complutense de Madrid, Carmen Muñoz, aseguró que la irrupción del ChatGPT en plena redacción de la norma que iba a regular el uso de la inteligencia artificial en la Unión Europea sorprendió a las autoridades comunitarias, alcanzando un volumen de descargas en muy poco tiempo inédito hasta para aplicaciones muy populares como TikTok o Netflix. La norma tuvo que cambiarse para actualizarse a esta nueva realidad. Aunque Muñoz consideró que el texto había sido mucho más suave a lo que se había anunciado en un principio, incidiendo en el hecho de que tanto Francia como Alemania estaban trabajando en sus propios sistemas de inteligencia artificial.

Peligro de desfases

A pesar de la aprobación del reglamento, todavía ésta norma está sujeta a constantes cambios y ya se da por hecho que puede quedarse desfasada en el momento de que se apruebe, dada la velocidad a la que se suceden los avances tecnológicos. Los expertos alertaron de que en seis meses las imágenes generadas por inteligencia artificial iban a ser prácticamente imposibles de distinguir de las auténticas

En este contexto, intervino la catedrática de Derecho Civil de la Universidad de Cádiz, Margarita Castilla, quien se encargó de analizar las consecuencias jurídicas del uso de deep fakes. La experta lamentó que prácticamente las herramientas jurídicas que tenían los particulares son las que han venido teniendo siempre y que el legislador europeo no ha sabido ver el alcance del problema en este tipo de falsificaciones. «Las normas van encaminadas a la protección de la sociedad contra los riesgos de la manipulación electoral que pueden suponer estos bulos y noticias falsas», señaló, sin embargo, lamentó una desprotección hacia el ciudadano particular que se quedaba con las mismas herramientas de siempre, ante una nueva realidad. En este sentido hizo referencia a los casos registrados en España en la que imágenes de jóvenes menores de edad habían sido utilizadas por otros compañeros para recrearlas y obtener otras de carácter pornográfico mediante la inteligencia artificial. En este sentido, calificó de decepcionante la falta de respuesta de las autoridades comunitarias. Un panorama que vino a definir como «la muerte del derecho civil».

«Lo importante es el riesgo que se produce para el interés público y además va a depender de que tengamos un responsable de una línea editorial. No es lo mismo cuando el bulo viene de un medio de comunicación que de otra procedencia», explicó Castilla.

La normativa establece unas obligaciones de transparencia a los medios sobre el uso de la inteligencia artificial para crear imágenes. Una de ellas el avisar de que dichas fotografías o vídeos se han generado por inteligencia artificial. «Más allá de estas advertencias, hay formas de escaparse. Si la publicación tiene una finalidad satírica, o si forma parte de un elemento de ficción. Como un personaje creado para una película. Se va a tener que ir analizando caso por caso», explicó. En el supuesto de que sean textos, las obligaciones serán diferentes. La norma sí que prevé sanciones por estos incumplimientos, aunque dentro de este panorama sancionador no se contempla el cómo reclaman los ciudadanos sus derechos, salvo acudir a las herramientas jurídicas que ya existían antes de la irrupción de la inteligencia artificial.

Un momento de la mesa redonda para analizar el ChatGPT en la UA.

Un momento de la mesa redonda para analizar el ChatGPT en la UA. / J. A. M.

Durante su intervención explicó que hay inconcreción en la aplicación del texto para que los particulares puedan defenderse de la falta de transparencia sobre los usos indebidos de la inteligencia artificial.

Carmen Muñoz destacó que cuando Europa impulsó la propuesta de reglamento, marcó un doble objetivo «innovar y emprender, por un lado, y en segundo lugar segundo que se respeten los derechos fundamentales hasta el extremo». Sin embargo, consideró una contradicción que al indagar en el reglamento «resulta que no se regulan los derechos fundamentales. Es un texto administrativo de carácter técnico, complejo y hasta antipático». En este sentido incidió en que «nos dice que quiere proteger derechos como privacidad, protección de datos, derechos de los consumidores, propiedad intelectual, responsabilidad civil. Pero nada de esto se encuentra en la norma. Todos aspectos se deben buscar en legislaciones especiales de todas las materias».

«El ChatGPT responde a todo lo que le preguntamos pero no busca la verdad»

La veracidad del ChatGPT a debate. Los expertos analizaron en la mesa redonda el problema de esta aplicación con las alucinaciones en las que en demasiadas ocasiones ha facilitado información errónea, sin ni siquiera ser consciente de que estaba mintiendo. «El ChatGPT es complaciente, nos va a responder todo lo que le pidamos, sea verdad o mentira. No busca la verdad. Marca probabilidades», explicó la profesora titular de Derecho Civil de la Universidad Complutense de Madrid, Carmen Muñoz. La experta dio otros datos sobre la realidad de esta herramienta como el ser capaz de aprobar el examen para la Abogacía en Estados Unidos o el MIR (el examen de los médicos en España) sin estar preparado para ello, dada la velocidad a la que recopila la información. Pero un fallo en alguna de estas materias no es lo mismo que tener una equivocación con una lista de restaurantes.

En este sentido, los expertos abogaron porque la persona que esté utilizando la herramienta tenga un cierto conocimiento sobre las materias por las que está preguntando a fin de detectar esos errores. El profesor de Lenguajes y Sistemas Informáticos de la UA, Jorge Calvo, señaló que el ChatGPT había demostrado capacidad para hacer cosas que nadie le había enseñado. Una de ellas, la traducción automática de idiomas. Además de las alucinaciones, Calvo citó otros problemas como el no saber cuándo está fallando, ni los criterios que le han llevado a cometer ese error, e incluso tiende a ser tendencioso evitando dar respuesta sobre asuntos sobre los que existe controversia. 

Para evitar o tratar de mitigar estos fallos, los expertos recomiendan hacer preguntas sencillas a fin de ir guiando al sistema hacia la respuesta adecuada. Incluso el probar hacerle la misma pregunta de manera diferente para comprobar si la respuesta es  o no la misma. Asignar un rol a la inteligencia artificial a la hora de responder una pregunta es otro aspecto importante, ya que no es lo mismo a la hora de hacer una consulta sobre el alquiler de una casa si la persona es la arrendataria o no. Calvo señaló que es posible que la aplicación no responda claramente si se le pregunta por la legalización de la marihuana, pero en cambio si puede dar argumentos a favor y en contra si se le pone en el contexto de un debate durante una clase. Otro aspecto controvertido es que para ChatGPT no existe derecho al olvido, no se le puede programar para olvidar algo.

El catedrático de Derecho Mercantil de la Universitat Oberta de Catalunya, Miguel Peguera, disertó sobre los niveles de riesgo que ofrece la normativa europea de inteligencia artificial. El considerado como riesgo alto comprende «las conductas expresamente prohibidas». El nivel superior comprende los usos que presentan un riesgo inaceptable para la seguridad, los medios de vida y los derechos de las personas. Estos casos de uso están prohibidos a menos que estén autorizados por la ley con fines de seguridad nacional e incluyen los sistemas de inteligencia artificial de puntuación social, la manipulación del comportamiento humano que causa daño y la vigilancia masiva.

Niveles de riesgo

En el escalón de riesgo alto, el acceso al empleo, la educación y los servicios públicos, la gestión de infraestructuras críticas, los componentes de seguridad de los vehículos, la aplicación de la ley y la administración de justicia. El requisito que se exige en la evaluación de la conformidad. El tercer nivel está compuesto por los usos de riesgo limitado y sólo tendrá obligaciones de transparencia. Es este nivel en el que se encuentran comprendidos los modelos de inteligencia artificial, como chatbots. El cuarto nivel incluye usos de riesgo mínimo que no estarán sujetos a ninguna obligación, aunque se recomienda la adopción de códigos de conducta voluntarios. Peguera recordó cómo el uso indebido de la inteligencia artificial hizo caer en bloque al ejecutivo de Holanda. El Ejecutivo neerlandés presentó en enero de 2021 su dimisión en bloque por la polémica provocada por las ilegalidades administrativas en la asignación de las ayudas a familias con hijos. La Agencia Tributaria empezó a enviar cartas en 2014 a más de 26.000 familias acusándolas sin fundamento de fraude para obtener ayudas con las que pagar las guarderías de sus hijos, y les exigieron devolver decenas de miles de euros recibidos en prestaciones en plazos que no superaban las semanas, lo que llevó a muchos a perder su casa, trabajo y a endeudarse. Un algoritmo había usado ilegalmente la nacionalidad como factor de riesgo.

Tras analizar estos niveles de riesgo Margarita Castilla lamentó que «la legislación asume que va a haber víctimas sin resarcimiento. No va a haber seguridad cero. Se definen umbrales de riesgo y se suponen que se van a ir añadiendo para determinar ese potencial dañino, para evaluar en cada caso concreto. Esas variables combinadas es lo que da lugar a la pirámide de riesgo». Sin embargo, advirtió de que no se puede segmentar todo y se trata de materias que son permeables.

 Por su parte, el catedrático Juan Antonio Moreno, que moderó la mesa, valoró el hecho de que las normas que se estaban aprobando eran preventivas, es decir, tratan de que se evite el daño, por lo que dejan poco campo de actuación para el Derecho Civil. Tanto Moreno como Femenía han sido investigadores principales del proyecto I+D del Ministerio de Ciencia e Innovación «Irrupción de la inteligencia artificial en el Derecho de daños y su adaptación a las nuevas tecnologías».

Suscríbete para seguir leyendo