Expertos urgen en la UA a aprobar una ley integral para casos de negligencias médicas de la inteligencia artificial

Las jornadas en la Universidad de Alicante analizan el riesgo de posibles daños a las personas por errores en el sistema y las intromisiones a la intimidad

Un momento de la mesa redonda para analizar las consecuencias jurídicas de errores de la inteligencia artificial en la Medicina.

Un momento de la mesa redonda para analizar las consecuencias jurídicas de errores de la inteligencia artificial en la Medicina. / Alex Domínguez

J. A. Martínez

J. A. Martínez

 Ante un caso de negligencia médica por la utilización de robots o de sistemas de inteligencia artificial, ¿quién es el responsable? Expertos en Derecho Civil urgieron este martes en la Universidad de Alicante (UA) a una ley integral para la reparación del daño para perjudicados por errores en el uso de estas tecnologías. Juristas e ingenieros informáticos han estado analizando en la UA el impacto del nuevo reglamento europeo en materia de inteligencia artificial en unas jornadas organizadas por el departamento de Derecho Civil. Los daños personales causados por estos errores y las posibles vulneraciones de la intimidad en la recopilación masiva de información para el big data son los principales riesgos para los derechos fundamentales en el ámbito médico. En la práctica de la Medicina cada vez son más habituales el uso de las nuevas tecnologías, que van desde los robochats para el diagnóstico, a robots con los que el cirujano lleva a cabo intervenciones de alta precisión, pasando por sistemas de asistencia a domicilio.

La lista de los posibles responsables es larga, porque interviene un gran número de profesionales en el proceso. «Puede ser el programador, el fabricante, el cirujano que controla el robot, la empresa propietaria del sistema o incluso se llegó a plantear que fuera el propio aparato si tenía alguna autonomía», explicó Óscar Monje, profesor de Derecho Civil de la Universidad de Deusto, que añadió que lo determinante para decidir es quién fue el responsable del daño. Para ello es necesario saber si el error ha podido deberse a una pérdida del control del aparato o a una incorrecta actualización del sistema o falta de mantenimiento por parte del hospital, o un acontecimiento externo, como un ataque informático o un apagón. También puede haber causas desconocidas, dada la complejidad técnica de estos equipos. «Apuesto por la reparación integral, crear una ley especial donde se impute la responsabilidad al operador y al propietario», indicó.  

Por su parte Raquel Luquín, profesora de Derecho Civil de la Universidad Pública de Navarra, también abogó por esta ley integral, que incidió en que debería configurarse un sistema de responsabilidad objetiva. A su juicio, son quienes se benefician de los riesgos deberían responder, aunque señaló que sabe que las reformas que están en marcha no van por ese camino. A su juicio, la responsabilidad «debería ser solidaria» entre los implicados en el posible error.

Rute Texiera, profesora de la Universidad de Oporto que explicaba la experiencia de Portugal en esa materia, incidió en que «el médico tiene el deber de vigilar, pero también debe tener la posibilidad de vigilar». En este punto, los expertos recalcaron la importancia de establecer un sistema transparente que permita detectar la fuente del error. 

Protección de datos

Juan Carlos Trujillo, catedrático de Lenguajes y Sistemas Informáticos de la UA, incidió en la preocupación del sector informático por los posibles fallos de un sistema que se ha creado con las indicaciones que les han dado los profesionales sanitarios. Trujillo está trabajando en la Universidad de Alicante en un sistema que usa la inteligencia artificial para la detección de Trastorno de Déficit de Atención (TDA) entre los menores. Para este proyecto, han utilizado videojuegoscreados específicamente para detectar las reacciones del niño mientras está jugando ante determinados estímulos y que se recogen mediante el uso de varios dispositivos. «Lo importante de esta investigación es que vamos a poder disponer de nuestros propios datos», explicó, una información que se está recopilando con todas las salvaguardas para preservar el anonimato de todas las personas que han intervenido en las pruebas. Una recopilación que información que permitirá a la inteligencia artificial atinar los sistemas de diagnóstico ante casos de TDA.

En este punto, los expertos no han dejado de apuntar las dificultades para compatibilizar las leyes de protección de datos con la necesidad del big data de recopilar todo ese tipo de información para trabajar en sus algoritmos de diagnóstico. Con la suma de toda esta información, una máquina puede anticipar enfermedades como el riesgo de una cardiopatía que un médico no vería en circunstancias normales. Aunque la profesora Luquín también alertó de los riesgos del sesgo de algunos de estos algoritmos, ya que podían darse errores de diagnóstico cuando se entraban los sistemas con personas de raza blanca y que podía obviar algunos síntomas con personas de origen afroamericano para enfermedades como el cáncer de piel o de mama.

Suscríbete para seguir leyendo