Información

Información

Contenido exclusivo para suscriptores digitales

Cuando las grandes empresas deliberan sobre ética

Una cincuentena de expertos nombrados a instancias de la Comisión Europea se ha encargado de elaborar una serie de directrices éticas para el buen uso y desarrollo de la inteligencia artificial.

Y ¿quién formó parte de ese llamado Grupo de Expertos de Alto Nivel? Pues, en primer lugar, representantes de multinacionales de distintos sectores como Airbus, Orange, Bosch, Bayer y otras.

Pero en la lista de empresas representadas está también la multinacional estadounidense Google. Y un científico nombrado por Amazon figura asimismo en la lista de reserva.

¿Cómo puede ser, se preguntaba el otro día en un artículo publicado en el diario alemán FAZ el físico y periodista luxemburgués Ranga Yogeshwar, que se consulte a empresas de EEUU sobre algo que afecta a los datos e intereses de los europeos?

¿Se trata de dar credibilidad a futuros productos "made in Europe" basados en la inteligencia artificial o de elaborar directrices que favorezcan el acceso de los productos de Google y de otras multinacionales transatlánticas al suculento mercado de la UE?

Es verdad que desde que el Comité Europeo de Protección de Datos publicó el pasado mes de mayo sus nuevas directrices, Bruselas parece haberse tomado algo más en serio que hasta entonces la tarea de proteger a los usuarios frente a los abusos de las compañias.

Lo demuestran al menos la sanción de 4.300 millones de euros impuesta a Alphabet, la matriz de Google, la mayor aplicada nunca por Bruselas a una empresa multinacional, por sus prácticas contra la libre competencia en el mercado europeo relacionadas con su sistema Android .

Y el fundador de Facebook, Mark Zuckerberg, tuvo que contestar asimismo a las preguntas del Parlamento europeo después de que se revelase que la firma británica Cambridge Analytica había tenido acceso a los datos de millones de usuarios de esa red.

Pero el científico luxemburgués se pregunta en su artículo si no habrán aprendido de todo ello las empresas de Silicon Valley y, al participar en ese comité, buscan adelantarse a posibles obstáculos a su futura expansión en Europa.

La protección de datos es el mayor enemigo de los algoritmos porque sin los primeros no pueden alimentarse las redes neuronales, que los necesitan para su continuo auto-aprendizaje.

Quien quiera desarrollar la inteligencia artificial, ha de poder acceder directamente a datos relativos a los movimientos, la salud, la fisionomía, el habla y muchísimos más de los ciudadanos.

Y no es pues de extrañar que las empresas de ese sector, europeas o estadounidenses, tengan un interés especial en que la protección de datos sea lo más laxa posible.

Otra crítica que dirige el autor de ese artículo al comité de expertos de la Comisión es que se sometiesen sus conclusiones al debate ciudadano casi como de tapadillo y en un período muy breve, que terminó el 18 de enero.

En el mismo periódico, el profesor luxemburgués de ética teológica y presidente de Caritas Europa, Emy Gillen, dudaba de que las "directrices éticas" de la UE en materia de inteligencia artificial fuesen otra cosa que un servicio prestado a los que califica de "capitalistas digitales".

Criticaba Gillen que se hubiesen metido en un tótum revolútum a fabricantes, distribuidores y usuarios sin tener en cuenta que sus intereses no sólo difieren entre sí, sino que pueden ser incluso contrapuestos.

Y que además ni la Comisión Europea ni los expertos se responsabilicen de las que llaman "directrices éticas para una inteligencia artificial" porque se trata de un "documento vivo" que habrá de seguir desarrollando. ¡Con la complicidad de las empresas, naturalmente!

Lo último en INF+

Compartir el artículo

stats