Lo siento, no hay encuestas disponibles en este momento.

La Unión Europea busca regular la IA

En enero del año próximo, la Unión Europea espera tener lista su futura regulación de la Inteligencia Artificial, que ya está generando polémica y promete generar todavía más una vez que se encuentre en vigencia, ya que se espera que esta tecnología afecte de manera profunda el día a día de los habitantes del bloque.

Entre las numerosas áreas en las que se espera que se avance con la IA es en la predicción de qué alumnos estarán en mejores condiciones de acceder a una universidad, qué personas son más aptas para hacerse con determinado puesto de trabajo o a qué usuario se le puede conceder financiación bancaria.

En este sentido, el especialista Pablo Uslé, director de equipo del Departamento de IPTech de Baker McKenzie explicó al medio español elEconomista que la futura normativa se enmarca dentro de la estrategia del bloque sobre IA, que además incluye otras normas adicionales.

La primera es una iniciativa que intenta adaptar las reglas tradicionales de responsabilidad contractual al desafiante y todavía desconocido mundo de la Inteligencia Artificial. El segundo proyecto se trata de una modificación del reglamento de seguridad de productos, que apunta a garantizar la seguridad, la salud y los derechos fundamentales de los habitantes de la UE.

Coincidencias

Pero más allá de estas iniciativas comunes, en el bloque se debate actualmente sobre tres iniciativas distintas, con puntos en común y diferencias. Una enviada por la Comisión Europea (CE) en 2021; otra presentada por el Consejo Europeo, en 2022; y la más reciente aprobado en junio de este año por el Parlamento Europeo.

Una de las principales coincidencias de las tres propuestas tiene que ver con la prohibición de determinados sistemas de IA debido a los importantes riesgos que acarrearía su utilización. Una de esa prohibiciones apunta al llamado scoring social, es decir la valoración de las personas en base a sus prácticas sociales (si pasan semáforos en rojo o van a visitar seguido a sus familias), otorgándole una «puntuación» al usuario y en base a ese perfilamiento otorgarle o negarle financiación para determinadas actividades.

Una segunda prohibición está ligada con los sistemas de identificación biométrica en tiempo real, aunque los europarlamentarios quieren habilitar su utilización por cuestiones de seguridad a las fuerzas policiales. Un tercer veto ya consensuado tiene que ver con las técnicas subliminales que buscan direccionar el pensamiento de una persona al momento de tomar decisiones.

Por último, se busca también prohibir los sistemas de reconocimiento de emociones por ejemplo, en los controles fronterizos de pasaportes y otra documentación.

Permitidos

Pero el consenso no se extiende sólo a lo que estaría prohibido, sino que también incluyen determinados «permisos» en lo referido a otros sistemas considerados de alto riesgo, aunque en estos casos se establecerían fuerte requisitos de control.

Entre los sistemas permitidos están aquellos que permiten perfilar a aquellos alumnos con mejores perspectivas para una carrera universitaria, o a los candidatos para un puesto de trabajo, o evaluar la perforrmance de ciertos empleados para definir quienes van a ascender. También se habilitará el uso de estas herramientas para decidir si le da o no crédito a determinados clientes de entidades bancarias o para mantener el control y la seguridad de infraestructuras críticas. como aquellas de las que dependen suministros de agua, gas o energía.

En una «segunda línea» respecto de los riesgos que entraña su uso, se cuentan los chat de empresas cuyo interlocutor con el usuario es un robot o los deepface, vídeos en los que sale una persona hablando pero realmente no es ella quien pronuncia las palabras. Pero en estos casos, la norma exige a la compañía que se informe al usuario que habla con una máquina o en el caso de los deepface, que se trata de contenidos falsos. En esta categoría más abierta se han incluido los denominados sistemas fundacionales como el ChatGPT, a los que se buscará regular de forma individual.

El texto del Parlamento Europeo introdujo, a diferencia de los dos anteriores, derechos para las personas. De un lado, que los usuarios puedan plantear reclamaciones para las autoridades competentes y, de otro, en los sistemas de alto riesgo, que tengan derecho a entender por qué la inteligencia artificial ha tomado una determinada decisión, por ejemplo, como descartar al usuario para un puesto de trabajo.

Disputas

En este punto, hay algunos países del bloque que consideran que una regulación tan fuerte va a significar una desventaja para las empresas europeas al momento de tener que competir con firmas de Estados Unidos o China, por ejemplo.

En este sentido, Alemania, Francia e Italia, las tres mayores economías del bloque, se movieron en conjunto para criticar lo que veían como un nuevo capítulo de esa excesiva regulación. El temor de los dirigentes de estos países es que se ahogue a las pequeñas empresas europeas que ahora intentan crecer, mientras que sus competidores de otras partes del mundo se benefician no sólo por las escasas regulaciones, sino en no pocos casos de ayudas y subvenciones oficiales más o menos enmascaradas por los gobiernos.

Vale señalar que en junio de este año, directivos de unas 150 empresas europeas, entre ellas la alemana Siemens y la francesa Airbus,  alertaron sobre la dirección que, en ese momento, estaba tomando la negociación respecto del texto unificado de la normativa, y advirtieron que se corría el riesgo de «hundir la competitividad europea».

La presidencia pro témpore del Consejo de la Unión Europea, que España ejerce desde julio y que finaliza a fin de este mes, buscó en todo momento mantener un equilibrio que se mostró muy complicado. Finalmente, propuso establecer «códigos de conducta», algo que muchos especialistas consideran equivalente a una autorregulación por parte de las empresas. Los dirigentes españoles señalan que el objetivo es tanto el establecimiento de un marco tan laxo que sea equivalente a un vacío legal, como fijar normas tan estrictas que terminan «liquidando la innovación».

Fuente: Diario BAE Negocios