Noticias

Nueva Ley de Inteligencia Artificial en Europa

Enreach 14/03/2024
Clock icon 5 min

Europa está liderando la regulación de la IA a nivel mundial. Justo ayer se hizo la votación del Reglamento Europeo de la Inteligencia Artificial (IA) en la Eurocámara.

Con 523 votos a favor y 46 en contra, la normativa tiene luz verde para entrar en vigor a mediados del 2026.

Solo hace falta que los Estados miembros den su visto bueno al texto definitivo y que este se publique en el Diario Oficial de la UE.

ORIGEN DE LA LEY DE INTELIGENCIA ARTIFICIAL

Esta ley tiene su origen en la propuesta de la Comisión Europea de 2021 para crear el primer marco regulador de la IA.

Hace tres años, la Comisión propuso crear nuevas normas y medidas destinadas a convertir a Europa en el centro mundial de una Inteligencia Artificial digna de confianza.

Estas normativas incidían en categorizar la IA por nivel de riesgo y proponer medidas regulatorias para cada una de ellas.

Tras el acuerdo provisional de diciembre, la Comisión lanzó la iniciativa GenAI4EU que tiene como objetivo apoyar a startups y PYMEs en adoptar esta tecnología.

Y recientemente, en febrero de 2024, se acordó constituir el Comité Europeo de Inteligencia Artificial, donde participará un representante de cada Estado miembro que supervisará la aplicación de la ley en su país.

OBJETIVOS DE LA LEY DE IA

Con todas las piezas listas en el tablero, esta ley tiene dos objetivos muy claros:

  • Garantizar que los sistemas de Inteligencia Artificial presentes en la Unión Europa sean seguros y respeten los derechos de los ciudadanos.
  • Estimular la inversión y la innovación de la IA en Europa.

CLAVES DE LA NUEVA LEY DE INTELIGENCIA ARTIFICIAL

Como ya hemos mencionado anteriormente, este reglamento establece obligaciones a proveedores y usuarios en función del nivel de riesgo de la IA.

1. IA DE RIESGO MÍNIMO

La Inteligencia Artificial estrecha conocida como ANI, IA limitada o IA débil es aquella que ha sido creada para realizar una sola tarea a la perfección.

Es la más usada en Europa y como no tienen ningún riesgo, la ley dictamina que se puede hacer un uso libre de ella.

En esta categoría entrarían los asistentes virtuales (Siri, Alexa, Cortana…), filtros de spam en correos electrónicos, vehículos autónomos, etc.

2. IA DE RIESGO LIMITADO

Esta IA también conocida como AGI o IA fuerte es aquella que puede realizar cualquier tarea intelectual que un ser humano es capaz de hacer, pero como cualquier persona, no lo sabe todo.

El reglamento establece que, aunque no representa una gran amenaza para los ciudadanos, debe cumplir con unos requisitos mínimos de transparencia que permitan a los usuarios tomar decisiones con conocimiento de causa.

Por ejemplo, cuando se utilizan sistemas de IA como chatbots, las personas deben ser conscientes de que están interactuando con un bot y deben tener la posibilidad, en todo momento, de terminar la conversación.

Además, en el caso de usar IA generativa, como ChatGPT, los proveedores deberán especificar que el contenido se genera artificialmente y estarán obligados a incorporar modelos específicos que eviten la generación de contenido ilegal y respeten los derechos de autor.

3. IA DE RIESGO ALTO

En tercer lugar, encontramos la superinteligencia artificial o ASI que supera las capacidades y habilidades humanas en cualquier tarea. Incluso se la considera capaz de pensar mejor y de ser más hábil que nosotros.

Obviamente la ley indica que esta IA puede poner en riesgo la seguridad y/o los derechos fundamentales de los consumidores.

Por eso, solo podrá introducirse en el mercado si respeta los derechos fundamentales y los valores de la UE, yestará sometida a una mayor vigilancia para garantizar que se usa de forma segura e íntegra.

Su uso estará limitado en:

  • Infraestructuras críticas como medios de transporte ya que podría poner en peligro la vida y salud de los ciudadanos.
  • Formación educativa o profesional como la puntuación de exámenes o cualquier procedimiento que determine el curso profesional de una persona.
  • Componentes de seguridad de los productos como la aplicación de IA en cirugía asistida por robot.
  • Empleo, gestión de los trabajadores y acceso al trabajo por cuenta propia como programas informáticos para revisar CV.
  • Servicios públicos y privados esenciales como calificaciones crediticias que denieguen a los ciudadanos un préstamo.
  • Aplicación de la ley que pueda interferir con los derechos fundamentales de las personas como automatizar los exámenes de solicitudes de visado.
  • Administración de justicia y procesos democráticos como soluciones de IA para buscar resoluciones judiciales.

4. IA DE RIESGO INACEPTABLE

Este tipo de IA también se conoce como singularidad y protagonizan la gran mayoría de películas de ciencia ficción.

No es de extrañar que más allá de considerarse una amenaza para las personas, los derechos fundamentales, también atenta contra la democracia, el Estado de Derecho y el medio ambiente.

Es por es que las IA etiquetas como “riesgo inaceptable” pasarán a estar prohibidas dentro de la UE una vez la normativa entre en vigor.

En este grupo se engloban todos aquellos sistemas de IA que realizan “puntuaciones sociales”, aquellas que usan técnicas subliminales, las que se aprovechan de las vulnerabilidades de un grupo específico de personas o las que reconocen emociones.

CONCLUSIONES FINALES

Tras la aprobación de la primera ley en el mundo que regula la Inteligencia Artificial podemos prever que esto es solo el comienzo.

Esta tecnología, que cada vez está presente en más aspectos de nuestra vida cotidiana, necesita normativas que transmitan seguridad y, por supuesto, que impulsen su uso.

¿Utilizas IA para atender a tus clientes o estás pensando en comenzar? Infórmate sobre cómo puedes aprovechar esta tecnología para liberar a tus agentes de aquellas tareas donde no aportan valor.

Ponte en contacto con nuestro equipo de expertos llamando al 900 670 750 o escribiendo en nuestro chat web. ¡Estamos encantados de ayudarte!

Bell icon ¡Suscríbete! Hearth icon Pide una demo