Parlamento Europeo: cómo es la ley de inteligencia artificial aprobada en la Unión Europea

La disposición busca garantizar la seguridad y el respeto de los derechos fundamentales al tiempo que impulsa la innovación.

Por Canal26

Lunes 10 de Junio de 2024 - 18:28

El Parlamento Europeo en medio de las Elecciones Europeas 2024. Foto: EFE. El Parlamento Europeo aprobó con una mayoría aplastante la ley de IA. Foto: EFE.

El Parlamento Europeo aprobó con una mayoría aplastante la ley de inteligencia artificial (IA), convertida en la primera regulación de esta tecnología en la historia.

La normativa permite o prohíbe la utilización de esta herramienta en función del peligro que suponga para los ciudadanos. Con esta reglamentación, la Unión Europea pretende impulsar la industria producida en el Viejo Continente frente a los desarrollos de Estados Unidos y China.

El poder de la inteligencia artificial. Foto: EFE El poder de la inteligencia artificial será limitado. Foto: EFE

En líneas generales, la ley prohíbe la vigilancia masiva en espacios públicos, pero da la posibilidad a las fuerzas del orden de usar cámaras de identificación biométrica, con previa autorización judicial, para evitar una amenaza terrorista inminente.

Además, en términos de seguridad, puede ser utilizada para localizar o reconocer a una persona que cometió delitos de terrorismo, tráfico de personas, explotación sexual o un crimen medioambiental, y también para buscar a las víctimas.

Gemini; Google; inteligencia artificial. Foto: Reuters.

Te puede interesar:

Los mejores trucos para usar correctamente Gemini, la inteligencia artificial de Google

Prohibiciones y permisos de la nueva ley de IA en la Unión Europea

El reglamento establece una serie de restricciones para los sistemas de IA generativa en los que se basan programas como ChatGPT, de la empresa OpenAI, o Gemini, de Google. 

En concreto, estos modelos deben especificar si un texto, una canción o una fotografía se generó con inteligencia artificial y garantizar que la información que se empleó para entrenar a los sistemas respetan los derechos de autor.

Gemini; Google; inteligencia artificial. Foto: Unsplash. Gemini, de Google, y ChatGPT, de OpenAI. Foto: Unsplash.

Además, se detecta toda una serie de sistemas de IA de alto riesgo que sólo se podrán poner en el mercado si sus desarrolladores aseguran que respetan los derechos básicos. En este sentido, se contempla a quienes puedan influir en el resultado de unas elecciones o los que utilicen a las entidades financieras para analizar la solvencia y la calificación crediticia de los clientes.

La norma también prevé la creación de la Oficina Europea de Inteligencia Artificial, que coordinará el uso de esta tecnología entre las autoridades nacionales y que estará asesorada por un panel de expertos y de organizaciones de la sociedad civil.

Notas relacionadas