Noticias

¿Termina la era de la inteligencia artificial? Revisa los detalles de la histórica ley firmada por la Unión Europea

La UE acaba de sentar las bases para regular este tipo de tecnología.

Para validar la utilidad de la edad estimada por inteligencia artificial utilizando radiografías de tórax como biomarcador.
Unión Europea ratifica la primera Ley relacionada a inteligencia artificial Imagen referencial.

Desde su creación y posterior masificación, la inteligencia artificial ha avanzado meteóricamente. Bastó un año para que OpenAI diera la vuelta al mundo con ChatGPT, y menos tiempo para que la competencia se activara y comenzaran a aparecer diversas tecnologías de IA en internet. Pero tras este poco controlado crecimiento, las preocupaciones gubernamentales no tardaron. Es por ello que la Unión Europea decidió tomar la delantera y posicionarse a la vanguardia en cuanto a la regulación de la IA.

PUBLICIDAD

Y tras un esfuerzo de meses, en los últimos días se ratificó la primera ley de IA, por lo que la UE se convirtió en pionera al aprobar el primer marco legal mundial para la regulación de la Inteligencia Artificial (IA).

Recomendado

Se trata de una ley que recibió 46 votos en contra y 49 abstenciones, pero que aún así logró su ratificación. Con 523 votos a favor, el “Reglamento Europeo de la Inteligencia Artificial” será una realidad que buscará equilibrar la innovación con la mitigación de sus riesgos asociados.

Paises firman declaración mundial sobre el riesgo de la IA.| Foto: Referencial
Paises firman declaración mundial sobre el riesgo de la IA.| Foto: Referencial

Los detalles del primer Reglamento Europeo de la Inteligencia Artificial

En el papel, se trata de una normativa que priorizará la seguridad, transparencia y responsabilidad en el uso de IA dentro de la Unión Europea (UE).

En primer lugar, la regulación clasificará las aplicaciones de IA según su nivel de riesgo. En esa línea, todos los modelos de inteligencia artificial ‘de propósito general’ tendrán que cumplir con obligaciones de transparencia y con las normativas europeas de derechos de autor. Mientras que las tecnologías de ‘alto riesgo’ tendrán que atravesar más obstáculos para su implementación.

Los sistemas de ‘riesgo inaceptable’, incluidos aquellos que puedan amenazan la seguridad personal y/o los derechos fundamentales, estarán sujetos a prohibiciones, mientras que los de riesgo limitado o alto enfrentarán regulaciones específicas para asegurar su uso ético y seguro.

También, entre los puntos más destacados está la prohibición de vigilancia masiva y uso de tecnologías de reconocimiento facial en tiempo real en espacios públicos, excepto bajo condiciones estrictas para prevenir actos terroristas con autorización judicial.

Además, la nueva ley exigirá que los sistemas generativos - como ChatGPT de OpenAI-, indiquen claramente cuando el contenido ha sido generado por IA, asegurando también los derechos de autor en los datos de entrenamiento.

Respecto al uso de IA en procesos de selección laboral, admisión universitaria y/o evaluación de solvencia financiera, se establecerán límites claros para prevenir prácticas injustas o discriminatorias.

También se prohibirá el uso de deepfake y chatbots sin identificación clara, con el fin de promover la transparencia y proteger a los consumidores de engaños.

Con todo, la UE estableció sanciones significativas en caso de incumplir estas regulaciones, con multas que van de los 7,5 millones a los 35 millones de euros, para así garantizar la aplicación efectiva de la ley a través de la recién creada AI Office (Oficina Europea de IA).

El director general de la firma OpenAI, Sam Altman, habla durante una audiencia sobre Inteligencia Artificial de la Subcomisión Judicial del Senado sobre Privacidad, Tecnología y la Ley el martes 16 de mayo de 2023, en el Capitolio, en Washington, D.C. AP (Patrick Semansky/AP)

Tags

Lo Último