La Unión Europea establece un marco regulatorio para la IA
Una reciente reunión en Frankfurt, Alemania, fue el escenario donde se reveló el distintivo de la aplicación ChatGPT de OpenAI en dispositivos tecnológicos, justo al lado de las siglas «IA» (Inteligencia Artificial), marcando un momento significativo para el desarrollo de esta tecnología.
Avances legislativos para la inteligencia artificial
La Unión Europea ha dado un paso decisivo al concertar un conjunto de normas pioneras para el uso y desarrollo de la inteligencia artificial. Este acontecimiento promete convertirse en la primera gran legislación que regule esta tecnología en el mundo occidental.
Representantes de las principales instituciones de la UE dedicaron jornadas enteras a definir y pulir las propuestas legislativas. Parte del debate giró en torno a la regulación de los modelos de inteligencia artificial generativa, responsables de crear plataformas como ChatGPT, y el manejo de herramientas de identificación biométrica, que incluyen reconocimiento facial y escaneo de huellas dactilares.
Posturas nacionales ante la regulación
A pesar de la tendencia hacia un marco normativo común, Alemania, Francia e Italia mostraron preferencia por una autorregulación de los modelos generativos de IA, sugiriendo la implementación de códigos de conducta establecidos por los gobiernos en lugar de una legislación directa.
Existen preocupaciones en estos países sobre cómo una regulación estricta podría limitar la capacidad de competencia de Europa frente a gigantes tecnológicos de China y Estados Unidos. Dentro del espacio europeo, Alemania y Francia cuentan con startups prometedoras en el sector de la IA, como DeepL y Mistral AI.
El Acta de IA de la UE: un precedente en la regulación
Este nuevo cuerpo legal, el Acta de IA de la UE, es una iniciativa sin precedentes enfocada específicamente en la inteligencia artificial. Sus raíces se remontan al 2021, con una proposición de la Comisión Europea para establecer un marco legal y regulatorio unificado para la IA.
La ley clasifica la IA en niveles de riesgo que varían desde «inaceptable» —tecnologías que deben ser prohibidas— hasta las consideradas de alto, mediano y bajo riesgo.
Inteligencia artificial generativa en el ojo del huracán
La IA generativa se convirtió en un tema de gran interés a partir de la liberación pública de ChatGPT de OpenAI a finales del año pasado. Su aparición post-propuestas iniciales de la UE en 2021 urgió a los legisladores a reconsiderar su enfoque hacia esta tecnología.
Herramientas como ChatGPT, Stable Diffusion, Bard de Google y Claude de Anthropic han sorprendido tanto a expertos como a reguladores con su capacidad de generar resultados sofisticados y similares a lo humano a partir de preguntas simples y grandes cantidades de datos. Estas han generado críticas debido a preocupaciones sobre su potencial para reemplazar empleos, emitir lenguaje discriminatorio y violar la privacidad.
Implicaciones en la industria
De manera ilustrativa, se ha destacado el potencial de la IA generativa para optimizar procesos de selección en sectores como el sanitario, entre otros posibles usos empresariales.