La Inteligencia Artificial (IA) sigue siendo un tema dominado por el revuelo mundial. Según el informe de tendencias tecnológicas de McKinsey para 2024, en 2023 se invirtieron 36 mil millones de dólares en IA Generativa, mientras que se destinaron 86 mil millones de dólares a la IA aplicada. Actualmente, el mercado de IA en el Reino Unido tiene un valor superior a los 16,8 mil millones de libras, con un crecimiento previsto que superará los 801,6 mil millones de libras para 2035, lo que refleja el considerable avance económico y tecnológico que la IA está tomando en diversos sectores.
A través de la aplicación de la tecnología de Visión por Computador, por ejemplo, Marks and Spencer vio en 10 semanas una reducción del 80% en accidentes en sus almacenes: solo una de las múltiples formas en las que la IA está marcando la diferencia. Sin embargo, aún está por verse cómo una gobernanza coordinada permitirá que la innovación prospere manteniendo al mismo tiempo el cumplimiento normativo en todos los sectores.
Aunque la ambición más amplia del Reino Unido es ser una «Superpotencia de IA», ha habido un continuo debate y escrutinio sobre qué constituye una regulación efectiva de IA y cómo cualquier iteración continuada de dicha regulación podría mantenerse alineada con principios clave del derecho.
El ahora gobierno de la oposición publicó en 2023 su «Libro Blanco de Regulación de IA: Un Enfoque Pro-Innovación». Los planes esbozaron un enfoque basado en principios para la gobernanza que se delegaba a reguladores individuales. Aunque en ese momento se pensó que el éxito de la IA en el Reino Unido se debía a la aplicación efectiva de la normativa liderada por los reguladores combinada con la legislación y regulaciones tecnológicamente neutrales, el ritmo de la IA destacó lagunas –tanto en oportunidades como en desafíos– que requerirían ser abordadas.
En el período previo a las elecciones generales del Reino Unido de 2024, la regulación fue de gran importancia en el manifiesto del Partido Laborista bajo la sección «Impulsar el crecimiento económico», con el gobierno ahora en el poder buscando fortalecer la regulación de IA en áreas específicas. Keir Starmer, tanto antes como después de las elecciones, enfatizó la necesidad de enfoques más estrictos a la regulación de IA mediante, por ejemplo, la creación de una Oficina de Innovación Regulatoria (RIO). El objetivo de una RIO sería, entre otras cosas, establecer metas para los reguladores tecnológicos y monitorear la velocidad de toma de decisiones contra indicadores internacionales clave mientras se proporciona orientación según la estrategia industrial de más alto nivel del Partido Laborista.
Sin embargo, no es un nuevo regulador de IA y seguirá dependiendo de los reguladores existentes abordar la IA dentro de sus campos específicos. Aún está por verse en qué se diferenciaría una Oficina de Innovación Regulatoria del Instituto de Seguridad de IA, la primera organización respaldada por el Estado que avanza en la seguridad de la IA establecida por el gobierno conservador a principios de 2024.
Además de una nueva oficina reguladora, la creación planeada de una Iniciativa de Biblioteca Nacional de Datos tiene como objetivo reunir programas de investigación existentes y servicios públicos impulsados por datos con fuertes salvaguardas y beneficios públicos en su núcleo.
Aparte de los planes gubernamentales y el potencial económico, existen expectativas crecientes de que la IA resolverá los problemas más acuciantes de la humanidad. Sin embargo, como resultado del ritmo, hay un problema endémico más amplio de que las tecnologías digitales desafían el funcionamiento del derecho. A largo plazo, se requerirá un enfoque regulatorio proporcionado y a prueba de futuro, independientemente de dónde se desarrollen los enfoques en el mundo.
Definir la IA no es sencillo: no hay una definición ampliamente aceptada, y considerando que varias ramas de las ciencias se ven afectadas directa o indirectamente por la IA, existe el riesgo de crear definiciones individualizadas basadas en el campo específico. Además, los diferentes tipos de inteligencia podrían resultar en definiciones variadas de IA, incluso si no se considera el alcance tecnológico.
Sumando a la mixtura los campos de la Ciencia Computacional y la Informática –ambos no mencionados directamente en la Ley de IA, por ejemplo– se demuestra la falta de una definición técnica comúnmente acordada de lo que es o podría ser la IA. De esto se derivan tanto preguntas generales como teóricas y cómo esto podría moldearse en una definición legal.
Tomando, por ejemplo, los principios de la «certeza jurídica» y la «protección de intereses legítimos», la definición existente de IA no satisface los requisitos clave para definiciones legales. El resultado, en cambio, son definiciones ambiguas y debatibles en practicidad, creando un cuello de botella en la formulación de regulaciones de IA domésticas o incluso internacionales.
Lo que es en última instancia importante es que cualquier objetivo regulatorio esté alineado con los valores de los derechos fundamentales y la protección concreta de derechos legales. Tomemos el principio de «precaución», un enfoque para la gestión de riesgos, el cual establece que si una política o acción causa daño al público y no hay un acuerdo científico sobre el tema, esa política o acción no debería llevarse a cabo.
Aplicar esto a la IA se vuelve problemático, ya que los efectos en muchos casos no son evaluables en este momento o, en algunos casos, no en absoluto. Si entonces una evaluación de riesgos se lleva a cabo según el principio de proporcionalidad –donde la legalidad de una acción se determina por el equilibrio entre el objetivo, los medios y los métodos, así como las consecuencias de la acción– donde se obtiene un conocimiento fáctico limitado, la posibilidad de acción de dicha evaluación se vuelve cada vez más desafiante.
En cambio, es en la intersección de la funcionalidad técnica y el contexto de aplicación donde se puede obtener un perfil de riesgo de un sistema de IA, pero incluso entonces desde una perspectiva regulatoria estos sistemas pueden diferir enormemente en el perfil de riesgo.
La versatilidad de los sistemas de IA presentará una gama de oportunidades y desafíos dependiendo de quién los use, para qué propósitos se usen y los perfiles de riesgo resultantes. Intentar regular la IA –que, francamente, es un fenómeno entero con ramas de casos de uso cada vez más infinitas– a través de una Ley General de Inteligencia Artificial no funcionará.
En cambio, profundizar en las características y los casos de uso de los diferentes algoritmos y aplicaciones de IA es más importante y es más probable que resulte en una formulación de políticas iterativa efectiva que sea beneficiosa para la sociedad y la innovación.