Artículo completo que complementa el vídeo sobre los obstáculos que pueden existir para controlar y regular la inteligencia artificial.

A continuación relaciono los principales obstáculos que pueden existir para controlar y regular la IA.
1. Desarrollo acelerado y descentralizado.
La velocidad con la que la tecnología de la IA avanza, impulsada tanto por grandes corporaciones como por pequeños desarrolladores y comunidades open source, hace que sea extremadamente difícil regularla. Las actualizaciones y las nuevas versiones pueden superar rápidamente los marcos regulatorios existentes. La IA va más rápida que la ley.
2. Múltiples casos de uso.
La desventaja de regular de acuerdo con finalidades y casos de uso es que tanto la IA como el ser humano pueden generar supuestos, escenarios y casos de uso no previstos en la ley.
3. La ley es humana, la IA no.
La ley y la IA han sido creadas por el hombre, pero la IA es capaz de evolucionar de forma independiente y crear otras IAs. Una IA puede encontrar la manera de ocultar su actividad o escapar de cualquier otra forma al control del ser humano y de la ley.
4. Invisibilidad
La IA se integra en dispositivos, procesos y plataformas de una manera que puede no ser evidente para el usuario. Esta invisibilidad dificulta la identificación de los casos de uso basados en IA y la aplicación de la ley.
4. Acceso global a tecnología avanzada
Las herramientas de IA y los modelos preentrenados están disponibles en plataformas públicas, lo que democratiza el acceso pero complica la aplicación de normas locales e internacionales. La accesibilidad global permite a cualquier persona con conocimientos básicos utilizar la IA en cualquier contexto, desafiando la supervisión.
5. Ambigüedad en las definiciones y en el alcance de las normas
Las normas muchas veces no logran capturar la complejidad de lo que es la IA, que puede abarcar desde algoritmos de aprendizaje supervisado simples hasta modelos de lenguaje masivos y redes neuronales profundas. Esto provoca un vacío en las leyes y dificulta la elaboración de normas coherentes y completas.
6. Problemas de jurisdicción internacional
La IA puede ser desarrollada en un país, utilizada en otro, y afectar a interesados en diferentes regiones. Esto plantea retos a la hora de decidir qué leyes se aplican y cómo se puede hacer cumplir una norma en múltiples jurisdicciones.
7. Evolución autónoma de los modelos
Algunos sistemas de IA tienen la capacidad de autoaprender y mejorar sin intervención humana directa, lo que complica el control y la previsibilidad de sus comportamientos futuros, haciendo difícil aplicar la ley y establecer un marco de responsabilidad claro.
8. Dificultad en la atribución de responsabilidades derivadas de la toma de decisiones
En sistemas de IA complejos la lógica de la toma de decisiones puede ser opaca incluso para sus propios desarrolladores, lo que se conoce como la “caja negra” de la IA. Esto dificulta la trazabilidad, la atribución de responsabilidades y la aplicación de la ley de forma eficaz.
9. Adaptabilidad y personalización continua
Las aplicaciones de IA pueden adaptarse en tiempo real al contexto y las necesidades de los usuarios, lo que las hace difíciles de estandarizar y regular. Esta flexibilidad implica que las normas deben ser igualmente dinámicas, algo que los sistemas legislativos tradicionales suelen ser incapaces de conseguir y de mantener en el tiempo.
10. Diferencias culturales y éticas
Lo que se considera aceptable en términos de uso y aplicación de IA varía enormemente de una región a otra. Esta circunstancia hace que sea complicado crear normas universales que sean respetadas globalmente.