Análisis de los indicadores habitualmente asociados a la existencia de una burbuja en relación con la IA.

Artículo completo que complementa el vídeo sobre los obstáculos que pueden existir para controlar y regular la inteligencia artificial.

A continuación relaciono los principales obstáculos que pueden existir para controlar y regular la IA.
La velocidad con la que la tecnología de la IA avanza, impulsada tanto por grandes corporaciones como por pequeños desarrolladores y comunidades open source, hace que sea extremadamente difícil regularla. Las actualizaciones y las nuevas versiones pueden superar rápidamente los marcos regulatorios existentes. La IA va más rápida que la ley.
La desventaja de regular de acuerdo con finalidades y casos de uso es que tanto la IA como el ser humano pueden generar supuestos, escenarios y casos de uso no previstos en la ley.
La ley y la IA han sido creadas por el hombre, pero la IA es capaz de evolucionar de forma independiente y crear otras IAs. Una IA puede encontrar la manera de ocultar su actividad o escapar de cualquier otra forma al control del ser humano y de la ley.
La IA se integra en dispositivos, procesos y plataformas de una manera que puede no ser evidente para el usuario. Esta invisibilidad dificulta la identificación de los casos de uso basados en IA y la aplicación de la ley.
Las herramientas de IA y los modelos preentrenados están disponibles en plataformas públicas, lo que democratiza el acceso pero complica la aplicación de normas locales e internacionales. La accesibilidad global permite a cualquier persona con conocimientos básicos utilizar la IA en cualquier contexto, desafiando la supervisión.
Las normas muchas veces no logran capturar la complejidad de lo que es la IA, que puede abarcar desde algoritmos de aprendizaje supervisado simples hasta modelos de lenguaje masivos y redes neuronales profundas. Esto provoca un vacío en las leyes y dificulta la elaboración de normas coherentes y completas.
La IA puede ser desarrollada en un país, utilizada en otro, y afectar a interesados en diferentes regiones. Esto plantea retos a la hora de decidir qué leyes se aplican y cómo se puede hacer cumplir una norma en múltiples jurisdicciones.
Algunos sistemas de IA tienen la capacidad de autoaprender y mejorar sin intervención humana directa, lo que complica el control y la previsibilidad de sus comportamientos futuros, haciendo difícil aplicar la ley y establecer un marco de responsabilidad claro.
En sistemas de IA complejos la lógica de la toma de decisiones puede ser opaca incluso para sus propios desarrolladores, lo que se conoce como la “caja negra” de la IA. Esto dificulta la trazabilidad, la atribución de responsabilidades y la aplicación de la ley de forma eficaz.
Las aplicaciones de IA pueden adaptarse en tiempo real al contexto y las necesidades de los usuarios, lo que las hace difíciles de estandarizar y regular. Esta flexibilidad implica que las normas deben ser igualmente dinámicas, algo que los sistemas legislativos tradicionales suelen ser incapaces de conseguir y de mantener en el tiempo.
Lo que se considera aceptable en términos de uso y aplicación de IA varía enormemente de una región a otra. Esta circunstancia hace que sea complicado crear normas universales que sean respetadas globalmente.
Ficha IA049 – COMPLETA
Obligaciones de los responsables del despliegue.
(Artículo 26 del Reglamento de IA – EU AI Act)
La ficha completa de hoy pertenece al proyecto «Mapa de riesgos jurídicos IA Ribas 2025». Con este proyecto celebramos el 10º aniversario de la aplicación Compliance 3.0.
En las fichas completas se contemplan:
– 5 factores de riesgo.
– 6 riesgos jurídicos IA.
– 7 controles.
Si deseas más información sobre el acceso a las restantes fichas de riesgo completas puedes encontrarla aquí:
https://lnkd.in/dV6UdNUS


Ficha IA048 – COMPLETA
Responsabilidades a lo largo de la cadena de valor de la IA.
(Artículo 25 del Reglamento de IA – EU AI Act)
La ficha completa de hoy pertenece al proyecto «Mapa de riesgos jurídicos IA Ribas 2025». Con este proyecto celebramos el 10º aniversario de la aplicación Compliance 3.0.
En las fichas completas se contemplan:
– 5 factores de riesgo.
– 6 riesgos jurídicos IA.
– 7 controles.
Si deseas más información sobre el acceso a las restantes fichas de riesgo completas puedes encontrarla aquí:
https://lnkd.in/dV6UdNUS