En esta tabla se desglosan los puntos que surgen del artículo 4 del Reglamento de IA y que deben ser tenidos en cuenta en el momento de adaptar la formación obligatoria sobre IA.
En Campus Ribas está disponible el curso base que puede ser utilizado para cumplir las obligaciones formativas básicas en una organización que no exija una adaptación adicional de acuerdo con esta tabla.
Hoy presentamos el nuevo curso sobre inteligencia artificial que permite acreditar la impartición de la formación exigida en el artículo 4 del Reglamento de Ia de la UE (EU AI Act) para los usuarios de sistemas de IA.
Puedes obtener más información del curso, y visualizar los tres primeros vídeos en esta dirección:
En mi artículo anterior sobre el riesgo de que exista una burbuja en relación con la valoración de los activos asociados a la inteligencia artificial, relacioné 12 posibles indicadores habitualmente relacionados con la existencia de una burbuja.
En este artículo voy a resumir los principios y fuentes de información que permiten obtener estos indicadores y analizar si estamos ante una burbuja en el caso de la IA.
1. Teoría económica y financiera
Indicadores clásicos de burbujas de activos, como los descritos por economistas como Charles Kindleberger en Manias, Panics, and Crashes: A History of Financial Crises.
Los conceptos de desconexión de los fundamentales y comportamientos especulativos suelen mencionarse en estudios de burbujas de mercado.
2. Análisis de ciclos de innovación
El Hype Cycle de Gartner, que evalúa las tendencias tecnológicas emergentes y su evolución desde la sobreexpectación inicial hasta una meseta de productividad. La IA actual se encuentra en un punto de alta expectación.
Observaciones sobre el ciclo de vida de las tecnologías, incluidas las fases de euforia y corrección.
3. Historia de burbujas tecnológicas
Ejemplos históricos como la burbuja de las puntocom (1999-2000) y las criptomonedas (2017-2018), que comparten características similares con la situación actual de la IA.
Paralelismos con tecnologías emergentes que experimentaron rápidos auges seguidos de ajustes significativos.
4. Comportamiento del mercado
Análisis del comportamiento de los inversores, tanto institucionales como minoristas, y cómo las expectativas influyen en la especulación.
Observación de las tendencias actuales en las valoraciones de empresas de IA, el flujo del capital riesgo y las expectativas de mercado.
5. Avances recientes en materia de IA
La popularidad de tecnologías como ChatGPT, las herramientas de IA generativa, y sus efectos en la percepción pública y en la valoración de empresas relacionadas.
Estudios de mercado, informes y análisis de expertos en tecnología, como los de McKinsey, PwC o Accenture, que destacan el crecimiento desproporcionado de la inversión en IA.
6. Psicología económica
La teoría del comportamiento del inversionista, como la herd mentality (mentalidad de rebaño) y el FOMO (Fear of Missing Out), que son características comunes en la formación de burbujas.
Análisis sobre cómo las narrativas dominantes moldean la percepción pública y el comportamiento del mercado.
La observación y el análisis de estas fuentes de conocimiento pueden ayudar a valorar los 12 indicadores propuestos en mi anterior artículo y a verificar si existe una burbuja en relación con los activos asociados a la inteligencia artificial.
Artículo completo que complementa el vídeo sobre los obstáculos que pueden existir para controlar y regular la inteligencia artificial.
A continuación relaciono los principales obstáculos que pueden existir para controlar y regular la IA.
1. Desarrollo acelerado y descentralizado.
La velocidad con la que la tecnología de la IA avanza, impulsada tanto por grandes corporaciones como por pequeños desarrolladores y comunidades open source, hace que sea extremadamente difícil regularla. Las actualizaciones y las nuevas versiones pueden superar rápidamente los marcos regulatorios existentes. La IA va más rápida que la ley.
2. Múltiples casos de uso.
La desventaja de regular de acuerdo con finalidades y casos de uso es que tanto la IA como el ser humano pueden generar supuestos, escenarios y casos de uso no previstos en la ley.
3. La ley es humana, la IA no.
La ley y la IA han sido creadas por el hombre, pero la IA es capaz de evolucionar de forma independiente y crear otras IAs. Una IA puede encontrar la manera de ocultar su actividad o escapar de cualquier otra forma al control del ser humano y de la ley.
4. Invisibilidad
La IA se integra en dispositivos, procesos y plataformas de una manera que puede no ser evidente para el usuario. Esta invisibilidad dificulta la identificación de los casos de uso basados en IA y la aplicación de la ley.
4. Acceso global a tecnología avanzada
Las herramientas de IA y los modelos preentrenados están disponibles en plataformas públicas, lo que democratiza el acceso pero complica la aplicación de normas locales e internacionales. La accesibilidad global permite a cualquier persona con conocimientos básicos utilizar la IA en cualquier contexto, desafiando la supervisión.
5. Ambigüedad en las definiciones y en el alcance de las normas
Las normas muchas veces no logran capturar la complejidad de lo que es la IA, que puede abarcar desde algoritmos de aprendizaje supervisado simples hasta modelos de lenguaje masivos y redes neuronales profundas. Esto provoca un vacío en las leyes y dificulta la elaboración de normas coherentes y completas.
6. Problemas de jurisdicción internacional
La IA puede ser desarrollada en un país, utilizada en otro, y afectar a interesados en diferentes regiones. Esto plantea retos a la hora de decidir qué leyes se aplican y cómo se puede hacer cumplir una norma en múltiples jurisdicciones.
7. Evolución autónoma de los modelos
Algunos sistemas de IA tienen la capacidad de autoaprender y mejorar sin intervención humana directa, lo que complica el control y la previsibilidad de sus comportamientos futuros, haciendo difícil aplicar la ley y establecer un marco de responsabilidad claro.
8. Dificultad en la atribución de responsabilidades derivadas de la toma de decisiones
En sistemas de IA complejos la lógica de la toma de decisiones puede ser opaca incluso para sus propios desarrolladores, lo que se conoce como la “caja negra” de la IA. Esto dificulta la trazabilidad, la atribución de responsabilidades y la aplicación de la ley de forma eficaz.
9. Adaptabilidad y personalización continua
Las aplicaciones de IA pueden adaptarse en tiempo real al contexto y las necesidades de los usuarios, lo que las hace difíciles de estandarizar y regular. Esta flexibilidad implica que las normas deben ser igualmente dinámicas, algo que los sistemas legislativos tradicionales suelen ser incapaces de conseguir y de mantener en el tiempo.
10. Diferencias culturales y éticas
Lo que se considera aceptable en términos de uso y aplicación de IA varía enormemente de una región a otra. Esta circunstancia hace que sea complicado crear normas universales que sean respetadas globalmente.
Ficha IA049 – COMPLETA Obligaciones de los responsables del despliegue. (Artículo 26 del Reglamento de IA – EU AI Act)
La ficha completa de hoy pertenece al proyecto «Mapa de riesgos jurídicos IA Ribas 2025». Con este proyecto celebramos el 10º aniversario de la aplicación Compliance 3.0.
En las fichas completas se contemplan:
– 5 factores de riesgo.
– 6 riesgos jurídicos IA.
– 7 controles.
Si deseas más información sobre el acceso a las restantes fichas de riesgo completas puedes encontrarla aquí:
Ficha IA048 – COMPLETA Responsabilidades a lo largo de la cadena de valor de la IA. (Artículo 25 del Reglamento de IA – EU AI Act)
La ficha completa de hoy pertenece al proyecto «Mapa de riesgos jurídicos IA Ribas 2025». Con este proyecto celebramos el 10º aniversario de la aplicación Compliance 3.0.
En las fichas completas se contemplan:
– 5 factores de riesgo.
– 6 riesgos jurídicos IA.
– 7 controles.
Si deseas más información sobre el acceso a las restantes fichas de riesgo completas puedes encontrarla aquí:
Obligaciones de los distribuidores de sistemas de IA de alto riesgo. (Artículo 24 del Reglamento de IA – EU AI Act)
La ficha completa de hoy pertenece al proyecto «Mapa de riesgos jurídicos IA Ribas 2025». Con este proyecto celebramos el 10º aniversario de la aplicación Compliance 3.0.
En las fichas completas se contemplan:
– 5 factores de riesgo.
– 6 riesgos jurídicos IA.
– 7 controles.
Si deseas más información sobre el acceso a las restantes fichas de riesgo completas puedes encontrarla aquí:
Obligaciones de los importadores de sistemas de IA de alto riesgo. (Artículo 23 del Reglamento de IA – EU AI Act)
La ficha completa de hoy pertenece al proyecto «Mapa de riesgos jurídicos IA Ribas 2025». Con este proyecto celebramos el 10º aniversario de la aplicación Compliance 3.0.
En las fichas completas se contemplan:
– 5 factores de riesgo.
– 6 riesgos jurídicos IA.
– 7 controles.
Si deseas más información sobre el acceso a las restantes fichas de riesgo completas puedes encontrarla aquí:
También puedes acceder a las fichas completas en el Curso de Experto en la gestión de los riesgos y controles de la inteligencia Artificial de Aranzadi – La Ley: