Política de cuatro ojos en el uso de sistemas de IA

La política de cuatro ojos en el uso de sistemas de IA establece que toda decisión, resultado o recomendación generada por una herramienta de inteligencia artificial debe ser revisada o validada por una segunda persona antes de adoptarse como definitiva. En este documento hablamos de la supervisión humana de los sistemas de IA.

Fatiga normativa y funciones de la IA en la priorización de proyectos

En 2026 se alcanzará el máximo nivel de hiperregulación en Europa. A pesar de las iniciativas de simplificación de la carga normativa, la aparición de nuevas normas y de nuevas obligaciones es constante.

Este estrés derivado de la incontinencia legislativa está generado un fenómeno al que llamamos fatiga normativa.

El principal efecto de la fatiga normativa es percepción de que es imposible cumplir todas las obligaciones, lo cual causa desmotivación y una menor diligencia en el cumplimiento de las nuevas obligaciones.

La única forma de gestionar el sudoku del cumplimiento normativo en el inmenso océano de obligaciones es estableciendo unos criterios adecuados de priorización.

En este documento se describe un proceso de priorización de normas y obligaciones basado en el apoyo de la IA en todos los cuadrantes de la matriz Eisenhower normativa.

Los riesgos del Shadow AI

El 90% de los trabajadores utiliza sistemas de IA generativa para fines corporativos de acuerdo con un informe del MIT de 2025.

Mientras muchos proyectos corporativos de implantación de sistemas de IA generativa de las empresas permanecen estancados en la fase piloto, los trabajadores están utilizando diariamente sistemas de IA generativa para sus funciones laborales. Más del 50% de las cuentas relativas a los sistemas de IA utilizados en las empresas son cuentas personales.

En este documento encontrarás:

1. Una lista de los principales riesgos que genera el uso de cuentas personales de la IA en las empresas.

2. Una lista de las acciones necesarias que debe realizar la empresa.

Son acciones urgentes que deben realizar el DPO, el Compliance Ofiicer, el CISO y el responsable del departamento legal de la empresa.

Notificación del responsable del Sistema Interno de Información

En este documento nuestro compañero Juan Pablo Tornos analiza la notificación del nombramiento o cese del Responsable del Sistema Interno de Información de una organización a la Autoridad Independiente de Protección del Informante.

Shadow AI – Uso de cuentas personales de IA la empresa

En este documento se describen los riesgos asociados al shadow AI, es decir, el uso de cuentas personales de sistemas de IA por parte de los trabajadores, al margen de las políticas de uso establecidas por la empresa y del registro de casos de uso.

Acceso judicial a chats con IA eliminados

En este documento se contemplan varios ejemplos de chats corporativos con pruebas de incumplimiento o con evidencias claras de la preparación de acciones constitutivas de delitos o de infracciones administrativas graves que después fueron confirmados.

Estos supuestos hipotéticos permiten sensibilizar a los usuarios de sistemas de IA sobre el uso adecuado de los sistemas de IA y sobre el riesgo de que los chats corporativos eliminados sean recuperados a través de un procedimiento judicial o administrativo.

Los chats de la IA como prueba en juicio

En este documento se relacionan los principales canales por los que un chat corporativo mantenido con un sistema de IA puede ser incorporado a un procedimiento judicial o administrativo.
El chat puede contener pruebas de la preparación de acciones que pueden constituir delitos o infracciones administrativas graves.