Filtración de chats corporativos desde sistemas de IA

En este documento se mencionan los casos más relevantes de chats corporativos confidenciales indexados por Google, y accesibles de forma pública, a causa de un problema de seguridad que se ha detectado y solucionado parcialmente en algunos sistemas de IA generativa. Estos datos están basados en una investigación realizada por el profesor Henk Van Ess, de la Universidad de Arizona.

Distintos resultados en función de la pregunta

El paso inicial para analizar los riesgos de la IA en una empresa es conocer los casos de uso asociados a cada departamento. Es la fase de identificación de casos de uso, también llamada de discovery, levantamiento, inventario o registro.

El objetivo es crear un registro de casos de uso con el fin de tener una base sólida y real para el posterior análisis de riesgos.

Si la metodología de búsqueda se basa en aplicaciones o sistemas de IA, en el registro aparecerán nombres como ChatGPT, Copilot, Gemini, Claude, Midjourney y similares, pero no conoceremos el detalle de los casos de uso reales, que es donde reside el riesgo. Incluso entrando en los sistemas de IA para auditar su uso, habrá que tener en cuenta que en muchas empresas hay usos individuales, descentralizados y desconectados de la estructura de control y del modelo de cumplimiento.

La metodología basada en preguntar al negocio tiene el riesgo de que no se utilicen las preguntas adecuadas. Es el típico caso en el que una pregunta abierta y una pregunta cerrada, basada en una lista, darán resultados completamente distintos.

En este documento analizamos varias experiencias previas que ayudarán a determinar cuáles son las preguntas que debemos formular para conseguir resultados más cercanos a la realidad.

Nuevo sistema de IA diseñado para actuar como científico colaborador virtual en investigaciones científicas

Nuevo sistema de IA diseñado para actuar como científico colaborador virtual en investigaciones científicas. Este sistema, basado en Gemini 2.0, utiliza múltiples agentes de IA que imitan el proceso científico, generando y evaluando hipótesis para acelerar descubrimientos en biomedicina.

En colaboración con instituciones como la Universidad de Stanford y el Imperial College de Londres, este co-científico de IA ha demostrado su capacidad para identificar mecanismos genéticos innovadores, proponer tratamientos potenciales y validar hipótesis en materias como:

1. Nuevas aplicaciones de medicamentos para la leucemia mieloide aguda.

2. Tratamientos avanzados para la fibrosis hepática.

3. Explicar los mecanismos de evolución de la transferencia genética bacteriana relacionados con la resistencia antimicrobial (AMR).

Artículo completo:

https://lnkd.in/daHHwHzh

Tabla que presenta la validación de hipótesis generadas por un sistema de IA co-científico a través de experimentos de laboratorio, incluyendo aplicaciones en reprogramación de medicamentos, descubrimiento de nuevos objetivos de tratamiento y explicación de mecanismos de transferencia genética.

Ficha IA040

Sistema de gestión de la calidad de un sistema de IA. (Parte II)
(Artículo 17 del Reglamento de IA)

La ficha resumida de hoy pertenece al proyecto «Mapa de riesgos jurídicos IA Ribas 2025». Con este proyecto celebramos el 10º aniversario de la aplicación Compliance 3.0.

En la ficha completa se contemplan:

– 5 factores de riesgo.

– 6 riesgos jurídicos IA.

– 7 controles.

Si deseas más información sobre el acceso a las fichas de riesgo completas puedes encontrarla aquí:

https://lnkd.in/dV6UdNUS

También puedes acceder a las fichas completas en el Curso de Experto en la gestión de los riesgos y controles de la inteligencia Artificial de Aranzadi – La Ley:

https://lnkd.in/dTEcF2-i

Infografía sobre el Mapa de riesgos jurídicos IA Ribas 2025, que incluye información sobre factores de riesgo, riesgos jurídicos y controles relacionados con el Sistema de gestión de la calidad de un sistema de IA.