El 89% del Uso de GenAI en Empresas es Invisible, Expone Riesgos Críticos de Seguridad

En un mundo donde la adopción de soluciones de Inteligencia Artificial Generativa (GenAI) está en aumento, un informe reciente ha arrojado luz sobre una preocupante realidad: el 89% del uso de estas herramientas en entornos empresariales ocurre fuera del radar de los departamentos de TI. Este fenómeno, conocido como 'Shadow AI', expone a las organizaciones a riesgos significativos, incluyendo fugas de datos y acceso no autorizado a información sensible.
El 'Informe de Seguridad de Datos de GenAI Empresarial 2025' de LayerX ofrece una visión sin precedentes sobre cómo se están utilizando las herramientas de IA en el lugar de trabajo, destacando vulnerabilidades críticas. Basándose en datos reales de clientes empresariales de LayerX, el informe revela que, aunque el 15% de los usuarios acceden a herramientas de GenAI diariamente, la mayoría del uso no es supervisado por los equipos de TI.
Un hallazgo particularmente alarmante es que el 72% de los empleados acceden a herramientas como ChatGPT a través de cuentas personales, y solo el 12% lo hace mediante autenticación única (SSO) en cuentas corporativas. Esto deja a las organizaciones ciegas ante el uso no autorizado de aplicaciones de IA y el intercambio no sancionado de información corporativa.
Además, el informe destaca que el 50% de la actividad de pegado en aplicaciones de GenAI incluye datos corporativos, con un promedio de casi 4 veces al día entre los usuarios que envían información a estas herramientas. Esto podría incluir información empresarial, datos de clientes, planes financieros, código fuente, entre otros.
Ante estos hallazgos, es evidente la necesidad urgente de nuevas estrategias de seguridad para gestionar los riesgos asociados con el uso de GenAI. Las herramientas de seguridad tradicionales no están equipadas para abordar el entorno de trabajo moderno impulsado por IA, donde las aplicaciones se basan en navegadores. La seguridad basada en navegador ofrece visibilidad sobre el acceso a aplicaciones SaaS de IA, aplicaciones de IA desconocidas más allá de ChatGPT, extensiones de navegador habilitadas para IA, y más. Esta visibilidad puede ser utilizada para implementar soluciones de Prevención de Pérdida de Datos (DLP) para GenAI, permitiendo a las empresas incluir de manera segura estas herramientas en sus planes y asegurar su futuro.
Para obtener más información sobre cómo se está utilizando GenAI y cómo las empresas pueden protegerse, se recomienda leer el informe completo. Este artículo es una contribución de uno de nuestros socios valorados. Síganos en Twitter y LinkedIn para más contenido exclusivo.