Uso de IA no supervisada, el gran desafío de las empresas
Publicado por Redacción Portal ERP México en 23/01/2025 en IT SecurityEl 77% de los usuarios de IA Gen introduce sus propias herramientas al entorno laboral, a menudo sin supervisión del área TI, incrementando los riesgos de seguridad y cumplimiento.
Foto: cortesía. Portal ERP México.
El último Índice de Tendencias Laborales, elaborado por Microsoft y LinkedIn a partir de una encuesta a 31,000 personas en 31 países, refleja que, ante los beneficios que aporta la Inteligencia Artificial (IA) generativa, muchos empleados no esperan a que las empresas desplieguen estas soluciones y deciden utilizar sus propias herramientas de IA. En ausencia de una estrategia oficial de IA, el 77% de los empleados encuestados por Microsoft y LinkedIn introduce sus propias herramientas de IA en el entorno laboral, incluso en aquellas organizaciones que sí cuentan con un plan de adopción.
Esta situación genera riesgos en cuanto a la privacidad y la protección de los datos corporativos, que pueden acabar siendo procesados e incorporados por servicios de IA, especialmente aquellos no orientados al mercado empresarial y que no garantizan un tratamiento confidencial de la información.
Inteligencia Artificial: preocupaciones y retos
Más del 80% de los directivos considera que el potencial de fuga de datos confidenciales es su principal preocupación. Existe una necesidad real de que las organizaciones mejoren la visibilidad y el control de su activo más crítico: los datos.
A pesar de ello, muchas empresas desconocen el uso de aplicaciones de IA por parte de sus empleados. Esto incluye información sobre qué aplicaciones se utilizan, quiénes las usan y qué tipos de datos se comparten o generan. La falta de visibilidad puede derivar en desafíos de seguridad y cumplimiento que, a su vez, pueden provocar incidentes como:
- Fugas de datos: Los usuarios pueden revelar involuntariamente datos confidenciales, como información personal de clientes, a aplicaciones de IA que incorporen esa información a su conocimiento, haciéndola pública por default.
- Uso compartido de datos: Los usuarios podrían intentar acceder a información sensible a través de aplicaciones de IA. Sin controles de seguridad adecuados, estas aplicaciones podrían obtener acceso, resumir o crear contenido basado en datos confidenciales, incrementando el riesgo de sobreexposición.
- Uso indebido: Con la facilidad de creación de contenido mediante IA generativa, los usuarios pueden generar contenido poco ético o de alto riesgo, como noticias falsas o información fraudulenta. Es esencial que las organizaciones regulen el uso de aplicaciones de IA para garantizar el cumplimiento de códigos de conducta y requisitos normativos.
Te puede interesar: La ciberseguridad escala en el interés de las empresas mexicanas, según Microsoft
La apuesta de Microsoft
Para ayudar a enfrentar estos desafíos, Microsoft presentó Microsoft Purview, diseñadas para garantizar la seguridad y el cumplimiento en entornos digitales complejos, supervisando el uso de aplicaciones de IA en la organización, desde qué herramientas se utilizan, hasta qué datos se comparten y cómo se usan, facilitando el cumplimiento normativo mediante la automatización de procesos. Se integra con otras herramientas del ecosistema Microsoft, como Azure y Microsoft 365.