Reprompt expone datos usando IA de Microsoft Copilot

Publicado el: 26 de enero de 2026|Categorías: Noticias|Etiquetas: , , , |

Investigadores de Varonis Threat Labs documentaron Reprompt, un método de ataque que usa un vector de prompt injection para lograr que Microsoft Copilot procese instrucciones maliciosas y, con ello, exfiltre información desde el contexto al que el asistente tenga acceso.

Según la descripción, el ataque utiliza un enlace que dirige a Copilot e incluye contenido malicioso en parámetros de la URL.
El objetivo es que Copilot interprete esa entrada como una consulta legítima y ejecute acciones no deseadas, como recopilar datos y enviarlos a un destino controlado por el atacante.

Los reportes advierten que el impacto depende de los permisos y de las fuentes conectadas al asistente. En esos escenarios, Reprompt puede exponer documentos internos y otros datos corporativos disponibles para Copilot. El caso se suma a los riesgos de asistentes que acceden a múltiples repositorios (correo, archivos y plataformas internas), donde las organizaciones deben controlar permisos y validar entradas.

De acuerdo con lo publicado, Microsoft ya aplicó correcciones relacionadas con este comportamiento. Aun así, el incidente impulsa a las empresas a revisar configuraciones de acceso, políticas de uso y controles para reducir el riesgo de ataques basados en manipulación de prompts.

No olvides suscribirte a nuestro canal de YouTube y seguirnos a través de nuestras redes sociales (FacebookXLinkedIn Instagram) para estar informado con las noticias más relevantes de tecnología y ciberseguridad. Adicionalmente, conocerás más detalles sobre todos los productos y/o servicios de ciberseguridad que ofrece Quanti para ti.

Comparte esta historia!

Newsletter Semanal

Lo más relevante de ciberseguridad y tecnología.

Recibir Newsletter Semanal