Comment empêcher les outils d’IA générative comme Microsoft Copilot de créer et d’exposer des données sensibles à une vitesse affolante ?
Depuis l’instauration de Copilot de nombreuses équipes de sécurité doivent gérer ce problème de manière journalière.
Visionnez ce replay pour découvrir exactement comment fonctionne le modèle de sécurité de Microsoft Copilot et comment il peut augmenter sans le vouloir l’exposition des données.
Nos experts présenteront des scénarios concrets et vous donneront un plan d’action qui vous permettra de vous assurer que les mesures de sécurité des données appropriées sont en place avant de déployer des outils d’IA générative.
Nous vous montrerons également comment Metsys et Varonis peuvent vous aider à vous préparer plus rapidement au déploiement de Copilot en limitant le rayon d’explosion de votre IA, en classant et en étiquetant les données générées par l’IA et en surveillant le comportement des utilisateurs.
Vous souhaitez en savoir plus ? Remplissez le formulaire et visionnez le replay !
Veuillez compléter le formulaire ci-dessous pour recevoir le Replay du Workshop.