Microsoft’s ‘Security Copilot’ Unleashes ChatGPT on Breaches
Jakkal dit que si les outils de sécurité de l’apprentissage automatique ont été efficaces dans des domaines spécifiques, comme la surveillance des e-mails ou de l’activité sur des appareils individuels – connus sous le nom de sécurité de point de terminaison – la sécurité Copilot rassemble tous ces flux séparés et extrapole une image plus grande. «Avec le copilote de sécurité, vous pouvez attraper ce que les autres peuvent avoir manqué car il forme ce tissu conjonctif», dit-elle.
Le copilote de sécurité est largement alimenté par le chatppt-4 d’OpenAI, mais Microsoft souligne qu’il intègre également un modèle spécifique à la sécurité Microsoft propriétaire. Le système suit tout ce qui est fait lors d’une enquête. L’enregistrement résultant peut être vérifié et les matériaux qu’il produit pour la distribution peut tous être modifiés pour la précision et la clarté. Si quelque chose que Copilot suggère lors d’une enquête est mauvais ou non pertinent, les utilisateurs peuvent cliquer sur le bouton «Off Target» pour former davantage le système.
La plate-forme propose des contrôles d’accès afin que certains collègues puissent être partagés sur des projets particuliers et non d’autres, ce qui est particulièrement important pour enquêter sur d’éventuelles menaces d’initiés. Et la copilote de sécurité permet une sorte de backstop pour la surveillance 24/7. De cette façon, même si une personne ayant des compétences spécifiques ne fonctionne pas sur un quart de travail donné ou une journée donnée, le système peut proposer une analyse de base et des suggestions pour aider à combler les lacunes. Par exemple, si une équipe souhaite analyser rapidement un script ou un binaire logiciel qui peut être malveillant, la copilote de sécurité peut démarrer ce travail et contextualiser la façon dont le logiciel s’est comporté et quels peuvent être ses objectifs.
Microsoft souligne que les données clients ne sont pas partagées avec d’autres et ne sont «pas utilisées pour former ou enrichir les modèles d’IA de fondation». Microsoft est fier de lui-même, l’utilisation de «65 billions de signaux quotidiens» de sa base de clients massive à travers le monde pour éclairer ses produits de détection et de défense des menaces. Mais Jakkal et son collègue, Chang Kawaguchi, vice-président de Microsoft et architecte de sécurité de l’IA, soulignent que le copilote de sécurité est soumis aux mêmes restrictions et réglementations de partage de données que n’importe lequel des produits de sécurité avec lesquels il s’intègre. Donc, si vous utilisez déjà Microsoft Sentinel ou Defender, Security Copilot doit se conformer aux politiques de confidentialité de ces services.
Kawaguchi dit que le copilote de sécurité a été construit pour être aussi flexible et ouvert que possible, et que les réactions des clients éclaireront les ajouts et améliorations futurs. L’utilité du système se résumera finalement à la perspicacité et à la précision qu’il peut concerner le réseau de chaque client et les menaces auxquelles ils sont confrontés. Mais Kawaguchi dit que la chose la plus importante est que les défenseurs commencent à bénéficier de l’IA génératrice le plus rapidement possible.
Comme il le dit: «Nous devons équiper les défenseurs de l’IA étant donné que les attaquants vont l’utiliser indépendamment de ce que nous faisons.»