AI Is Your Coworker Now. Can You Trust It?
Pourtant, «il ne semble pas très longtemps avant que cette technologie puisse être utilisée pour surveiller les employés», explique Elcock.
Autocensure
L'IA générative présente plusieurs risques potentiels, mais il existe des mesures que les entreprises et les employés individuels peuvent prendre pour améliorer la confidentialité et la sécurité. Tout d'abord, ne mettez pas des informations confidentielles dans une invite à un outil accessible au public tel que Chatgpt ou Google's Gemini, explique Lisa Avvocato, vice-présidente du marketing et de la communauté de la société de données Sama.
Lors de la fabrication d'une invite, soyez générique pour éviter de partager trop. «Demandez:« Écrivez un modèle de proposition pour les dépenses budgétaires », pas« voici mon budget, rédigez une proposition de dépenses sur un projet sensible », dit-elle. «Utilisez l'IA comme premier projet, puis superposez les informations sensibles que vous devez inclure.»
Si vous l'utilisez pour la recherche, évitez les problèmes tels que ceux observés avec les aperçus de l'IA de Google en validant ce qu'il fournit, explique Avvocato. «Demandez-lui de fournir des références et des liens vers ses sources. Si vous demandez à l'IA d'écrire du code, vous devez toujours le revoir, plutôt que de supposer qu'il est bon d'y aller. “
Microsoft a lui-même déclaré Ce copilote doit être configuré correctement et le ««le moins privilège»- Le concept selon lequel les utilisateurs ne devraient avoir accès qu'aux informations dont ils ont besoin – doivent être appliquées. C'est «un point crucial», explique Robinson de Prism Infosec. «Les organisations doivent jeter les bases de ces systèmes et ne pas faire confiance à la technologie et supposer que tout ira bien.»
Il convient également de noter que ChatGpt utilise les données que vous partagez pour former ses modèles, sauf si vous la désactivez dans les paramètres ou utilisez la version d'entreprise.
Liste des assurances
Les entreprises intégrant une IA générative dans leurs produits disent qu'ils font tout ce qu'ils peuvent pour protéger la sécurité et la vie privée. Microsoft est désireux de contour Considérations de sécurité et de confidentialité dans son produit de rappel et la possibilité de contrôler la fonctionnalité dans Paramètres> Confidentialité et sécurité> Rappel et instantanés.
Google dit L'IA générative dans l'espace de travail «ne change pas nos protections de confidentialité fondamentales pour donner aux utilisateurs le choix et le contrôle de leurs données» et stipule que les informations ne sont pas utilisées pour la publicité.
Openai réitère comment il maintient Sécurité et confidentialité Dans ses produits, tandis que les versions d'entreprise sont disponibles avec des commandes supplémentaires. «Nous voulons que nos modèles d'IA apprennent sur le monde, et non les particuliers – et nous prenons des mesures pour protéger les données et la vie privée des gens», a déclaré un porte-parole d'OpenAI à Wired.
Openai dit qu'il offre des moyens de contrôler la façon dont les données sont utilisées, y compris les outils en libre-service pour accéder, exporteret supprimer des informations personnelles, ainsi que la possibilité de se désabuser par l'utilisation du contenu pour Améliorer ses modèles. Selon la société, l'équipe de ChatGpt, ChatGpt Enterprise et son API ne sont pas formées sur les données ou les conversations, et ses modèles n'apprennent pas de l'utilisation par défaut.
Quoi qu'il en soit, il semble que votre collègue AI soit là pour rester. Alors que ces systèmes deviennent plus sophistiqués et omniprésents sur le lieu de travail, les risques ne feront que s'intensifier, explique Woollven. «Nous voyons déjà l'émergence d'une IA multimodale telle que GPT-4O qui peut analyser et générer des images, un audio et une vidéo. Donc maintenant, ce ne sont pas seulement les données textuelles que les entreprises doivent s'inquiéter de la sauvegarde. »
Dans cet esprit, les gens – et les entreprises – ne doivent pas entrer dans la mentalité de traiter l'IA comme tout autre service tiers, explique Woollven. “Ne partagez rien, vous ne voudriez pas diffuser publiquement.”