How Apple Intelligence’s Privacy Stacks Up Against Android’s ‘Hybrid AI’
Pourtant, Google et ses partenaires matériels affirment que la confidentialité et la sécurité sont un objectif majeur de l'approche Android IA. VP Justin Choi, responsable de l'équipe de sécurité, Mobile Experience Business at Samsung Electronics, affirme que son IA hybride offre aux utilisateurs «le contrôle de leurs données et de la confidentialité sans compromis».
Choi décrit comment les fonctionnalités traitées dans le cloud sont protégées par des serveurs régis par des politiques strictes. «Nos fonctionnalités d'IA à disque offrent un autre élément de sécurité en effectuant des tâches localement sur l'appareil sans se dépendance aux serveurs cloud, ni stockant des données sur l'appareil ni en le téléchargeant sur le cloud», explique Choi.
Google affirme que ses centres de données sont conçus avec des mesures de sécurité robustes, notamment la sécurité physique, les contrôles d'accès et le chiffrement des données. Lors du traitement des demandes d'IA dans le cloud, selon la société, les données restent dans l'architecture sécurisée du centre de données Google et l'entreprise n'envoie pas vos informations à des tiers.
Pendant ce temps, les moteurs d'IA de Galaxy ne sont pas formés avec les données des utilisateurs à partir de fonctionnalités sur les appareils, explique Choi. Samsung «indique clairement» quelles fonctions AI fonctionnent sur l'appareil avec son symbole Galaxy AI, et le fabricant de smartphones ajoute un filigrane pour montrer quand le contenu a utilisé une IA générative.
L'entreprise a également introduit une nouvelle option de sécurité et de confidentialité appelée Paramètres d'intelligence avancés Pour donner aux utilisateurs le choix de désactiver les capacités d'IA basées sur le cloud.
Google dit qu'il “a une longue histoire de protection de la confidentialité des données des utilisateurs”, ajoutant que cela s'applique à ses fonctionnalités d'IA alimentées sur les appareils et dans le cloud. “Nous utilisons des modèles sur les appareils, où les données ne quittent jamais le téléphone, pour des cas sensibles tels que le dépistage des appels téléphoniques”, a déclaré à Wired Suzanne Frey, vice-président de la confiance des produits chez Google.
Frey décrit comment les produits Google s'appuient sur ses modèles basés sur le cloud, qui, selon elle, garantit que «les informations des consommateurs, comme les informations sensibles que vous souhaitez résumer, ne sont jamais envoyées à un tiers pour le traitement.»
«Nous sommes restés déterminés à construire des fonctionnalités alimentées par l'IA auxquelles les gens peuvent faire confiance car ils sont sécurisés par défaut et privés par conception, et surtout, suivez les principes responsables de Google qui ont d'abord été défendus dans l'industrie», a déclaré Frey.
Apple change la conversation
Plutôt que de simplement faire correspondre l'approche «hybride» du traitement des données, les experts disent que la stratégie d'IA d'Apple a changé la nature de la conversation. “Tout le monde s'attendait à ce disque-disque et à la confidentialité, mais ce que Apple a fait, c'est dire, peu importe ce que vous faites en IA – ou où – c'est comment vous le faites”, dit Doffman. Il pense que «définira probablement les meilleures pratiques dans l'espace de l'IA du smartphone».
Malgré cela, Apple n'a pas encore remporté la bataille de confidentialité de l'IA: l'accord avec Openai – qui voit Apple ouvrir de manière inhabituelle son écosystème iOS à un fournisseur extérieur – pourrait mettre une bosse dans ses allégations de confidentialité.
Apple réfute les affirmations de Musk selon lesquelles le partenariat OpenAI compromet la sécurité de l'iPhone, avec «les protections de confidentialité intégrées pour les utilisateurs qui accèdent à Chatgpt». La société dit que vous serez demandé l'autorisation avant que votre requête ne soit partagée avec Chatgpt, tandis que les adresses IP sont obscurcies et que OpenAI ne stockera pas les demandes – mais les politiques d'utilisation des données de Chatgpt s'appliquent toujours.
Le partenariat avec une autre entreprise est une «décision étrange» pour Apple, mais la décision «n'aurait pas été prise à la légère», explique Jake Moore, conseiller mondial de cybersécurité de la société de sécurité ESET. Bien que les implications exactes de la confidentialité ne soient pas encore claires, il concède que «certaines données personnelles peuvent être collectées des deux côtés et potentiellement analysées par OpenAI».