AI-Fakes Detection Is Failing Voters in the Global South

Mais ce n'est pas seulement que les modèles ne peuvent pas reconnaître les accents, les langues, la syntaxe ou les faits moins courants dans les pays occidentaux. «De nombreux outils initiaux de détection Deepfake ont été formés sur des supports de haute qualité», explique Gregory. Mais dans une grande partie du monde, y compris l'Afrique, bon marché Marques de smartphones chinois Cette offre des fonctionnalités dépouillées domine le marché. Les photos et vidéos que ces téléphones sont capables de produire sont de qualité beaucoup plus faible, ce qui confond les modèles de détection, explique Ngamita.

Gregory dit que certains modèles sont si sensibles que même le bruit de fond dans un élément d'audio ou la compression d'une vidéo pour les médias sociaux, peut entraîner un faux positif ou négatif. «Mais ce sont exactement les circonstances que vous rencontrez dans le monde réel, la détection brutale et dégringolée», dit-il. Les outils gratuits et orientés publics auxquels la plupart des journalistes, des vérificateurs de faits et des membres de la société civile ont probablement accès sont également «ceux qui sont extrêmement inexacts, en termes de traitement à la fois de l'inégalité de qui est représenté dans les données de formation et des défis de traiter ce matériel de qualité inférieure. »

L'IA générative n'est pas le seul moyen de créer des médias manipulés. Les soi-disant FACTESS, ou les médias manipulés en ajoutant des étiquettes trompeuses ou en ralentissant ou en éditionnant ou en éditant de l'audio et de la vidéo, sont également très courants dans le Sud mondial, mais peuvent être signalés à tort comme manipulé par l'AI par des modèles défectueux ou des chercheurs non formés.

Diya s'inquiète que les groupes utilisant des outils qui sont plus susceptibles de signaler le contenu de l'extérieur des États-Unis et de l'Europe en tant qu'IA générés pourraient avoir de graves répercussions à un niveau de politique, encourageant les législateurs à réprimer les problèmes imaginaires. «Il y a un énorme risque en termes de gonflement de ce genre de chiffres», dit-elle. Et le développement de nouveaux outils n'est guère une question d'appuyer sur un bouton.

Tout comme toutes les autres formes d'IA, la construction, les tests et la gestion d'un modèle de détection nécessitent l'accès aux centres d'énergie et de données qui ne sont tout simplement pas disponibles dans une grande partie du monde. «Si vous parlez d'IA et de solutions locales ici, c'est presque impossible sans le côté calcul des choses pour que nous gérons même nos modèles que nous pensons à trouver», explique Ngamita, qui est basée au Ghana. Sans alternatives locales, des chercheurs comme Ngamita se retrouvent avec peu d'options: payer l'accès à un outil hors de l'étagère comme celui offert par Reality Defender, dont les coûts peuvent être prohibitifs; utiliser des outils gratuits inexacts; Ou essayez d'avoir accès par le biais d'une institution universitaire.

Pour l'instant, Ngamita dit que son équipe a dû s'associer à une université européenne où ils peuvent envoyer des éléments de contenu pour la vérification. L'équipe de Ngamita a compilé un ensemble de données d'éventuels instances Deepfake à travers le continent, ce qui, selon lui, est utile pour les universitaires et les chercheurs qui essaient de diversifier les ensembles de données de leurs modèles.

Mais l'envoi de données à quelqu'un d'autre a également ses inconvénients. «Le temps de retard est assez important», explique Diya. “Il faut au moins quelques semaines au moment où quelqu'un peut dire avec confiance que cela est généré par l'IA, et à ce moment-là, ce contenu, les dégâts ont déjà été causés.”

Gregory dit que ce témoin, qui gère son propre programme de détection de réponse rapide, reçoit un «grand nombre» de cas. «Il est déjà difficile de gérer ceux dans le délai dont les journalistes de première ligne ont besoin, et au volume qu'ils commencent à rencontrer», dit-il.

Mais Diya dit que se concentrer tellement sur la détection pourrait détourner le financement et le soutien des organisations et des institutions qui constituent un écosystème d'information plus résilient dans l'ensemble. Au lieu de cela, dit-elle, le financement doit aller vers les médias et les organisations de la société civile qui peuvent engendrer un sentiment de confiance du public. «Je ne pense pas que ce soit là que va l'argent», dit-elle. «Je pense que cela va plus en détection.»