Worry About Misuse of AI, Not Superintelligence
OpenAI Sam Altman, PDG attend L'AGI, ou intelligence générale artificielle (IA qui surpasse les humains dans la plupart des tâches), vers 2027 ou 2028. La prédiction d'Elon Musk est soit 2025 ou 2026et il a revendiqué qu'il “perdait le sommeil à cause de la menace du danger de l'IA”.
Mais les prédictions d’une IA imminente au niveau humain sont faites depuis plus de 50 ans, depuis la premiers jours de l’IA. Ces prédictions étaient fausses, non seulement en termes de calendrier, mais dans un sens plus profond et catégorique. Nous savons désormais que les approches spécifiques de l’IA que les experts avaient en tête dans le passé sont tout simplement incapables d’atteindre une intelligence au niveau humain. De même, comme le limites de l'IA actuelle sont devenus clairs, la plupart des chercheurs en IA en sont venus à l'idée que le simple fait de construire des chatbots plus grands et plus puissants ne mènera pas à l'AGI.
L’IA avancée est certainement une préoccupation à long terme que les chercheurs devraient étudier. Mais les risques liés à l’IA en 2025 proviendront d’une mauvaise utilisation, comme cela a été le cas jusqu’à présent.
Il peut s’agir d’abus involontaires, tels que le recours excessif des avocats à l’IA. Après la sortie de ChatGPT, par exemple, un certain nombre d'avocats ont été sanctionnés pour avoir utilisé l'IA pour générer des briefings judiciaires erronés, apparemment inconscients de la tendance des chatbots à inventer des choses. Dans Colombie-Britanniquel'avocate Chong Ke a été condamnée à payer les frais de l'avocat adverse après avoir inclus des cas fictifs générés par l'IA dans un dossier judiciaire. Dans New YorkSteven Schwartz et Peter LoDuca ont été condamnés à une amende de 5 000 $ pour avoir fourni de fausses citations. Dans ColoradoZachariah Crabill a été suspendu pendant un an pour avoir utilisé des affaires judiciaires fictives générées à l'aide de ChatGPT et blâmé un “stagiaire juridique” pour les erreurs. La liste s’allonge rapidement.
D'autres abus sont intentionnels. En janvier 2024, des deepfakes sexuellement explicites de Taylor Swift ont inondé les plateformes de médias sociaux. Ces images ont été créées à l'aide de l'outil d'IA « Designer » de Microsoft. Même si l'entreprise disposait de garde-fous pour éviter de générer des images de personnes réelles, une faute d'orthographe du nom de Swift suffisait à les contourner. Microsoft a depuis fixé cette erreur. Mais Taylor Swift n’est que la pointe de l’iceberg, et les deepfakes non consensuels prolifèrent largement, en partie parce que les outils open source permettant de créer des deepfakes sont accessibles au public. La législation en vigueur à travers le monde vise à lutter contre les deepfakes dans l’espoir de limiter les dégâts. Reste à savoir si cela sera efficace.
En 2025, il sera encore plus difficile de distinguer ce qui est réel de ce qui est inventé. La fidélité de l’audio, du texte et des images générés par l’IA est remarquable, et la vidéo sera la prochaine étape. Cela pourrait conduire au « dividende du menteur » : ceux qui sont en position de pouvoir rejettent les preuves de leur mauvaise conduite en prétendant qu'elles sont fausses. En 2023, Tesla argumenté qu'une vidéo d'Elon Musk datant de 2016 aurait pu être un deepfake en réponse aux allégations selon lesquelles le PDG aurait exagéré la sécurité du pilote automatique de Tesla, conduisant à un accident. Un homme politique indien a affirmé que des extraits audio de lui reconnaissant la corruption au sein de son parti politique avaient été falsifiés (l'audio d'au moins un de ses extraits était falsifié). vérifié comme réel par un organe de presse). Et deux accusés des émeutes du 6 janvier ont affirmé que les vidéos dans lesquelles ils apparaissaient étaient des deepfakes. Tous deux étaient coupable.
Pendant ce temps, les entreprises exploitent la confusion du public pour vendre des produits fondamentalement douteux en les étiquetant « IA ». Cela peut tourner très mal lorsque de tels outils sont utilisés pour classer les personnes et prendre des décisions conséquentes à leur sujet. La société de recrutement Retorio, par exemple, réclamations que son IA prédit l'adéquation des candidats à l'emploi sur la base d'entretiens vidéo, mais une étude a révélé que le système peut être trompé simplement par la présence de lunettes ou en remplaçant un arrière-plan uni par une étagère, montrant qu'il repose sur des corrélations superficielles.
Il existe également des dizaines d’applications dans les soins de santé, l’éducation, la finance, la justice pénale et les assurances où l’IA est actuellement utilisée pour priver les gens d’importantes opportunités de vie. Aux Pays-Bas, l’administration fiscale néerlandaise a utilisé un algorithme d’IA pour identifier les personnes ayant commis une fraude à la protection de l’enfance. Il accusé à tort des milliers de parents, exigeant souvent le remboursement de dizaines de milliers d'euros. En conséquence, le Premier ministre et l’ensemble de son cabinet ont démissionné.
En 2025, nous pensons que les risques liés à l’IA ne découleront pas de son action seule, mais de ce que les gens en feront. Cela inclut les cas où il semble fonctionne bien et est sur lequel on compte trop (avocats utilisant ChatGPT) ; quand il fonctionne bien et est utilisé à mauvais escient (deepfakes non consensuels et dividende du menteur) ; et quand cela n’est tout simplement pas adapté à son objectif (nier aux gens leurs droits). Atténuer ces risques est une tâche gigantesque pour les entreprises, les gouvernements et la société. Ce sera déjà assez difficile sans se laisser distraire par les soucis de science-fiction.
Mise à jour du 16/12/24 à 9 h 15 HE : cet article a été mis à jour pour clarifier le langage qui a été modifié lors du processus d'édition.