AI’s Energy Demands Are Out of Control. Welcome to the Internet’s Hyper-Consumption Era
En ce moment, génératif L'intelligence artificielle est impossible à ignorer en ligne. Un résumé généré par l'AI-AI peut apparaître au hasard en haut des résultats chaque fois que vous effectuez une recherche Google. Ou vous pourriez être invité à essayer Meta's IA Tool Tout en parcourant Facebook. Et que Emoji Sparkle toujours présent continue de hanter mes rêves.
Cette précipitation pour ajouter l'IA à autant d'interactions en ligne que possible peut être retracée à la sortie d'Openai Boundary Pushing de Chatgpt à la fin de 2022. La Silicon Valley est rapidement devenue obsédée par l'IA génératrice, et près de deux ans plus tard, des outils d'IA alimentés par des modèles de grande langue grande Préparez l'expérience utilisateur en ligne.
Un effet secondaire malheureux de cette prolifération est que les processus informatiques nécessaires pour exécuter les systèmes d'IA génératifs sont beaucoup plus intensifs en ressources. Cela a conduit à l'arrivée de l'ère de l'hyper-consommation d'Internet, une période définie par la propagation d'un nouveau type de calcul qui exige des quantités excessives d'électricité et d'eau à construire et à fonctionner.
“Dans le dos, ces algorithmes qui doivent être exécutés pour tout modèle d'IA génératif sont fondamentalement très, très différents du type traditionnel de recherche ou de courrier électronique de Google”, explique Sajjad Moazenichercheur en génie informatique à l'Université de Washington. «Pour les services de base, ceux-ci étaient très légers en termes de quantité de données qui devaient faire des allers-retours entre les processeurs.» En comparaison, Moazeni estime que les applications génératrices de l'IA sont d'environ 100 à 1 000 fois plus intensives en calcul.
Les besoins énergétiques de la technologie pour la formation et le déploiement ne sont plus le sale petit secret de l'IA de l'IA, en tant qu'expert après expert l'année dernière, les augmentations de la demande d'énergie dans les centres de données où les entreprises travaillent sur les applications d'IA. Presque comme sur le signal, Google a récemment cessé de se considérer comme carbone neutreet Microsoft peut piétiner son Objectifs de durabilité Sous les pieds dans la course en cours pour construire les plus grands et meilleurs outils d'IA.
«L'empreinte carbone et la consommation d'énergie seront linéaires à la quantité de calcul que vous faites, car fondamentalement, ces centres de données sont proportionnels à la quantité de calcul qu'ils font», explique Junchen Jiangchercheur en réseau à l'Université de Chicago. Plus le modèle d'IA est grand, plus il faut de calcul et ces modèles frontaliers deviennent absolument gigantesques.
Même si la consommation totale d'énergie de Google a doublé de 2019 à 2023, Corina Standeford, porte-parole de la société, a déclaré qu'il ne serait pas juste de dire que La consommation d'énergie de Google enrichie pendant la course de l'IA. «La réduction des émissions de nos fournisseurs est extrêmement difficile, ce qui représente 75% de notre empreinte», dit-elle dans un e-mail. Les fournisseurs que Google blâme incluent les fabricants de serveurs, d'équipement de réseautage et d'autres infrastructures techniques pour les centres de données – un processus à forte intensité d'énergie qui est nécessaire pour créer des pièces physiques pour les modèles d'IA frontaliers.