Pocket-Sized AI Models Could Unlock a New Era of Computing

Lorsque Chatgpt a été publié en novembre 2023, il ne pouvait être accessible que via le cloud parce que le modèle derrière lui était carrément énorme.

Aujourd'hui, je gère un programme d'IA tout aussi compétent sur un MacBook Air, et il n'est même pas chaud. Le rétrécissement montre à quelle vitesse les chercheurs affinent les modèles d'IA pour les rendre plus maigres et plus efficaces. Cela montre également à quel point la possibilité de faire des échelles toujours plus grandes n'est pas le seul moyen de rendre les machines beaucoup plus intelligentes.

Le modèle insufflant maintenant à mon ordinateur portable avec un esprit et une sagesse semblables à un chatpt s'appelle Phi-3-MinI. Cela fait partie d'une famille de modèles d'IA plus petits récemment publiés par des chercheurs de Microsoft. Bien qu'il soit assez compact pour fonctionner sur un smartphone, je l'ai testé en l'exécutant sur un ordinateur portable et en y accédant depuis un iPhone via une application appelée Enchanté qui fournit une interface de chat similaire à l'application officielle Chatgpt.

Dans un papier Décrivant la famille de modèles PHI-3, les chercheurs de Microsoft disent que le modèle que j'ai utilisé mesure favorablement le GPT-3.5, le modèle OpenAI derrière la première version de Chatgpt. Cette affirmation est basée sur la mesure de ses performances sur plusieurs repères d'IA standard conçus pour mesurer le bon sens et le raisonnement. Dans mes propres tests, cela semble certainement tout aussi capable.

Will Knight via Microsoft

Microsoft annoncé un nouveau modèle PHI-3 «multimodal» Capable de gérer l'audio, la vidéo et le texte lors de sa conférence annuelle pour les développeurs, Build, cette semaine. Cela est venu quelques jours seulement après que OpenAI et Google vantaient les nouveaux assistants radicaux d'IA construits au-dessus des modèles multimodaux accessibles via le cloud.

La famille lilliputienne de modèles d'IA de Microsoft suggère qu'il devient possible de construire toutes sortes d'applications IA pratiques qui ne dépendent pas du cloud. Cela pourrait ouvrir de nouveaux cas d'utilisation, en leur permettant d'être plus réactifs ou privés. (Les algorithmes hors ligne sont un élément clé de la fonctionnalité de rappel que Microsoft a annoncé qui utilise l'IA pour rendre tout ce que vous avez fait sur votre PC consultable.)

Mais la famille Phi révèle également quelque chose sur la nature de l'IA moderne, et peut-être comment elle peut être améliorée. Sébastien Bubeck, un chercheur de Microsoft impliqué dans le projet, me dit que les modèles ont été conçus pour tester si être plus sélectif sur ce sur quoi un système d'IA est formé pourrait fournir un moyen d'affiner ses capacités.

Les modèles de grande langue comme le GPT-4 d'OpenAI ou les Gémeaux de Google qui alimentent les chatbots et autres services sont généralement des gobs d'énormes dépensés de texte à partir de livres, de sites Web et à peu près toute autre source accessible. Bien que cela ait soulevé des questions juridiques, OpenAI et d'autres ont constaté que l'augmentation de la quantité de texte alimentée à ces modèles, et la quantité de puissance informatique utilisée pour les former peuvent débloquer de nouvelles capacités.