These Clues Hint at the True Nature of OpenAI’s Shadowy Q* Project

La semaine dernière, après Le PDG brièvement destitué, Sam Altman, a été réinstallé à OpenAI, deux rapports ont affirmé qu'un projet top secret de la société y avait secoué certains chercheurs avec son potentiel pour résoudre des problèmes intraitables d'une manière puissante.

«Compte tenu de vastes ressources informatiques, le nouveau modèle a pu résoudre certains problèmes mathématiques», ” Reuters a rapportécitant une seule source sans nom. «Bien que ne réalise que les mathématiques au niveau des élèves de l'école, le fait de passer de tels tests a rendu les chercheurs très optimistes quant au succès futur de Q *.» Les informations a déclaré que Q * était considéré comme une percée qui conduirait à «des modèles d'intelligence artificielle beaucoup plus puissants», ajoutant que «le rythme de développement a alarmé certains chercheurs axés sur la sécurité de l'IA», citant une seule source sans nom.

Reuters a également signalé que certains chercheurs ont envoyé une lettre exprimant des inquiétudes concernant le pouvoir potentiel de Q * au conseil d'administration à but non lucratif qui a éjecté Altman, bien qu'une source filaire familière avec la pensée du conseil d'administration ne soit pas le cas. Et peut-être en partie grâce à son nom évoquant le complot, des spéculations sur Q * ont surmonté le week-end de Thanksgiving, constituant une réputation redoutable pour un projet sur lequel nous savons presque rien. Altman lui-même a semblé confirmer l'existence du projet lorsqu'on lui a posé des questions sur Q * dans un entretien avec le Verge hier, disant «pas de commentaire particulier sur cette malheureuse fuite».

Que pourrait être Q *? La combinaison d'une lecture étroite des rapports initiaux en tenant compte des problèmes les plus chauds dans l'IA en ce moment suggère qu'il peut être lié à un projet qui ouvre d'ouverture annoncé en mairevendiquant de nouveaux résultats puissants d'une technique appelée «supervision du processus».

Le projet impliquait Ilya Sutskever, scientifique en chef d'Openai et cofondateur, qui a aidé à évincer Altman mais a ensuite reconnu –Les informations dit qu'il a dirigé des travaux sur Q *. Les travaux de mai étaient axés sur la réduction des rafales logiques réalisées par des modèles de grande langue (LLM). La supervision du processus, qui implique la formation d'un modèle d'IA pour décomposer les étapes nécessaires pour résoudre un problème, peut améliorer les chances d'un algorithme d'obtenir la bonne réponse. Le projet a montré comment cela pouvait aider les LLM, qui font souvent des erreurs simples sur les questions mathématiques élémentaires, s'attaquent plus efficacement à ces problèmes.

Andrew Ngun professeur de l'Université de Stanford qui a dirigé des laboratoires AI à Google et à Baidu et qui a présenté à beaucoup de gens à l'apprentissage automatique à travers Ses cours sur Courseradit que l'amélioration des grands modèles de langue est la prochaine étape logique pour les rendre plus utiles. «Les LLM ne sont pas si bons en mathématiques, mais les humains non plus», dit NG. “Cependant, si vous me donnez un stylo et du papier, alors je suis beaucoup mieux en multiplication, et je pense qu'il n'est en fait pas si difficile de régler un LLM avec mémoire pour pouvoir passer par l'algorithme pour la multiplication.”

Il y a d'autres indices sur ce que Q * pourrait être. Le nom peut être une allusion à Q-learningune forme d'apprentissage du renforcement qui implique un algorithme apprenant pour résoudre un problème grâce à des commentaires positifs ou négatifs, qui a été utilisé pour créer des robots de jeu et pour régler le chatppt pour être plus utile. Certains ont suggéré que le nom peut également être lié au A * Algorithme de recherchelargement utilisé pour avoir un programme trouver le chemin optimal vers un objectif.

Les informations Jette un autre indice dans le mélange: «La percée de SUTSKEVER a permis à OpenAI de surmonter les limitations d'obtenir suffisamment de données de haute qualité pour former de nouveaux modèles», indique son histoire. «La recherche impliquait en utilisant [data]plutôt que des données réelles comme du texte ou des images tirées d'Internet, pour former de nouveaux modèles. » Cela semble être une référence à l'idée d'algorithmes de formation avec des données de formation dits synthétiques, qui est devenue un moyen de former des modèles d'IA plus puissants.