Nvidia Hardware Is Eating the World

Quelle est votre préoccupation que ces contraintes inciteront la Chine à faire tourner les puces d'IA compétitives?

La Chine a des choses compétitives.

Droite. Ce n'est pas une échelle de centre de données, mais le smartphone Huawei Mate 60 qui est sorti l'année dernière a attiré l'attention pour sa puce locale de 7 nanomètres.

Vraiment, vraiment bonne compagnie. Ils sont limités par n'importe quelle technologie de traitement des semi-conducteurs dont ils disposent, mais ils seront toujours en mesure de construire de très grands systèmes en agrégeant bon nombre de ces puces ensemble.

Dans quelle mesure êtes-vous en général, cependant, que la Chine sera en mesure de faire correspondre les États-Unis dans une IA générative?

Le règlement limitera la capacité de la Chine à accéder à la technologie de pointe, ce qui signifie que le monde occidental, les pays non limités par le contrôle des exportations, aura accès à une bien meilleure technologie, qui se déplace assez rapidement. Je pense donc que la limitation accorde beaucoup de charges à la Chine. Vous pouvez toujours, techniquement, agréger davantage de systèmes de maîtrise en jetons pour faire le travail. Mais cela augmente simplement le coût par unité sur ceux-ci. C'est probablement la façon la plus simple d'y penser.

Le fait que vous construisez des puces conformes à continuer à vendre en Chine affecte-t-elle votre relation avec TSMC, la fierté et la joie des semi-conducteurs de Taiwan?

Non. Un règlement est spécifique. Ce n'est pas différent d'une limite de vitesse.

Vous avez dit plusieurs fois celle des 35 000 composants qui sont dans votre supercalculateur, huit proviennent de TSMC. Quand j'entends cela, je pense que cela doit être une petite fraction. Autorisez-vous votre dépendance à l'égard de TSMC?

Non, pas du tout. Pas du tout.

Alors, quel point essayez-vous de faire avec ça?

Je souligne simplement que pour construire un supercalculateur d'IA, beaucoup d'autres composants sont impliqués. En fait, dans nos superordinateurs d'IA, à peu près toute l'industrie des semi-conducteurs s'associe avec nous. Nous nous associons déjà très étroitement avec Samsung, SK Hynix, Intel, AMD, Broadcom, Marvell, etc. et ainsi de suite. Dans nos superordinateurs d'IA, lorsque nous réussissons, tout un tas d'entreprises réussissent avec nous, et nous en sommes ravis.

À quelle fréquence parlez-vous à Morris Chang ou Mark Liu au TSMC?

Tout le temps. En continu. Ouais. En continu.

Comment sont vos conversations?

Ces jours-ci, nous parlons d'emballage avancé, de planification de la capacité des années à venir, de capacité informatique avancée. Coche [TSMC’s proprietary method for cramming chip dies and memory modules into a single package] nécessite de nouvelles usines, de nouvelles lignes de fabrication, de nouveaux équipements. Donc, leur soutien est vraiment très important.

J'ai récemment eu une conversation avec un PDG génératif-AI. J'ai demandé qui pourraient être les concurrents de Nvidia, et cette personne a suggéré le TPU de Google. D'autres personnes mentionnent AMD. J'imagine que ce n'est pas un tel binaire pour vous, mais qui voyez-vous comme votre plus grand concurrent? Qui vous tient debout la nuit?

Lauren, ils le font tous. L'équipe TPU est extraordinaire. L'essentiel est que l'équipe TPU est vraiment géniale, l'équipe AWS Trainium et l'équipe AWS Inferentia sont vraiment extraordinaires, vraiment excellentes. Microsoft a son développement ASIC interne qui est en cours, appelé Maia. Chaque fournisseur de services cloud en Chine construit des puces internes, puis il y a tout un tas de startups qui construisent de superbes puces, ainsi que des sociétés de semi-conducteur existantes. Tout le monde construit des jetons.