30 January 2025
Temps de lecture : 2 min
Près de 600 milliards de dollars de capitalisation boursière envolés en une seule séance. Lundi, l’action de Nvidia a plongé à Wall Street, entraînant avec elle de nombreuses valeurs technologiques. La raison de cette panique des investisseurs: le lancement d’une IA générative chinoise qui pourrait remettre en cause la nécessité d’investir massivement pour être compétitif dans le secteur.
Cette IA a été développée par DeepSeek, un laboratoire de recherche lancé il y a moins de deux ans. Concrètement, il s’agit de deux grands modèles de langage open source, baptisés V3 et R1. Selon des comparatifs mis en avant par leur concepteur, ils affichent des performances similaires, voire supérieures, aux modèles équivalents d’OpenAI, Meta ou Anthropic.
Cette performance est remarquable pour deux raisons. D’une part, elle a été réalisée dans un contexte de restrictions d’exportation vers la Chine des cartes graphiques dédiées à l’IA générative. Comme les autres acteurs chinois du secteur, DeepSeek ne peut ainsi pas acheter les puces les plus puissantes conçues par Nvidia, considérées jusqu’à présent comme indispensables pour entraîner des modèles d’IA sophistiqués.
D’autre part, DeepSeek assure n’avoir dépensé que 5,6 millions de dollars dans le processus d’entraînement de V3 – un chiffre impossible à vérifier. A titre de comparaison, l’entraînement de GPT-4 aurait coûté environ 100 millions de dollars à OpenAI. Et la facture devrait encore grimper pour la conception des prochaines générations de modèles.
Le laboratoire chinois a tiré profit d’un choix technologique innovant. Il a en effet délaissé la méthode d’apprentissage auto-supervisé, traditionnellement mise en place pour concevoir les grands modèles de langage. À la place, il a simplement utilisé une technique appelée apprentissage par renforcement, qui doit permettre à une IA de réfléchir seule. Ce choix lui a permis de contourner les limites de sa capacité de calcul, tout en faisant baisser les coûts.
Les avancées de DeepSeek alimentent les inquiétudes de la Silicon Valley et aussi de Wall Street. Des doutes commençaient déjà à émerger sur la capacité à rentabiliser les gigantesques investissements réalisés depuis deux ans dans l’entraînement de modèles et dans la construction de centres de données. Si ces dépenses augmentent, les retombées commerciales tardent en effet à se matérialiser, alors que le déploiement dans l’IA dans les entreprises patine.
Tout cet édifice d’investissement est désormais remis en cause. En s’appuyant sur les travaux de DeepSeek, disponibles en open source, les acteurs de l’IA devraient pouvoir entraîner et faire tourner des modèles à moindre coûts. Cela devrait se traduire par une intensification de la concurrence et par une baisse des tarifs. Dans ces conditions, comment OpenAI ou Anthropic pourront rentabiliser les investissements qu’ils ont déjà réalisés ?
Même question pour les géants du cloud, qui ont dépensé sans compter pour anticiper un bond de la demande. Ces nouveaux modèles demanderont en effet moins de puissance pour être entraînés et pourront tourner en local, directement sur un ordinateur ou un smartphone. Et comment Nvidia va pouvoir continuer à vendre toujours plus de GPU à des prix très élevés ? Ou ASML à écouler toujours plus de machines de lithographie ?
Topics
LES NEWSLETTERS DU GROUPE INFLUENCIA : MINTED — LA QUOTIDIENNE INFLUENCIA — THE GOOD — WHAT'S UP ? MEET IN. RECEVEZ UNE DOSE D'EVENEMENTS, D'INNOVATIONS, MEDIA, MARKETING, ADTECH...
Je découvre les news !