Stupeur et tremblement en début d’année chez les géants américains de l’IA qui découvraient, médusés, que le modèle R1 de la startup chinoise DeepSeek était tout aussi performant que leurs modèles IA pour une fraction du coût. À l’époque — et c’est toujours le cas aujourd’hui —, les OpenAI, Microsoft, Google, Meta et autre Nvidia continuent de plaider pour construire des centres de données très dispendieux pour entraîner leurs IA.
Avec un peu d’astuce et des bouts de ficelle, DeepSeek a démontré qu’aligner les dizaines de milliards n’était pas forcément nécessaire pour produire un modèle IA efficace. En rabaissant le caquet des entreprises américaines persuadées de leur position de leader mondial, cette histoire de David contre Goliath a fait beaucoup de bruit et poussé certains dirigeants à dégonfler le melon qui leur sert de tête.
out n’est pas rose pour autant, le modèle R1 n’est pas sans poser des problèmes de sécurité et de confidentialité, tandis qu’OpenAI a accusé DeepSeek de pillage de propriété intellectuelle, ce qui ne manque pas d’ironie au vu des pratiques du créateur de ChatGPT.
Depuis le coup de tonnerre de fin janvier, DeepSeek a poursuivi le développement de son modèle IA et en a dévoilé un tout nouveau, DeepSeek-R1-0528. Selon la jeune pousse, les performances du modèle approchent celles d’o3 (OpenAI) et de Gemini 2.5 Pro (Google), autrement dit des modèles parmi les plus puissants du moment. Les maths, la programmation et la logique générale sont plus efficaces que les précédentes versions, et il y a aussi moins d’hallucinations.
avec 01 net