Actualités
sur l’IA
Actualités en Podcasts ou à lire
-
Hunyuan3D 2.0 avec Turbo S de Tencent
Tencent passe la surmultipliée : le 28 avril 2025, il libère Hunyuan3D 2.0, premier modèle texte→3D open source qui crache des meshes haute déf prêts à l’anim. Un mois avant, le groupe lâchait Hunyuan Turbo S (27 février) : réponses < 1 s, perfs DeepSeek-V3, coût plancher. Combo 3D + LLM qui armure WeChat, cloud…
-
SparkDesk d’iFlyTek
iFlyTek casse les codes : le 21 avril 2025, le virtuose vocal de Hefei lève le rideau sur Spark X1, cerveau raisonneur propulsé par puces Huawei Ascend 910B. Adieu Nvidia, coûts divisés, punch de géant : maths, code, logique… il flirte déjà avec GPT-4 et DeepSeek. L’API gratuite s’invite dans écoles, hôpitaux et tribunaux pour…
-
Qwen 3 / Tongyi Qianwen, IA d’Alibaba
Alibaba ouvre grand les vannes : le 3 avril 2025, Alibaba Cloud lâche Tongyi Qianwen / Qwen 3, premier LLM chinois 100 % open source (Apache 2.0). Entraîné sur 36 000 Md de tokens, décliné de 600 M à 235 B MoE, fenêtre 128 k et raisonnement activable, il avale 119 langues. Téléchargez-le sur Hugging…
-
Ernie 4.5 / Wenxin Yiyan 4.5 de Baidu
Baidu dégoupille l’IA low-cost : en mars 2025, Robin Li lâche ERNIE 4.5 et son jumeau raisonneur X1 — un duo multimodal géant qui fait trembler GPT-4.5 pour 1 % du prix. FlashMask, MoE hétéro, contexte XXL : texte, image, audio, vidéo, tout y passe, gratuit pour 300 millions d’utilisateurs et API quasi donnée. Pékin…
-
R2 de DeepSeek
DeepSeek remet une claque : le 7 mai 2025, la start-up de Hangzhou lève le voile sur R2 – un MoE d’1,2 billion de paramètres qui engloutit 128 k tokens, tourne sur puces Huawei et coûte 97 % moins cher que GPT-4. Ouvert, gratuit, API plug-and-play : des frigos connectés aux avions de chasse, tout…
-
stableLM 2 12B de Stability AI
Stability AI réhausse la barre : le 3 avril 2024, l’équipe de Stable Diffusion lâche StableLM 2 12B, LLM multilingue open source entraîné sur 2 000 Md de tokens. 100 k tokens de contexte, licence Apache 2.0, exécution locale sur un simple laptop : il chatouille LLaMA-2 70B et se déploie en trois clics sur…
-
Bloom, de Hugging Face (France)
Hugging Face met les watts sur l’open-source : début 2025, le « GitHub de l’IA » propulse Mistral-7B, StableLM 2 et Falcon-180B en tête de son Open LLM Leaderboard et débloque des Inference Endpoints prêts à l’emploi sur AWS, Azure et SageMaker. Résultat : lancer un modèle calibre GPT-3.5 ne prend plus que trois clics,…
-
Luminous, d’Aleph Alpha (Allemagne)
Aleph Alpha en mode V12 : fraîchement installé dans le data-center IA le plus rapide d’Europe, le champion d’Heidelberg met sur les rails Luminous-World, méga-modèle de 300 Md de paramètres taillé pour bousculer GPT-4 — avec transparence « AtMan » et multimodalité native à la clé. Objectif : une IA souveraine, explicable et multilingue pour…
-
Mistral AI, France (2025)
Mistral AI souffle un mistral sur l’open-source : le 13 janvier 2025, la jeune licorne parisienne lâche Codestral v2, LLM 100 % code qui avale 256 k tokens et traque les bugs avant même que vous n’ouvriez le débogueur. Dans sa tornade : Pixtral Large, modèle vision-texte N°1 des classements, et Mistral Large v2, poids…