Les actus IA en bref
Partager la publication
Nvidia acquiert SchedMD et dévoile de nouveaux modèles d'IA open source
Nvidia renforce sa position dans l'IA open source avec deux annonces majeures. Le géant des semi-conducteurs a acquis SchedMD, développeur du système de gestion de charge de travail Slurm, utilisé depuis 2002 pour le calcul haute performance et l'IA. Nvidia s'engage à maintenir Slurm en tant que logiciel open source et neutre, tout en accélérant son développement. Les termes financiers de l'acquisition n'ont pas été divulgués.
Parallèlement, l'entreprise a lancé Nvidia Nemotron 3, une nouvelle famille de modèles d'IA open source conçue pour créer des agents IA précis et efficaces. Cette gamme comprend trois versions : Nemotron 3 Nano pour les tâches ciblées, Nemotron 3 Super pour les applications multi-agents, et Nemotron 3 Ultra pour les tâches complexes. Selon Jensen Huang, PDG (Directeur Général) de Nvidia, ces modèles transforment l'IA avancée en une plateforme ouverte offrant transparence et efficacité aux développeurs.
Ces initiatives s'inscrivent dans la stratégie de Nvidia de dominer le marché de l'IA physique, notamment pour la robotique et les véhicules autonomes. L'entreprise mise sur cette nouvelle frontière technologique pour élargir l'utilisation de ses GPU (unités de traitement graphique) et accompagner les entreprises dans le développement de systèmes intelligents avancés.
Google lance Deep Research amélioré le jour même où OpenAI dévoile GPT-5.2
Google a dévoilé jeudi une version "repensée" de son agent de recherche Gemini Deep Research, basé sur son modèle de fondation Gemini 3 Pro. Cet agent ne se contente plus de produire des rapports de recherche : il permet désormais aux développeurs d'intégrer les capacités de recherche de Google dans leurs propres applications via la nouvelle API Interactions (interface de programmation d'application).
L'outil peut synthétiser d'énormes quantités d'informations et gérer des contextes volumineux. Les clients l'utilisent pour des tâches variées, allant de l'audit préalable à la recherche sur la toxicité des médicaments. Google prévoit d'intégrer cet agent dans ses services, notamment Google Search, Google Finance, l'application Gemini et NotebookLM, préparant ainsi un avenir où les agents IA effectueront les recherches à la place des humains.
Gemini 3 Pro est présenté comme le modèle "le plus factuel" de Google, conçu pour minimiser les hallucinations lors de tâches complexes. Ces hallucinations, où le modèle invente des informations, posent problème pour les tâches autonomes de longue durée où une seule erreur peut invalider tout le résultat.
Pour démontrer ses progrès, Google a créé le benchmark DeepSearchQA et testé son agent sur Humanity's Last Exam et BrowserComp. Deep Research a surpassé la concurrence, bien que ChatGPT 5 Pro d'OpenAI soit resté compétitif.
Ironiquement, OpenAI a lancé le même jour GPT-5.2, nom de code "Garlic", qui surpasse ses rivaux selon ses propres benchmarks. Le timing de cette double annonce n'est certainement pas un hasard.
Opera Neon : un navigateur IA EUROPEEN à 19,90 $/mois
Mistral AI, la startup française spécialisée dans l'intelligence artificielle, a dévoilé aujourd'hui Devstral 2, une nouvelle génération de modèle d'IA conçu pour le codage. Cette annonce intervient après le lancement récent de la famille Mistral 3 et confirme l'ambition de l'entreprise de rattraper ses concurrents mieux financés comme Anthropic.
La licorne française se positionne également sur le marché émergent du "vibe-coding" avec Mistral Vibe, une nouvelle interface en ligne de commande (CLI, Command-Line Interface) qui facilite l'automatisation du code via le langage naturel. Cet outil offre des fonctionnalités de manipulation de fichiers, de recherche de code, de contrôle de version et d'exécution de commandes.
Devstral 2 nécessite au moins quatre GPU H100 ou équivalents pour son déploiement, avec 123 milliards de paramètres. Une version plus légère, Devstral Small, avec 24 milliards de paramètres, permet un déploiement local sur du matériel grand public. Les modèles utilisent des licences open source différentes : une licence MIT modifiée pour Devstral 2 et Apache 2.0 pour Devstral Small.
Actuellement gratuit via l'API de l'entreprise, Devstral 2 sera facturé 0,40 $/2,00 $ par million de tokens après la période d'essai. Mistral AI, valorisée à 11,7 milliards d'euros suite à une levée de fonds menée par ASML en septembre, s'associe avec Kilo Code et Cline pour distribuer ces nouveaux modèles.
Mistral AI lance Devstral 2 pour concurrencer les géants de l'IA dans le codage
Opera (société norvégienne) ouvre l’accès public à Opera Neon un navigateur expérimental axé sur l’IA, facturé 19,90 dollars par mois. Neon vise les utilisateurs qui veulent tester des fonctions d’IA avancées dans le navigateur, avec des mises à jour fréquentes.
Opera Neon intègre des agents d’IA dans l’interface pour aider à interroger des pages, lancer des actions et automatiser des tâches dans des espaces de travail dédiés. Le navigateur met en avant des fonctions comme les “Cards” (cartes de consignes réutilisables via invites) et “Tasks” (espaces de travail regroupant discussions IA et onglets). Opera indique aussi un agent de recherche approfondie nommé ODRA (Opera Deep Research Agent, agent de recherche approfondie d’Opera), conçu pour produire des résultats structurés avec des sources.
L’abonnement inclut l’accès à plusieurs modèles présentés comme “top-tier”, dont Gemini 3 Pro, GPT-5.1, Veo 3.1 et Nano Banana Pro, via un moteur “LLM-agnostic” (Large Language Model, grand modèle de langage) qui veut regrouper plusieurs IA sous une seule facture. L’offre donne aussi accès à une communauté Discord et à des échanges directs avec les développeurs, selon Opera.
En parallèle, Brave teste une navigation “agentique” dans sa version Nightly, en isolant ce mode dans un profil séparé (cookies et données distincts) pour limiter les risques. Opera rappelle aussi que ses autres navigateurs (Opera One, Opera GX, Opera Air) proposent déjà des fonctions IA gratuites via un assistant conversationnel.
OpenAI et Anthropic s'allient pour standardiser les agents IA
La Linux Foundation a annoncé le 9 décembre 2025 la création de l'Agentic AI Foundation (AAIF), une nouvelle entité dédiée à l'interopérabilité et à la sécurité des agents IA. Cette initiative vise à fournir un cadre neutre pour les projets open source liés aux agents IA, évitant ainsi une fragmentation en plateformes propriétaires incompatibles.
Au cœur du lancement, trois contributions majeures ancrent l'AAIF : Anthropic offre le Model Context Protocol (MCP), un protocole standard pour connecter modèles IA à des outils et données externes ; Block apporte Goose, un framework open source d'agent IA extensible et local ; OpenAI contribue avec AGENTS.md, un format simple d'instructions pour guider les agents dans les projets de code. Ces outils, développés récemment, sont déjà largement adoptés et visent à établir des bases communes pour un écosystème agentique ouvert.
Des membres platinum comme Amazon Web Services (AWS), Bloomberg, Cloudflare, Google et Microsoft soutiennent l'initiative, démontrant un consensus industriel rare entre concurrents. Jim Zemlin, directeur exécutif de la Linux Foundation, souligne que regrouper ces projets permet de coordonner l'interopérabilité, les bonnes pratiques de sécurité et les garde-fous, essentiels pour des agents IA fiables à grande échelle.
Cette démarche préventive répond à un risque majeur : sans standards partagés, les agents pourraient se diviser comme iOS et Android, créant des écosystèmes fermés et des coûts de verrouillage pour les développeurs. En donnant ces protocoles à une fondation neutre, les acteurs montrent un intérêt éclairé à favoriser la collaboration avant consolidation du marché.
L'AAIF, avec son modèle de gouvernance ouvert (comités techniques sans contrôle unique), promet d'évoluer dynamiquement avec les contributions communautaires. Reste à voir si ces standards domineront ou si des conflits d'intérêts persisteront chez les géants du cloud.
L'Inde impose des redevances obligatoires pour l'IA : un tournant pour les créateurs
L'Inde vient de franchir une étape majeure dans la régulation de l'intelligence artificielle en proposant un cadre obligeant les entreprises d'IA à verser des redevances pour l'utilisation de contenus protégés par le droit d'auteur. Cette initiative, présentée par le Department for Promotion of Industry and Internal Trade, place le pays au centre du débat mondial sur les droits d'auteur à l'ère de l'IA générative.
Le dispositif propose une "licence globale obligatoire" donnant aux entreprises d'IA un accès automatique à toutes les œuvres protégées en échange du paiement de redevances à un organisme collecteur centralisé. Ce mécanisme redistribuerait ensuite les sommes perçues aux créateurs : écrivains, musiciens, artistes et journalistes dont les œuvres alimentent l'entraînement des modèles d'IA.
L'approche indienne se distingue radicalement des modèles occidentaux. Alors que les États-Unis débattent encore des limites de l'usage équitable et que l'Union européenne discute des obligations de transparence, l'Inde impose d'emblée un paiement systématique.
Nasscom, représentant Google et Microsoft, s'oppose fermement au système en plaidant pour une exception large permettant l'entraînement des modèles sans paiement. La Business Software Alliance, au nom d'Adobe, AWS et Microsoft, avertit que limiter l'accès aux données pourrait réduire la qualité des modèles d'IA et "augmenter le risque que les résultats reflètent simplement les tendances et biais d'ensembles de données limités".
Pourtant, pour OpenAI qui considère l'Inde comme son deuxième marché mondial après les États-Unis, ignorer ce cadre réglementaire n'est pas envisageable sans sacrifier des revenus considérables.
Si l'Inde parvient à mettre en œuvre avec succès ce système de redevances obligatoires après la consultation publique de 30 jours, d'autres pays confrontés à des litiges similaires pourraient adopter des cadres comparables. Le modèle indien offre un compromis : il accorde aux entreprises d'IA l'accès aux contenus protégés tout en garantissant une rémunération pour les créateurs.
Claude Code débarque dans Slack : quand la discussion se mêle directement au code
L’éditeur d’IA Anthropic vient d’intégrer Claude Code directement dans Slack. Jusqu’ici, les développeurs usaient de l’assistant Claude via Slack pour des tâches légères (extraits de code, débogage, explications). Désormais -en version bêta preview - il suffit de mentionner @Claude dans un canal de discussion pour démarrer automatiquement une session de codage complète, fondée sur le contexte des échanges (rapport de bug, demande de fonctionnalité, discussion technique, etc.). L’outil identifie le dépôt concerné, exécute la tâche, publie l’avancée dans le fil, et fournit un lien vers le code modifié ainsi que la possibilité d’ouvrir une "pull request".
Ce glissement marque un tournant : l’aide à la programmation ne passe plus seulement par l’éditeur de code (IDE), mais directement via l’outil de collaboration où travaille l’équipe. On passe d’un modèle d’assistance ponctuelle à un workflow automatique intégré, sans changement d’application.
Pour les équipes techniques, cela pourrait signifier moins d’allers retours entre Slack et l’IDE, un marquage clair de ce qui doit être fait, et un suivi transparent des modifications - avec gain de temps et meilleure coordination. Le pari d’Anthropic est que l’avenir de l’assistance au codage réside dans l’intégration du flux de travail plutôt que dans la seule performance du modèle.
Dans un contexte d’adoption croissante d’agents IA dans le développement, cette intégration pourrait redéfinir la façon dont les équipes collaborent, codent et livrent des fonctionnalités.
L'UE lance un plan IA à 20 milliards d'euros pour rattraper les États-Unis et la Chine
L'Union européenne (UE) va lancer début 2026 l'appel d'offres pour construire cinq gigafactories d'intelligence artificielle (IA), financées à hauteur de 20 milliards d'euros via l'initiative InvestAI. Chaque installation abritera environ 100 000 puces, soit quatre fois plus que les usines IA actuelles en Europe, bien que ces puces proviendront de fournisseurs non européens comme NVIDIA. Cette mesure vise à combler le retard de l'Europe face aux leaders mondiaux en développement de modèles IA et adoption par les entreprises, en mobilisant fonds publics et privés.
La Commission européenne a signé un mémorandum avec la Banque européenne d'investissement (BEI), qui fournira un soutien financier et conseil pour attirer des investissements privés, estimés à 70% du total. Les États-Unis dominent actuellement la course aux centres de données avec dix fois plus de capacité que l'Allemagne, selon des données du Brookings Institution. En Europe, le modèle phare Mistral Large reste moins performant que les meilleurs modèles américains ou chinois, et le continent ne produit pas de puces avancées pour l'IA.
Malgré ces défis, ces gigafactories pourraient stimuler startups, recherche et industrie européenne en offrant une infrastructure de calcul massive. Elles s'appuient sur 19 usines IA existantes financées par l'UE via EuroHPC Joint Undertaking (EuroHPC JU, coentreprise européenne pour le calcul haute performance). Ce plan, annoncé par Ursula von der Leyen en février 2025, marque un engagement public encourageant pour une reprise en main technologique.
