Accueil Partager la publication Retour D'autres articles d'IA qui pourraient vous intéresser ChatGPT Atlas : OpenAI défie Google avec son nouveau navigateur IA OpenAI lance ChatGPT Atlas, un navigateur web alimenté par l'intelligence artificielle qui intègre l'assistant... Lire la suite GPT-5 : la nouvelle frontière de l'intelligence artificielle face aux défis de la croissance GPT-5 […]

Les actus IA en bref

Partager la publication

La croissance des utilisateurs de ChatGPT ralentit

La croissance des utilisateurs de ChatGPT ralentit selon le rapport "State of AI Apps 2025" de Sensor Tower, malgré sa domination avec 50% des téléchargements mondiaux d'applications mobiles et 55% des utilisateurs mensuels actifs (MAU) globaux. Google Gemini progresse plus vite en termes de croissance des téléchargements, des MAU et du temps passé en application, grimpant de 30% entre août et novembre 2025 pour atteindre environ 810 millions de MAU, contre seulement 6% pour ChatGPT sur la même période. Ce ralentissement suggère une possible saturation du marché pour le chatbot d'OpenAI, qui a vu ses MAU augmenter de 180% sur un an jusqu'en novembre 2025, tandis que Gemini progresse de 170%.
Gemini tire profit de son intégration native dans Android, dominant sur ce système d'exploitation où deux fois plus d'utilisateurs américains l'emploient directement qu'en application autonome, offrant un avantage compétitif mondial. Son modèle de génération d'images Nano Banana, lancé en septembre 2025 et propulsé par Gemini 2.5 Flash Image, booste l'engagement : les utilisateurs passent désormais 11 minutes par jour en application, soit +120% depuis mars. ChatGPT accuse un retard avec une croissance des téléchargements de 85% sur un an (contre 110% pour la moyenne du secteur) et une baisse de 10% du temps passé en novembre par rapport à juillet.
Des rivaux comme Perplexity (+215% des téléchargements) et Claude (+370% des MAU) challengent aussi ChatGPT, dont la part de marché MAU a chuté de 3 points sur quatre mois. OpenAI réagit via un mémo interne "code red" de Sam Altman, priorisant personnalisation, fiabilité et génération d'images. Le rapport Sensor Tower souligne une seconde vague d'adoption des applications d'intelligence artificielle générative, avec près de 1,7 milliard de téléchargements au premier semestre 2025 et des revenus IAP doublés.

Google Workspace Studio : Créez vos agents IA professionnels sans coder grâce à Gemini 3

Google vient de franchir une étape majeure dans la productivité en entreprise avec le lancement mondial de Google Workspace Studio. Dévoilée le 4 décembre 2025, cette nouvelle plateforme permet à tous les utilisateurs, même sans la moindre compétence technique, de concevoir et piloter des agents d'intelligence artificielle personnalisés.
S'appuyant sur la puissance de Gemini 3, la toute dernière génération de modèles de langage de la firme, ces agents sont capables d'automatiser des tâches variées, allant du simple tri d'emails à la gestion de processus métiers complexes de bout en bout. L'atout majeur de cette solution réside dans son intégration profonde avec l'écosystème Google (Gmail, Drive, Docs) et sa connectivité avec des outils tiers comme Salesforce ou Asana. Concrètement, un agent peut analyser votre contexte professionnel pour générer des résumés quotidiens, organiser des réunions ou exécuter des actions via des API (interface de programmation d'application).
Accessible aux abonnés des formules Workspace (Starter, Standard, Plus, Enterprise), le déploiement est progressif depuis ce mercredi. Si les utilisateurs en accès anticipé en profitent déjà, la disponibilité générale est attendue pour janvier. Les agents créés se partagent aussi facilement qu'un simple document, démocratisant ainsi l'usage de l'IA "agentique" au cœur des bureaux.

Le PDG d'Anthropic alerte sur les risques financiers de l'infrastructure IA

Dario Amodei, PDG d'Anthropic, a brisé le silence mercredi lors du DealBook Summit en reconnaissant ouvertement les risques considérables que prend l'industrie de l'intelligence artificielle avec ses investissements de centaines de milliards dans les infrastructures de données. Cette transparence inhabituelle soulève des questions cruciales sur la viabilité économique du secteur.
Anthropic a récemment atteint une valorisation de 183 milliards de dollars, triplant sa valeur en six mois. OpenAI, son concurrent direct, affiche désormais 500 milliards. Pourtant, aucune de ces entreprises n'est rentable. Cette situation paradoxale illustre le décalage entre l'enthousiasme des investisseurs et la réalité économique du marché de l'IA générative.
Amodei reconnaît franchement le dilemme : "Si certains acteurs se trompent légèrement dans leurs calculs, de mauvaises choses pourraient arriver." Cette admission publique révèle l'ampleur du pari que représentent les centres de données dont la construction s'étale sur plusieurs années.
Selon McKinsey, près de 80% des entreprises utilisent désormais l'IA générative, mais autant déclarent n'observer "aucun impact significatif sur leurs résultats financiers". Ce décalage entre adoption et rentabilité valide les inquiétudes concernant le retour sur investissement.
Le timing constitue le risque principal : les décisions d'infrastructure prises aujourd'hui ciblent les besoins de 2027, créant une "zone d'incertitude" où les entreprises parient des milliards sur des projections de demande qui pourraient s'avérer erronées.
Cette situation diffère des précédentes bulles technologiques. Contrairement à la fibre optique des années 1990, l'utilité universelle du calcul IA n'est pas garantie. Si la technologie plafonne avant d'atteindre les promesses annoncées, les capitaux immobilisés pourraient devenir considérables.
La franchise d'Amodei contraste avec l'optimisme ambiant du secteur et souligne une vérité inconfortable : même les acteurs les plus prudents ne peuvent échapper à ce dilemme structurel entre investissements colossaux et incertitude économique.

Anthropic (Claude) vise une entrée en bourse record dès 2026 face à OpenAI

Le rival d'OpenAI, Anthropic, prépare une entrée en bourse historique potentiellement en 2026, avec une valorisation dépassant 300 milliards de dollars. Soutenu par Google, Amazon, Microsoft et Nvidia, cette startup fondée en 2021 par d'anciens employés d'OpenAI déploie son chatbot Claude et accélère ses ambitions. La firme a mandaté le cabinet d'avocats Wilson Sonsini pour les préparatifs, tout en négociant avec des banques d'investissement.

Anthropic, opérateur de Claude (un assistant IA axé sur la sécurité et l'éthique), pourrait tripler sa valorisation actuelle de 183 milliards de dollars grâce à une nouvelle ronde de financement privé. Récemment, Microsoft et Nvidia ont annoncé un investissement combiné jusqu'à 15 milliards de dollars, renforçant sa position dans la course à l'IA. OpenAI, soutenu par Microsoft, vise lui aussi une entrée en bourse colossale à plus d'un billion de dollars d'ici fin 2026, intensifiant la rivalité.

Ces mouvements alimentent les craintes d'une bulle spéculative en IA, comparée à l'éclatement de la bulle dotcom en 2000. Des investisseurs comme le hedge fund de Peter Thiel ont vendu leurs positions Nvidia, tandis que Masayoshi Son de SoftBank réalloue des fonds vers OpenAI. Malgré un revenu prévisionnel passant à 26 milliards de dollars annuels, les observateurs s'inquiètent d'une surchauffe des valorisations avant la réalisation des promesses.

Mistral 3 : quand l’IA française défie les géants avec des modèles légers et performants

La startup française Mistral vient de dévoiler Mistral 3, une famille de dix modèles d’IA ouverts, incluant un modèle frontalier (675 milliards de paramètres) et neuf modèles légers (3B à 14B paramètres), optimisés pour fonctionner sur un seul GPU. Une innovation qui remet en cause le dogme "plus gros = meilleur".
Selon Guillaume Lample, cofondateur, les entreprises découvrent après déploiement que les grands modèles fermés (comme GPT-4o) sont "coûteux et lents", et se tournent vers Mistral pour des solutions sur mesure, plus efficaces. Les modèles Ministral 3 (disponibles en versions Base, Instruct et Reasoning) ciblent des cas d’usage spécifiques, avec un avantage clé : l’autonomie. Déployables sur ordinateurs, robots ou appareils en edge computing, ils répondent aux enjeux de souveraineté des données et de latence, sans dépendre du cloud.
Avec 2,7 milliards de dollars levés (valuation à 13,7 milliards), Mistral se positionne en "David contre Goliath" face à OpenAI (500 milliards de valuation) ou Anthropic. Son argument ? Des modèles fiables (contrairement aux APIs concurrentes, sujettes à des pannes), multimodaux et multilingues, avec un contexte étendu (256 000 tokens).
Reste à prouver que ces modèles légers, une fois fine-tunés, égalent - voire surpassent - les géants fermés. Une promesse qui, si tenue, pourrait bouleverser (changer radicalement) les stratégies d’adoption en entreprise.

Après Anthropic, Meta en négociations pour acquérir les puces TPU de Google

Meta serait en pourparlers pour dépenser des milliards de dollars afin d'acquérir les unités de traitement tensoriel (TPU, Tensor Processing Units) de Google, selon des sources proches du dossier. L'accord prévoit que Meta utilise ces TPU dans ses centres de données dès 2027, avec une possible location dans le cloud dès l'année prochaine. Cette annonce a propulsé Alphabet vers une valorisation boursière de 4 000 milliards de dollars, tandis que les actions de Nvidia ont chuté de 4% lors des échanges avant l'ouverture.
Cette décision fait suite à l'accord de Google visant à fournir jusqu'à 1 million de puces à Anthropic, ce que l'analyste Jay Goldberg de Seaport a qualifié de "validation très puissante" pour les TPU. Les TPU, développés il y a plus de 10 ans spécifiquement pour les tâches d'intelligence artificielle, sont des circuits intégrés spécifiques à une application, conçus pour des objectifs précis. Contrairement aux GPU (Graphics Processing Units, unités de traitement graphique) de Nvidia créés pour le rendu graphique mais adaptés à l'IA, les TPU ont été conçus dès le départ pour l'apprentissage automatique.
Les analystes de Bloomberg Intelligence, Mandeep Singh et Robert Biggar, estiment que l'utilisation probable des TPU de Google par Meta montre que les fournisseurs tiers de grands modèles de langage sont susceptibles de s'appuyer sur Google comme fournisseur secondaire de puces d'accélération. Google a déclaré constater "une demande accélérée pour nos TPU personnalisés et les GPU de Nvidia, et nous nous engageons à soutenir les deux" . Cette approche représente une stratégie de diversification plutôt qu'un remplacement complet, Meta cherchant à réduire sa dépendance vis-à-vis de Nvidia tout en continuant à utiliser des GPU.

AWS lance sa puce Trainium3 et annonce une compatibilité future avec Nvidia

Lors de sa conférence annuelle re:Invent 2025, Amazon Web Services (AWS) a officialisé l’arrivée de sa nouvelle puce pour l’intelligence artificielle, la Trainium3. Gravé en 3 nanomètres, ce composant équipe le système UltraServer et promet d’optimiser radicalement l’entraînement des modèles ainsi que l’inférence.
Les gains de performance sont notables : AWS annonce une vitesse et une mémoire quadruplées par rapport à la génération précédente. Chaque serveur peut héberger 144 puces, et l’architecture permet d’en interconnecter jusqu’à un million pour les charges de travail massives. Surtout, ces systèmes affichent une efficacité énergétique améliorée de 40 %, un atout majeur pour réduire la facture électrique des centres de données. Des clients comme Anthropic ou la société japonaise Karakuri exploitent déjà cette puissance pour diminuer leurs coûts opérationnels.
Mais l’annonce la plus stratégique concerne l’avenir. AWS a dévoilé les contours de la Trainium4, actuellement en développement. Cette future puce supportera la technologie d’interconnexion NVLink de Nvidia. Cette compatibilité permettra aux infrastructures AWS de fonctionner en synergie avec les GPU (processeurs graphiques) de Nvidia, facilitant l’adoption par les développeurs fidèles à l’architecture CUDA (Compute Unified Device Architecture). Bien qu'aucune date n'ait été fixée, cette ouverture marque une étape clé pour le géant du cloud.

Nvidia dévoile Alpamayo-R1, un modèle IA open source pour la conduite autonome

Nvidia vient de frapper un grand coup dans le domaine de la conduite autonome avec la publication de NVIDIA DRIVE Alpamayo-R1 (AR1), présenté début décembre 2025 lors de la conférence NeurIPS 2025. AR1 est décrit comme le premier modèle à l’échelle industrielle mêlant images, langage et actions - un modèle "vision-language-action" (VLA) pensé pour la recherche sur les véhicules autonomes.
Contrairement aux systèmes classiques, qui se contentent d’un traitement visuel et d’un contrôle "boîte noire", Alpamayo-R1 intègre une architecture de raisonnement - basée sur Cosmos Reason - combinée à un décodeur de trajectoire. Le modèle analyse une scène complexe (piétons, vélos, obstacles, aménagements de voirie…), infère les intentions des usagers, évalue plusieurs trajectoires possibles puis choisit la plus sûre. Résultat : dans des scénarios difficiles (intersections encombrées, chantiers, virages serrés, etc.), le véhicule peut décider comme un humain.
Pour favoriser l’adoption, Nvidia publie AR1 en open source - code, poids du modèle, jeux de données, et un cadre complet de simulation et d’évaluation (via le "Cosmos Cookbook") disponible sur GitHub et Hugging Face
Avec Alpamayo-R1, Nvidia fournit donc non seulement des puces haut de gamme, mais aussi le "cerveau" logiciel nécessaire à la conduite autonome. Ce virage vers l’IA "physique" (robots, véhicules, systèmes embarqués) pourrait redessiner les fondations de la mobilité autonome.

D'autres articles d'IA qui pourraient vous intéresser
Retour en haut