Accueil Partager la publication Retour D'autres articles d'IA qui pourraient vous intéresser ChatGPT Atlas : OpenAI défie Google avec son nouveau navigateur IA OpenAI lance ChatGPT Atlas, un navigateur web alimenté par l'intelligence artificielle qui intègre l'assistant... Lire la suite GPT-5 : la nouvelle frontière de l'intelligence artificielle face aux défis de la croissance GPT-5 […]

Les actus IA en bref

Partager la publication

Google Classroom intègre Gemini pour créer des cours au format podcast

Google vient de lancer un nouvel outil dans Google Classroom
qui utilise l'intelligence artificielle Gemini pour transformer les leçons en épisodes audio de style podcast. Cette fonctionnalité vise à améliorer la compréhension des contenus éducatifs en s'appuyant sur un format apprécié des étudiants.
Les enseignants peuvent accéder à cet outil via l'onglet Gemini dans Google Classroom. Ils peuvent personnaliser leurs créations en sélectionnant le niveau scolaire approprié, en définissant les sujets et les objectifs d'apprentissage. L'expérience audio peut être enrichie en choisissant le nombre d'intervenants et le style conversationnel souhaité, qu'il s'agisse d'interviews, de tables rondes ou de dialogues informels.
Cette innovation répond à une tendance forte chez les jeunes : environ 35 millions d'auditeurs de la génération Z écoutent des podcasts mensuellement aux États-Unis. De nombreuses universités produisent désormais leurs propres podcasts éducatifs, et les étudiants recherchent activement ce type de contenu.
La fonctionnalité est actuellement disponible pour les abonnés à Google Workspace Education Fundamentals, Standard et Plus. Google recommande aux enseignants de vérifier et d'ajuster le contenu généré par l'intelligence artificielle pour garantir sa précision et son adéquation au contexte pédagogique. Gemini for Classroom, lancé en 2024, continue d'évoluer avec des mises à jour régulières pour aider les enseignants dans la préparation de leurs cours.

Nvidia et Siemens s'allient pour intégrer l'intelligence artificielle dans les usines

Nvidia et Siemens étendent leur partenariat stratégique lors du CES 2026 pour développer un système d'exploitation industriel entièrement basé sur l'intelligence artificielle. Cette alliance combine les capacités de calcul accéléré de Nvidia avec l'expertise en ingénierie et logiciels industriels de Siemens pour transformer la chaîne de valeur industrielle, de la conception à la fabrication. Les deux entreprises ambitionnent de créer les premiers sites de production entièrement pilotés par l'IA et adaptatifs au monde.
Au coeur de cette collaboration se trouve le Digital Twin Composer, un outil qui permet de créer des jumeaux numériques physiquement corrects d'usines et de produits. Cette solution combine des données 2D et 3D de Siemens avec des informations en temps réel construites via les bibliothèques Nvidia Omniverse. Les ingénieurs peuvent ainsi simuler des usines complètes en temps réel et résoudre des problèmes avant même la construction physique.
L'usine électronique Siemens d'Erlangen en Allemagne servira de site pilote dès 2026. Ce site, déjà reconnu comme "Digital Lighthouse Factory" par le Forum Economique Mondial, a réduit sa consommation d'énergie de 42% et augmenté sa productivité de 69% grâce aux jumeaux numériques. PepsiCo figure parmi les premières entreprises à adopter cette technologie, identifiant jusqu'à 90% des problèmes potentiels avant toute modification physique et obtenant une augmentation de 20% du débit lors du déploiement initial. Le Digital Twin Composer sera disponible sur le marché Siemens Xcelerator d'ici mi-2026.

Meta suspend la vente à l'international de ses lunettes Ray-Ban Display

Meta suspend l'expansion internationale de la vente de ses lunettes intelligentes Ray-Ban Display en raison d'une demande sans précédent aux États-Unis. L'entreprise avait initialement prévu de lancer ces lunettes en France, en Italie, au Canada et au Royaume-Uni au début de l'année 2026, mais les listes d'attente s'étendent désormais bien au-delà de 2026.
Ces lunettes, commercialisées à 799 dollars depuis septembre dernier, intègrent un écran haute résolution de 600x600 pixels dans le verre droit, avec une luminosité pouvant atteindre 5000 nits. Elles sont contrôlées par le Meta Neural Band, un bracelet utilisant la technologie EMG (électromyographie) qui détecte les signaux musculaires subtils du poignet pour traduire de petits mouvements en commandes numériques. Cette technologie permet aux utilisateurs de contrôler les lunettes par de simples gestes des doigts, sans avoir besoin de sortir leur téléphone.
Lors du CES 2026 à Las Vegas, Meta a dévoilé de nouvelles fonctionnalités majeures. Les lunettes bénéficient désormais d'un télésouffleur intégré permettant aux utilisateurs de consulter des notes ou des scripts directement dans leur champ de vision, particulièrement utile pour les créateurs de contenu et les professionnels. Une autre innovation permet d'écrire des messages en traçant des lettres avec le doigt sur n'importe quelle surface tout en portant le Neural Band, ces mouvements étant convertis en texte en temps réel. La navigation piétonne s'étend également à quatre nouvelles villes américaines : Denver, Las Vegas, Portland et Salt Lake City, portant le total à 32 villes supportées.
Meta continue de se concentrer sur la satisfaction des commandes américaines tout en réévaluant son approche concernant la disponibilité internationale.

Rubin, la nouvelle puce IA de Nvidia multiplie par 5 les performances d’inférence

Nvidia vient d’officialiser Rubin, une nouvelle architecture de calcul conçue pour les charges de travail d’intelligence artificielle les plus exigeantes et déjà entrée en pleine production. Présentée par le PDG Jensen Huang au Consumer Electronics Show, Rubin succède à Blackwell et s’inscrit dans la cadence accélérée d’innovations matérielles qui a propulsé Nvidia au rang de première capitalisation mondiale.
Baptisée en hommage à l’astronome Vera Rubin, cette architecture regroupe six puces conçues pour fonctionner de concert, au centre desquelles se trouve un GPU Rubin entouré d’un nouveau processeur Vera optimisé pour le raisonnement agentique, d’améliorations de stockage et de liaisons NVLink de dernière génération. Rubin vise notamment à absorber l’explosion des besoins de calcul liés aux flux continus d’IA générative et aux tâches de longue durée, en introduisant un nouveau palier de stockage pour mieux gérer les mémoires cache clé-valeur (KV, Key-Value).
Selon Nvidia, Rubin offre jusqu’à trois fois et demie plus de performances en apprentissage et cinq fois plus en inférence que Blackwell, tout en multipliant par huit la puissance d’inférence par watt jusqu’à 50 petaflops par système. De grands acteurs du cloud, dont Anthropic, OpenAI et Amazon Web Services (AWS, Amazon Web Services), comptent déjà l’adopter dans leurs infrastructures et superordinateurs scientifiques.

Nvidia dévoile NitroGen : l'IA qui apprend à jouer en observant les humains

L'équipe recherche Nvidia vient de marquer une avancée significative dans le domaine de l'intelligence artificielle avec le lancement de NitroGen. Ce nouveau "foundation model" (modèle de base) open-source est conçu pour créer des agents de jeu généralistes capables d'évoluer dans plus de 1 000 jeux vidéo différents. Plutôt que de s'entraîner via des méthodes classiques de récompense, NitroGen a appris en "regardant" 40 000 heures de vidéos de gameplay sur YouTube et Twitch.
L'ingéniosité du système réside dans sa source de données : l'IA analyse spécifiquement les vidéos incrustées de "controller overlays" (superpositions de manettes à l'écran), ce qui lui permet de corréler directement l'action visuelle du joueur avec les commandes pressées. En transformant les pixels bruts en actions de manette, le modèle démontre une efficacité redoutable. Lorsqu'il est testé sur des jeux inédits, NitroGen affiche une amélioration relative de 52% du taux de réussite des tâches par rapport à des modèles entraînés de zéro.
Disponible pour la communauté scientifique sur GitHub et Hugging Face, ce projet, mené avec la participation d'institutions comme Stanford et Caltech, ouvre la voie à des agents virtuels plus polyvalents, capables de s'adapter à des environnements variés sans programmation spécifique.

Microsoft Copilot intègre GPT-5.2 dans son modèle "Smart Plus" gratuit

Microsoft déploie GPT-5.2 au sein de Copilot sous la forme d'un nouveau mode "Smart Plus" accessible gratuitement sur le web, Windows et les appareils mobiles. Cette mise à jour majeure ne remplace pas le modèle GPT-5.1 existant, mais coexiste avec lui, offrant aux utilisateurs une capacité de raisonnement avancée pour les tâches complexes. Le mode "Smart Plus" utilise une variante "Thinking" (pensante) de GPT-5.2, conçue spécifiquement pour gérer des tâches multi-étapes avec une précision et une profondeur accrues.
Les performances de ce modèle sont impressionnantes. Dans les tâches de travail intellectuel, GPT-5.2 égale ou surpasse les professionnels du secteur dans 70,9% des cas, contre seulement 38,8% pour GPT-5.1, et ce sur 44 professions différentes. En programmation, les résultats sont également remarquables avec un score de 55,6% sur SWE-Bench Pro et 80% sur SWE-Bench Verified, dépassant largement les versions précédentes. Le modèle excelle aussi dans les benchmarks académiques avec 92,4% sur GPQA Diamond et 100% sur AIME 2025.
Cette intégration discrète de l'intelligence artificielle dans les flux de travail quotidiens transforme le raisonnement avancé en une capacité ambiante. Microsoft mise sur une approche à long terme où l'avantage compétitif ne résidera plus dans la maîtrise technique de l'IA, mais dans la capacité à formuler les bonnes questions, à filtrer les informations pertinentes et à savoir quand exercer son jugement critique. En rendant GPT-5.2 accessible gratuitement, l'entreprise normalise l'utilisation d'une IA de pointe et redéfinit les standards de productivité professionnelle.

Google lance MedASR, un modèle IA spécialisé dans la transcription médicale

L'équipe Google Health AI a lancé MedASR, un modèle de reconnaissance vocale spécialisé dans la transcription médicale. Ce modèle open source basé sur l'architecture Conformer (combinaison de réseaux convolutionnels et d'attention) cible spécifiquement la dictée clinique et les conversations médecin-patient.
MedASR est un modèle compact de 105 millions de paramètres qui accepte de l'audio monocanal à 16 kHz et génère des transcriptions textuelles. Il a été entraîné sur environ 5000 heures de parole médicale désidentifiée, incluant des dictées de radiologues, de médecins généralistes et de médecins de famille. Le modèle est disponible en anglais uniquement et fait partie du programme Health AI Developer Foundations (fondations pour développeurs en intelligence artificielle de santé) de Google, aux côtés d'autres modèles comme MedGemma.
Les résultats montrent que MedASR surpasse significativement les modèles généralistes. En radiologie, il atteint un taux d'erreur de 4,6% avec décodage linguistique, contre 10% pour Gemini 2.5 Pro et 25,3% pour Whisper v3 Large. En médecine générale, MedASR obtient 6,9% d'erreur contre 16,4% pour Gemini 2.5 Pro et 33,1% pour Whisper v3 Large. Cette précision s'explique par sa spécialisation sur le vocabulaire médical et les schémas de formulation clinique.
Le modèle est conçu pour s'intégrer directement dans les workflows d'intelligence artificielle modernes. Les développeurs peuvent l'utiliser comme point de départ pour créer des applications vocales de santé, telles que des outils de dictée radiologique ou des systèmes de capture de notes de visite. Les transcriptions générées peuvent ensuite être transmises à des modèles génératifs comme MedGemma pour analyse sémantique, résumé ou réponse aux questions.

Nvidia acquiert Groq pour 20 milliards de dollars et renforce sa domination sur l'IA

Nvidia a conclu un accord pour acquérir les actifs de Groq, une startup spécialisée dans les puces d'accélération pour l'intelligence artificielle, pour un montant de 20 milliards de dollars en espèces. Cette transaction représente la plus importante acquisition jamais réalisée par le géant américain des semi-conducteurs, dépassant largement les 6,9 milliards de dollars déboursés pour l'achat de Mellanox Technologies en 2020. L'accord a été finalisé rapidement, seulement quelques mois après que Groq a levé 750 millions de dollars lors d'un tour de financement en septembre 2024, portant sa valorisation à 6,9 milliards de dollars.
Groq a été fondée en 2016 par Jonathan Ross, ancien ingénieur de Google qui avait dirigé le développement du TPU (Tensor Processing Unit, unité de traitement tensoriel). L'entreprise s'est spécialisée dans les puces d'inférence IA avec sa technologie LPU (Language Processing Unit, unité de traitement du langage), conçue spécifiquement pour exécuter les modèles de langage à grande échelle avec une vitesse et une efficacité énergétique jusqu'à 10 fois supérieures aux GPU traditionnels. Cette architecture innovante utilise une approche déterministe avec de la mémoire intégrée sur la puce, permettant un traitement ultra-rapide en temps réel.
Dans le cadre de cet accord non exclusif, Jonathan Ross et d'autres dirigeants clés de Groq rejoindront Nvidia pour contribuer à l'intégration de cette technologie sous licence. Groq conservera néanmoins son indépendance en tant qu'entreprise distincte sous la direction de Simon Edwards, qui passe du poste de directeur financier à celui de PDG. L'activité cloud de Groq, encore à ses débuts, n'est pas incluse dans la transaction et continuera de fonctionner normalement.
Cette acquisition stratégique permet à Nvidia de consolider sa position dominante sur le marché des puces IA, qui représente plus de 50% de parts de marché, dans un contexte où la demande pour les capacités d'inférence IA

D'autres articles d'IA qui pourraient vous intéresser
Retour en haut