Accueil Partager la publication Retour D'autres articles d'IA qui pourraient vous intéresser Faites de votre GPTs un véritable assistant personnel autonome : le guide complet L'onglet "Action" permet à un GPT personnalisé de se connecter à des sources de données tierces en temps... Lire la suite L'utilité de l'intelligence artificielle dans la recherche pharmaceutique Le […]

Les actus IA en bref

Partager la publication

Higgsfield AI mise sur des mini-apps pour démocratiser la création de contenu

Higgsfield AI, jeune pousse spécialisée dans l’intelligence artificielle créative, vient de dévoiler une série de mini-applications conçues pour simplifier la production de contenus visuels et publicitaires. L’idée est simple : permettre à chacun de réaliser, en un seul clic, des vidéos, des effets spéciaux ou encore des publicités, sans nécessiter la moindre compétence technique ou de montage.
La plateforme met déjà à disposition plus de 2 000 mini-apps prêtes à l’emploi. Chacune d’elles exploite le nouveau modèle d’images de Google, baptisé « Nano banana », afin de générer des résultats rapides et percutants. Cette approche vise à rendre la création plus ludique, mais aussi plus accessible à un large public – du particulier curieux au professionnel pressé.
En s’appuyant sur une bibliothèque aussi vaste, Higgsfield AI se positionne à la croisée de la créativité et de la productivité. Elle illustre aussi une tendance plus large : l’intégration de modèles génératifs dans des outils pratiques et instantanés, capables de transformer la manière dont nous concevons la communication visuelle. Pour les créateurs de contenus, les marketeurs et même les amateurs, ces mini-apps ouvrent la porte à une nouvelle forme de créativité immédiate et intuitive.

OpenAI lance gpt-realtime IA vocale en temps réel devient réalité

OpenAI vient de franchir une étape clé dans l’interaction homme-machine avec le lancement officiel de gpt-realtime et de son Realtime API. Après plusieurs mois de tests en bêta, ce modèle vocal de nouvelle génération permet de tenir des conversations fluides, capables de changer de ton, d’émotion et même de langue en plein milieu d’une phrase.
Contrairement aux approches précédentes qui combinaient plusieurs modèles distincts pour la voix et le texte, gpt-realtime repose sur un modèle unifié. Résultat : une réduction significative de la latence et une expérience beaucoup plus naturelle. L’API ne se limite pas à la voix : elle intègre aussi la compatibilité avec le protocole SIP pour les appels téléphoniques, la prise en charge d’images en entrée, ainsi que MCP server support, ouvrant la voie à de nouveaux usages.
Déjà, des applications concrètes émergent. Une appli de coaching nutrition et fitness utilise la Realtime API pour proposer un suivi vocal personnalisé, tandis qu’un outil d’apprentissage des langues s’en sert pour créer des jeux de rôle interactifs en temps réel. Ces premiers cas d’usage illustrent le potentiel d’une IA conversationnelle capable de s’intégrer dans des contextes variés, de l’éducation à la santé en passant par les services clients.
Avec gpt-realtime, OpenAI confirme son ambition : rendre les interactions vocales avec l’IA aussi naturelles que celles avec un humain.

Nvidia, Google et Bill Gates misent gros sur la fusion nucléaire de Commonwealth Fusion Systems

La fusion nucléaire attire enfin les projecteurs des géants de la tech : Commonwealth Fusion Systems (CFS), startup basée au Massachusetts, vient de lever 863 millions de dollars auprès d’investisseurs prestigieux, dont Nvidia, Google et Bill Gates via Breakthrough Energy Ventures. Cette levée porte le total des fonds collectés par CFS à près de 3 milliards de dollars, un record dans le secteur.
L’objectif de CFS : passer de la recherche à l’industrialisation de la fusion, souvent présentée comme une source d’énergie quasi inépuisable et propre. Grâce à l’accélération des avancées en intelligence artificielle et en calcul, la fusion revient au cœur des débats énergétiques. La société construit actuellement Sparc, un réacteur prototype basé sur la technologie des tokamaks et des aimants supraconducteurs, dans la banlieue de Boston. Ce démonstrateur devrait atteindre le « breakeven » scientifique dès 2027, c’est-à-dire produire plus d’énergie qu’il n’en consomme.
Sparc servira de tremplin pour Arc, une centrale commerciale prévue en Virginie, dont la construction pourrait débuter dès 2027-2028. Google a d’ailleurs déjà signé pour acheter 200 mégawatts d’électricité issus d’Arc. Cette mobilisation d’investisseurs internationaux pourrait bien accélérer la transition vers une énergie de fusion viable à grande échelle.

Nvidia bat de nouveaux records grâce à l’IA et ses puces Blackwell

Nvidia poursuit sa croissance fulgurante, portée par l’explosion de la demande en intelligence artificielle. Dans son dernier rapport trimestriel, l’entreprise annonce un chiffre d’affaires de 46,7 milliards de dollars, en hausse de 56 % par rapport à l’an dernier. Le moteur principal reste l’activité data centers, qui représente à elle seule 41,1 milliards de dollars. Les nouvelles puces Blackwell ont généré 27 milliards de ventes et se positionnent comme l’épine dorsale des infrastructures IA.
Le bénéfice net s’élève à 26,4 milliards de dollars, en progression de 59 %. Le PDG Jensen Huang souligne que les dépenses mondiales en infrastructures IA pourraient atteindre entre 3 et 4 trillions de dollars d’ici cinq ans. Nvidia revendique déjà un rôle clé dans le déploiement des modèles GPT-OSS d’OpenAI, capables de traiter 1,5 million de tokens par seconde sur un seul système Blackwell.
Cependant, l’entreprise fait face à des vents contraires en Chine. Les ventes de sa puce H20 y sont à l’arrêt, freinées par des restrictions américaines et par la volonté de Pékin de réduire sa dépendance aux technologies étrangères. Malgré ce contexte géopolitique tendu, Nvidia anticipe 54 milliards de revenus au prochain trimestre, confirmant son rôle de leader incontesté de l’IA.

Google Vids s’enrichit d’avatars IA et s’ouvre au grand public

Google continue d’étoffer sa suite Google Workspace avec Vids, son éditeur vidéo lancé l’an dernier. L’entreprise vient d’annoncer l’ajout d’avatars IA capables de transformer un simple script en vidéo grâce à une sélection de voix et de personnages virtuels. Une fonction déjà testée en bêta depuis Google I/O et désormais disponible pour tous les clients Workspace éligibles. L’objectif est clair : permettre aux entreprises et aux écoles de créer facilement des vidéos pédagogiques ou de formation, sans budget de production élevé.
Parmi les autres nouveautés, Vids intègre désormais un outil de montage intelligent qui détecte et supprime automatiquement les tics de langage (« um », « ah ») ou les silences prolongés. Les utilisateurs peuvent aussi transformer des images en clips vidéo de huit secondes, une capacité dérivée du modèle Veo 3 présenté en juillet. Google prévoit encore d’ajouter des options comme la réduction du bruit, des arrière-plans façon Google Meet et des formats variés (portrait, paysage, carré).
En parallèle, Google lance une version gratuite de Vids à destination du grand public. Cette édition se limite à des fonctions basiques : montage simple, accès à une bibliothèque de modèles, polices et médias libres. Les fonctionnalités avancées d’IA restent réservées aux abonnés Workspace Business, Enterprise Starter, Education, ou aux clients Google AI Pro et Ultra.

Claude s’invite dans Chrome : Anthropic teste son agent IA intégré au navigateur

Anthropic vient de lancer en avant-première son nouvel agent IA "Claude for Chrome", un outil pensé pour transformer l’expérience de navigation. Réservé pour l’instant à 1 000 abonnés de son offre Max (facturée entre 100 et 200 dollars par mois), il se présente sous forme d’extension Chrome avec une liste d’attente déjà ouverte pour les autres utilisateurs.
Le principe est simple : Claude apparaît dans une fenêtre latérale du navigateur, prêt à discuter avec l’utilisateur et, sur autorisation expresse, à exécuter certaines actions directement en ligne. Cette approche s’inscrit dans la tendance des navigateurs augmentés par l’IA, où Anthropic rejoint les initiatives de Perplexity, OpenAI et Google.
La sortie intervient dans un contexte particulier : le procès antitrust en cours contre Google pourrait influencer l’avenir de Chrome, ce qui rend cette intégration encore plus stratégique. Côté sécurité, Anthropic assure avoir réduit le taux de réussite des attaques par injection de prompts à 11,2 %, un chiffre présenté comme un progrès notable.
Avec cette incursion dans Chrome, Anthropic ne se contente pas de proposer un chatbot : il explore un futur où l’IA devient un véritable copilote de navigation, tout en posant la question cruciale de la confiance et du contrôle.

Microsoft dévoile VibeVoice, un modèle TTS (Text-to-Speech, ou texte vers parole) taillé pour les podcasts entiers

Microsoft vient de présenter VibeVoice, un nouveau modèle de synthèse vocale de 1,5 milliard de paramètres conçu pour transformer la manière dont nous utilisons l’audio généré par IA. Contrairement aux solutions actuelles limitées à de courts extraits, VibeVoice peut gérer des conversations continues de 90 minutes, avec jusqu’à quatre voix distinctes conservant fluidité, naturel et dynamique d’échange.
Parmi les avancées techniques majeures, le modèle affiche une réduction de 80x de la compression audio, ce qui ouvre la porte à une utilisation fluide sur des appareils grand public. Microsoft intègre également des filtres de sécurité : chaque audio produit comporte un filigrane et un avertissement intégré, permettant de vérifier facilement son origine artificielle.
L’enjeu est clair : l’IA vocale franchit un nouveau palier, passant de la génération de clips courts à la production de véritables émissions type podcast ou tables rondes virtuelles. Avec VibeVoice, Microsoft se positionne en acteur de premier plan dans la course à la voix synthétique réaliste, tout en mettant l’accent sur la transparence et la responsabilité.
Un pas de plus vers une adoption massive de la voix IA dans les médias, l’éducation et les assistants personnels.

Perplexity promet 42,5 millions de dollars aux éditeurs

La start-up d’IA Perplexity vient d’annoncer un programme de partage de revenus de 42,5 millions de dollars destiné aux éditeurs dont les contenus alimentent ses résultats. Concrètement, l’entreprise propose un nouvel abonnement à 5 dollars par mois baptisé Comet Plus, dont 80 % des revenus (hors coûts de calcul) seraient reversés aux médias partenaires.
Ce dispositif permet aux éditeurs de percevoir une rémunération lorsque leurs articles apparaissent dans le moteur de recherche de Perplexity, son navigateur Comet ou dans les tâches effectuées par l’IA. L’initiative se veut une réponse directe aux critiques concernant l’utilisation massive de contenus journalistiques par les modèles d’intelligence artificielle, souvent sans contrepartie financière.
Cependant, le projet intervient dans un climat tendu : Perplexity fait actuellement face à plusieurs procédures judiciaires et à des mises en demeure émanant de grands groupes de presse. Si l’annonce marque un tournant en matière de rémunération des éditeurs, certains experts estiment que les sommes en jeu resteront marginales par rapport aux difficultés économiques structurelles que traversent les médias.
En somme, Perplexity tente d’amorcer un dialogue avec les éditeurs, mais la viabilité réelle de ce modèle reste à prouver.

D'autres articles d'IA qui pourraient vous intéresser
Retour en haut