Accueil Partager la publication Retour D'autres articles d'IA qui pourraient vous intéresser ChatGPT Atlas : OpenAI défie Google avec son nouveau navigateur IA OpenAI lance ChatGPT Atlas, un navigateur web alimenté par l'intelligence artificielle qui intègre l'assistant... Lire la suite GPT-5 : la nouvelle frontière de l'intelligence artificielle face aux défis de la croissance GPT-5 […]

Les actus IA en bref

Partager la publication

Adobe Firefly crée automatiquement un premier montage vidéo à partir de vos rushes

Adobe enrichit son éditeur vidéo Adobe Firefly avec une nouvelle fonctionnalité baptisée "Quick Cut" (montage rapide), qui exploite l'intelligence artificielle pour générer automatiquement un premier montage à partir de rushes et de plans de coupe fournis par l'utilisateur.
Concrètement, il suffit de décrire en langage naturel le résultat souhaité : l'outil supprime les passages inutiles, assemble les différentes prises et insère des transitions pertinentes. Il est également possible de sélectionner des images dans les plans de coupe pour créer de courtes transitions grâce aux modèles vidéo intégrés à Firefly. Des paramètres comme le format d'image ou le rythme des transitions sont réglables directement via une boîte de dialogue.
Adobe précise que "Quick Cut" vise uniquement à produire un premier jet : les monteurs devront ensuite affiner le résultat. Selon Mike Folgner, responsable produit pour les outils vidéo IA chez Adobe, l'objectif est d'aider les créateurs et les spécialistes du marketing à gagner du temps sur les tâches répétitives pour se concentrer sur leur vision créative. Cette annonce s'inscrit dans une série de mises à jour régulières d'Adobe autour de la vidéo, notamment le lancement en décembre 2025 d'un éditeur vidéo basé sur une ligne de temps avec édition par invite.

Trois IA chinoises accusées d'avoir pillé le modèle Claude d'Anthropic à grande échelle

Anthropic a annoncé avoir détecté des campagnes d'extraction massive de données ciblant son modèle d'IA (intelligence artificielle) Claude. Les trois laboratoires visés - DeepSeek, Moonshot et MiniMax - auraient créé environ 24 000 comptes frauduleux et généré plus de 16 millions d'échanges avec Claude, en violation des conditions d'utilisation et des restrictions géographiques.
La technique employée s'appelle la distillation : elle consiste à entraîner un modèle moins performant sur les réponses d'un modèle plus avancé. Si cette méthode est courante dans le secteur, elle est ici réalisée à une échelle industrielle, sans autorisation, via des services mandataires (proxy) qui gèrent des réseaux de faux comptes pour contourner les blocages. Chaque laboratoire avait ses priorités : DeepSeek ciblait le raisonnement logique, Moonshot les tâches de programmation et d'analyse, et MiniMax - le plus actif avec 13 millions d'échanges - se concentrait sur l'utilisation d'outils.
L'enjeu va au-delà de la concurrence commerciale. Des modèles obtenus par distillation illicite ne contiennent pas nécessairement les mêmes garde-fous de sécurité, ce qui augmente les risques d'utilisation malveillante. Ces attaques alimentent aussi le débat sur les contrôles à l'exportation des puces, car elles permettent à des laboratoires d'acquérir des capacités avancées sans les développer de zéro. En réponse, Anthropic renforce sa détection, limite ses points d'accès et partage ses données avec d'autres entreprises d'IA ainsi qu'avec les décideurs politiques.

Meta mise 100 milliards de dollars contre le monopole de Nvidia

Meta, le groupe derrière Facebook, vient de signer un accord de plus de 100 milliards de dollars avec AMD (Advanced Micro Devices, fabricant de puces) pour sécuriser 6 gigawatts de capacité de calcul en intelligence artificielle (IA) - et cela quelques jours seulement après avoir conclu un partenariat similaire avec Nvidia.
L'accord, annoncé le 24 février 2026, prévoit que Meta achète les GPU (processeurs graphiques) MI450 d'AMD, intégrés dans des serveurs Helios à l'échelle du rack (unité de serveur), ainsi qu'une génération de CPU (processeurs centraux) optimisés pour l'IA. En contrepartie, AMD a émis un bon de souscription donnant à Meta la possibilité d'acquérir 160 millions d'actions, soit environ 10% du capital d'AMD, à un prix d'exercice symbolique d'un centime. Ces actions ne seront débloquées que lorsque AMD atteindra des jalons précis : livraison du premier gigawatt de puces, seuils de cours de bourse, et critères techniques convenus.
Meta, qui prévoit jusqu'à 135 milliards de dollars de dépenses d'investissement en IA pour 2026, construit délibérément un écosystème multi-fournisseurs. Quelques jours avant l'annonce AMD, elle avait déjà signé un accord multi-annuel avec Nvidia portant sur des millions de GPU Blackwell et les futurs systèmes Vera Rubin, dont la valeur est estimée à "plusieurs dizaines de milliards." Cette double stratégie vise à ne jamais se retrouver en position de faiblesse face à un unique fournisseur qui contrôle plus de 90% du marché des puces pour l'IA.
AMD avait déjà conclu en 2025 un accord similaire avec OpenAI, également portant sur 6 gigawatts et 160 millions d'actions. Au total, AMD cumule désormais des engagements pour 12 gigawatts de GPU et 320 millions d'actions en bons de souscription potentiels. La PDG (présidente-directrice générale) d'AMD, Lisa Su, a déclaré que "le marché des CPU est en feu" et que le portefeuille d'AMD

Meta ressuscite sa montre connectée après l'avoir abandonnée il y a quatre ans

En 2022, Meta avait discrètement enterré son projet de montre connectée, sacrifié sur l'autel du métavers. Aujourd'hui, la firme de Mark Zuckerberg relance ce même projet sous le nom de code "Malibu 2", et en fait même sa priorité matérielle numéro un pour 2026.
Ce revirement s'explique par un double constat d'échec et d'urgence. D'un côté, Reality Labs (la division réalité virtuelle de Meta) a accumulé plus de 50 milliards de dollars de pertes depuis 2021, et Meta a supprimé plus de 1 000 postes dans cette division début 2026. De l'autre, les concurrents Apple, Google et Samsung ont clairement misé sur les objets connectés portables (wearables) intégrant l'intelligence artificielle, un segment en pleine croissance que Meta ne peut plus ignorer.
La Malibu 2 n'est pas pensée comme un rival direct de l'Apple Watch. Elle serait conçue pour fonctionner en synergie avec les lunettes Ray-Ban Meta Display, lancées en septembre 2025, en prenant en charge le contrôle gestuel, le suivi de la santé, les notifications et un assistant Meta IA intégré - le tout sans dépendre du smartphone. Meta dispose d'un atout non négligeable : plus de 3,5 milliards d'utilisateurs actifs sur ses plateformes (Facebook, Instagram, WhatsApp, Threads), une base de distribution sans équivalent pour promouvoir ce nouvel appareil.
Ce lancement marque un tournant stratégique : Meta abandonne la promesse d'un futur entièrement virtuel pour parier sur des appareils discrets, portables au quotidien, où l'IA s'intègre dans la vie réelle plutôt qu'elle ne la remplace.

Google ajoute Lyria 3 dans Gemini : créez une chanson en 30 secondes avec les paroles

Google déploie dans l’application Gemini une fonction de génération musicale basée sur Lyria 3, le modèle de musique générative de Google DeepMind. Elle permet de produire en quelques secondes un morceau de 30 secondes, avec paroles générées automatiquement, à partir d’une simple description. Il est aussi possible d’importer une photo ou une vidéo pour que Gemini compose une musique dont l’ambiance correspond au contenu, et l’outil fournit une pochette créée avec Nano Banana. Les utilisateurs peuvent ajuster plusieurs paramètres, notamment le style, les voix et le tempo, afin d’obtenir un rendu plus proche de leur intention. Si une consigne mentionne le nom d’un artiste, Gemini s’en sert comme inspiration générale (style ou humeur) sans chercher à imiter l’artiste, et des filtres vérifient les sorties. Les morceaux générés intègrent SynthID, un filigrane imperceptible conçu pour identifier les contenus créés par les outils d’IA de Google, et Gemini peut aussi aider à détecter ce filigrane sur un fichier importé. La fonction est disponible pour les utilisateurs de 18 ans et plus, en anglais, allemand, espagnol, français, hindi, japonais, coréen et portugais, avec un déploiement progressif sur ordinateur puis mobile. Côté création vidéo, Lyria 3 arrive aussi via Dream Track sur YouTube, désormais en cours d’extension au-delà des Etats-Unis.

Anthropic lance Claude Sonnet 4.6 : des performances haut de gamme à un cinquième du prix

Anthropic a présenté le 17 février 2026 Claude Sonnet 4.6, son nouveau modèle intermédiaire, qui marque une avancée significative dans l'accessibilité de l'intelligence artificielle de pointe.
Ce modèle affiche des capacités comparables au modèle phare Opus 4.6 sur plusieurs critères clés, notamment les tâches bureautiques et l'analyse financière, tout en étant proposé à un tarif environ cinq fois inférieur : 3 dollars par million de jetons en entrée et 15 dollars en sortie. Sur les évaluations de référence, Sonnet 4.6 obtient 72,5% sur OSWorld (contre 72,7% pour Opus 4.6) et 79,6% sur SWE-bench Verified (évaluation des capacités de programmation), s'imposant en tête de tous les modèles pour la productivité bureautique avec un score Elo (système de classement des modèles) de 1633.
Les utilisateurs en accès anticipé constatent des aptitudes quasi humaines pour naviguer dans des feuilles de calcul complexes, remplir des formulaires en ligne sur plusieurs onglets ou encore renouveler des démarches administratives en ligne. Le modèle prend également en charge une fenêtre de contexte d'un million de jetons en version bêta, et intègre la "pensée étendue" (extended thinking) ainsi qu'un système de compactage automatique du contexte. Claude Sonnet 4.6 est désormais le modèle par défaut sur claude.ai pour les abonnements Free et Pro, et est disponible via l'API (interface de programmation) sur les plateformes Amazon Bedrock et Google Vertex AI.

Alibaba devance DeepSeek avec son nouveau modèle IA Qwen3.5

Alibaba a dévoilé le 16 février 2026 une mise à jour majeure de son modèle d'intelligence artificielle phare, Qwen3.5, anticipant ainsi la sortie imminente de DeepSeek V4 prévue à la mi-février. Cette annonce s'inscrit dans une course technologique intense entre les géants chinois de l'IA, tous positionnés pour lancer leurs nouveaux modèles pendant le Nouvel An lunaire.
Qwen3.5 se distingue par ses capacités multimodales avancées : il peut traiter du texte, des images et des vidéos, avec une capacité d'analyse de séquences allant jusqu'à deux heures. Le modèle est spécialement conçu pour "l'ère de l'IA agentique" (agentic AI era), permettant d'exécuter des tâches complexes de manière autonome. Alibaba affirme que Qwen3.5 est 60% moins coûteux à utiliser et huit fois plus performant que son prédécesseur pour traiter les charges de travail importantes.
Cette mise à jour vise à renforcer la position d'Alibaba face à DeepSeek, la startup chinoise fondée en 2023 qui a secoué le marché avec ses modèles performants et économiques. DeepSeek prépare son modèle V4, spécialisé dans la programmation et capable de gérer des prompts de code très longs.
Le modèle Qwen3.5 est accessible via la plateforme Alibaba Cloud et peut s'intégrer à des environnements comme OpenClaw pour automatiser des tâches de développement logiciel.

OpenAI recrute le créateur d'OpenClaw pour piloter ses agents IA autonomes

OpenAI vient d'annoncer l'arrivée de Peter Steinberger, développeur autrichien et créateur de l'assistant IA OpenClaw, pour diriger "la prochaine génération d'agents personnels" au sein de l'entreprise californienne. Ce recrutement stratégique intervient alors que les agents IA autonomes connaissent un engouement massif.

OpenClaw, lancé en novembre 2025, se distingue des assistants conversationnels traditionnels par sa capacité à effectuer des actions concrètes : gérer des e-mails, réserver des vols, organiser des calendriers et s'intégrer avec plus de 50 plateformes de messagerie. Le projet a connu une ascension fulgurante sur GitHub, passant de 7 800 à 113 000 étoiles en moins d'une semaine fin janvier 2026, avec 2 millions de visiteurs.

Sam Altman, PDG (Président-Directeur Général) d'OpenAI, a souligné que "le futur sera extrêmement multi-agents" et que les capacités de collaboration entre ces systèmes deviendront "rapidement essentielles". Cette vision s'aligne avec les prévisions du cabinet Gartner, qui estime que 40% des applications d'entreprise intégreront des agents IA spécialisés d'ici fin 2026.

OpenClaw deviendra une fondation indépendante tout en conservant son caractère open-source, avec le soutien continu d'OpenAI. Steinberger a expliqué vouloir "changer le monde, pas construire une grande société" et considère qu'OpenAI représente "le moyen le plus rapide d'apporter cela à tout le monde".

D'autres articles d'IA qui pourraient vous intéresser
Retour en haut