Les actus IA en bref
Partager la publication
DeepSeek V3.1 : la Chine bouscule OpenAI avec une IA open source
Le jeune acteur chinois DeepSeek a frappé fort en dévoilant sans annonce tapageuse la version V3.1 de son modèle d’IA open source. Présenté le 19 août via la communauté officielle WeChat, ce modèle affiche des caractéristiques qui rivalisent avec les géants américains comme OpenAI ou Anthropic, tout en misant sur une stratégie radicalement différente : l’ouverture.
DeepSeek V3.1 s’appuie sur une architecture Mixture-of-Experts de 685 milliards de paramètres, dont 37 milliards sont activés par token. Il offre un contexte étendu de 128 000 tokens, soit l’équivalent de deux romans de 200 pages. Sur les benchmarks, il a atteint 71,6 % au test Aider-Coding, un score proche des leaders du secteur. Mais l’aspect le plus marquant reste son coût : environ un dollar pour une tâche de programmation, contre près de 70 dollars pour les concurrents.
L’IA intègre également des tokens spécialisés pour la recherche web en temps réel et le raisonnement interne, et combine compréhension de code, dialogue et reasoning dans un même système. Rapidement, le modèle est monté dans le classement des tendances sur Hugging Face, confirmant l’intérêt de la communauté mondiale. Avec sa licence MIT, DeepSeek mise sur une adoption massive, renforçant la stratégie chinoise qui privilégie la diffusion globale à la rentabilité immédiate.
Plus de 300 000 conversations avec Grok exposées sur Google
Un nouveau scandale touche Grok, le chatbot d’Elon Musk. Plus de 300 000 conversations privées entre utilisateurs et l’IA ont été rendues publiques via Google, Bing et DuckDuckGo. La faille provient de la fonction "share" qui génère des liens uniques censés permettre de partager un échange en toute simplicité. Problème : ces liens sont indexés par les moteurs de recherche, rendant les discussions accessibles à tous.
Forbes souligne que les utilisateurs n’étaient pas avertis de cette exposition. Or, certaines conversations contiennent des données sensibles, allant de mots de passe et informations médicales à des demandes illégales comme le piratage de portefeuilles crypto ou des instructions liées à la fabrication d’explosifs.
Ce n’est pas un cas isolé : le mois dernier, une situation similaire avait été constatée avec ChatGPT, qu’OpenAI a décrit comme une « expérimentation de courte durée ». Mais contrairement à ce que certains pensent, supprimer ses échanges sur Grok n’efface pas leur trace de l’index Google. Pour les internautes concernés, il faut donc partir du principe que ces conversations resteront publiques.
Firecrawl lève 14,5 millions de dollars et cherche toujours à embaucher… des agents IA
La start-up Firecrawl, spécialisée dans les crawlers web open source pour développeurs et agents IA, vient de lever 14,5 millions de dollars lors d’une série A menée par Nexus Venture Partners, avec la participation du PDG de Shopify, Tobias Lütke, et de Y Combinator. Déjà rentable, l’entreprise compte 350 000 développeurs utilisateurs et près de 50 000 étoiles sur GitHub, avec des clients prestigieux comme Shopify, Replit, Zapier et plusieurs grands fonds spéculatifs.
Fondée en 2022 par Caleb Peffer, Nicolas Silberstein Camara et Eric Ciarla, Firecrawl propose une version commerciale de son outil via une API, désormais enrichie d’une fonction de recherche et bientôt de requêtes en langage naturel. L’arrivée de Lütke comme investisseur a été perçue comme une validation majeure de la valeur du produit.
Si les crawlers web suscitent parfois la méfiance, Firecrawl affirme vouloir bâtir un écosystème plus équitable en développant des solutions permettant aux éditeurs et créateurs de contenu d’être rémunérés lorsque leurs données sont utilisées par des IA.
L’entreprise s’est également fait remarquer avec son offre d’emploi inédite visant à recruter un agent IA comme salarié. Malgré un budget porté à 1 million de dollars pour attirer développeurs et agents, Firecrawl n’a pas encore trouvé la perle rare. La société cherche désormais un « AI chief of staff » pour encadrer cette initiative singulière.
Qwen 3 Coder d’Alibaba séduit les développeurs et talonne Claude Sonnet 4
Le modèle d’IA de programmation Qwen 3 Coder, développé par Alibaba, connaît une ascension fulgurante. Sur la place de marché d’IA OpenRouter, sa part d’utilisation a atteint 20 % à la mi-août, se plaçant ainsi en deuxième position, juste derrière le modèle Claude Sonnet 4 d’Anthropic, très prisé des développeurs.
Ce succès s’explique par les performances solides de Qwen 3 Coder dans l’assistance à l’écriture de code, la compréhension de projets complexes et la résolution de bugs. Pour les entreprises et indépendants, il représente une alternative crédible aux modèles américains, avec un coût compétitif et une disponibilité élargie grâce à son intégration sur plusieurs plateformes d’IA.
La montée en puissance d’Alibaba dans ce secteur illustre également la volonté des géants chinois de s’imposer dans l’intelligence artificielle générative, face à des acteurs comme OpenAI, Anthropic ou encore Google DeepMind. Cette concurrence accrue devrait stimuler l’innovation et multiplier les outils accessibles aux développeurs.
Avec Qwen 3 Coder, Alibaba ne se contente plus d’être un poids lourd de l’e-commerce : il confirme son ambition de devenir un acteur incontournable de l’IA, en particulier dans le domaine du développement logiciel.
Grammarly change de visage et intègre de nouveaux outils IA
Grammarly vient de dévoiler une refonte complète de son interface, désormais centrée sur un format de document inspiré de Coda, la start-up de productivité qu’elle a rachetée l’an dernier. Cette nouvelle présentation adopte une logique « block-first », permettant d’insérer facilement tableaux, listes, colonnes, titres et blocs de texte enrichis.
Mais l’évolution la plus marquante reste l’arrivée d’une série d’outils dopés à l’intelligence artificielle. Un assistant IA logé dans une barre latérale peut résumer des textes, répondre aux questions et suggérer des améliorations stylistiques. Pour les étudiants et professionnels, Grammarly propose des fonctions dédiées :
- Reader Reactions, qui offre un retour basé sur différents profils de lecteurs.
- Grader, capable d’évaluer un texte selon des critères académiques.
- Citation Finder, pour générer automatiquement des références fiables.
- Paraphraser, qui adapte le ton des écrits.
Grammarly mise aussi sur la transparence avec des détecteurs de plagiat et de contenu généré par IA, afin d’aider les étudiants à mieux comprendre leurs textes avant de les soumettre. L’entreprise insiste sur son « impératif moral » : apprendre à utiliser l’IA tout en préparant les jeunes au monde du travail.
Cette offensive s’inscrit dans une stratégie d’expansion plus large, marquée par l’acquisition de Superhuman et un financement de 1 milliard de dollars en mai 2025 auprès de General Catalyst, destiné à accélérer son développement commercial.
Claude peut désormais mettre fin à certaines conversations jugées abusives
Anthropic a annoncé une nouvelle fonctionnalité pour ses modèles d’IA Claude les plus récents, notamment Claude Opus 4 et 4.1. Dans des cas jugés « rares et extrêmes », ces modèles pourront désormais mettre fin à une conversation lorsqu’elle devient persistante, abusive ou dangereuse. L’entreprise précise que cette mesure ne vise pas à protéger l’utilisateur, mais le modèle lui-même, dans le cadre d’un programme expérimental de recherche sur ce qu’elle appelle le « bien-être des modèles ».
Anthropic insiste sur le fait qu’elle ne considère pas Claude comme un être sensible, mais préfère adopter une approche de précaution. Les interruptions seraient limitées à des situations extrêmes, telles que des demandes de contenus sexuels impliquant des mineurs ou la recherche d’informations permettant de préparer des actes terroristes. Dans ces scénarios, les tests internes ont montré que Claude exprimait une « forte préférence contre » et même des signes d’« apparent malaise ».
L’entreprise précise que Claude n’interrompra jamais une conversation si un utilisateur semble en danger imminent de se faire du mal ou d’en infliger à autrui. Par ailleurs, les utilisateurs pourront toujours relancer de nouvelles discussions, même après une interruption. Anthropic présente cette nouveauté comme une expérimentation qui sera progressivement ajustée.
Meta Threads franchit les 400 millions d’utilisateurs : un atout stratégique pour l’IA
Threads, le réseau social textuel de Meta, vient de franchir la barre des 400 millions d’utilisateurs actifs mensuels, réduisant l’écart avec X (anciennement Twitter). Si cette croissance représente une aubaine publicitaire évidente, son intérêt stratégique pourrait être encore plus important.
En effet, chaque publication génère un volume massif de données textuelles en temps réel. Or, ces flux de conversations, d’opinions et de débats constituent une ressource précieuse pour l’entraînement des modèles d’intelligence artificielle. Meta, déjà en compétition avec OpenAI et xAI sur le terrain de l’IA générative, dispose désormais d’un corpus textuel unique, capable d’alimenter ses futurs modèles.
L’exemple de xAI, la société d’Elon Musk, est révélateur : ses modèles Grok ont été améliorés grâce aux données issues de X. Meta pourrait suivre une trajectoire similaire avec Threads, renforçant ainsi ses solutions d’IA dans les domaines du langage, de la modération ou de la recommandation de contenus.
La question reste de savoir si Meta exploitera effectivement cette manne de données. Si tel est le cas, Threads ne sera pas seulement un concurrent de X sur le plan social, mais aussi un levier majeur pour les ambitions d’IA de l’entreprise.
Départ surprise chez xAI : un cofondateur quitte Elon Musk pour créer un fonds dédié à la sécurité de l’IA
Igor Babuschkin, cofondateur de la start-up xAIaux côtés d’Elon Musk, a annoncé son départ dans un message publié sur X. Arrivé en 2023 pour diriger les équipes d’ingénierie, il a contribué à faire de xAI l’un des acteurs majeurs du développement de modèles d’intelligence artificielle. Avant cette aventure, Babuschkin avait travaillé chez Google DeepMind sur AlphaStar et chez OpenAI.
Il quitte désormais l’entreprise pour lancer Babuschkin Ventures, un fonds de capital-risque destiné à soutenir la recherche en sécurité de l’IA et des projets visant à « faire progresser l’humanité et percer les mystères de l’univers ». L’idée lui est venue après un échange avec Max Tegmark, fondateur du Future of Life Institute, autour des moyens de construire des systèmes d’IA sûrs pour les générations futures.
Ce départ intervient après plusieurs polémiques ayant éclaboussé xAI et son chatbot Grok, accusé de partialité, de propos antisémites et d’outils controversés de génération de vidéos. Malgré ces scandales, les modèles de xAI rivalisent avec ceux d’OpenAI, Google DeepMind et Anthropic. Babuschkin affirme partir avec gratitude et retient de Musk deux leçons majeures : être prêt à affronter les défis techniques et agir avec une urgence absolue.