OpenAI a présenté les résultats de sa technologie de clonage de voix par IA, Voice Engine. Pour des raisons de sécurité, le modèle n’est pas encore accessible au grand public.

Glossaire des termes liés à l'intelligence artificielle

Partager la publication

# A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
M

Machine à vecteurs de support (Support Vector Machine (SVM))
Modèle d'apprentissage supervisé utilisé pour les tâches de classification et de régression.

Machine de Boltzmann (Boltzmann Machine)
Réseau de neurones utilisé pour modéliser les distributions de probabilité.

Machine Learning (Apprentissage automatique)
L'apprentissage automatique est un sous-ensemble de l'IA qui se concentre sur le développement d'algorithmes capables d'apprendre à partir de données et d'améliorer leurs performances au fil du temps.

Masquage (Masking)
Technique dans les transformateurs où certaines parties de l'entrée sont cachées pour se concentrer sur le contexte.

Mécanisme d'attention (Attention Mechanism)
Technique des réseaux neuronaux qui se concentre sur des parties spécifiques de la séquence d'entrée.

Mémoire associative
Un type de modèle de mémoire utilisé dans les systèmes d'intelligence artificielle qui peut stocker et récupérer des modèles ou des données en fonction de leurs associations avec d'autres modèles ou données.

Méta-apprentissage pour la génération (Meta-Learning for Generation)
Utilisation de techniques de méta-apprentissage pour apprendre des modèles génératifs capables de s'adapter rapidement à de nouvelles tâches ou à de nouveaux domaines avec des données limitées.

Méthodes à noyau (Kernel Methods)
Les méthodes à noyau transforment les données dans un espace de dimension supérieure pour les rendre linéairement séparables. Les machines à vecteurs de support (SVM) et PCA (analyse du composant principal) à noyau sont des exemples d'algorithmes à noyau.

Méthodes d'ensemble (Ensemble Methods)
Les méthodes d'ensemble combinent plusieurs modèles pour améliorer les performances globales. Le "bagging" (Bootstrap Aggregating), le "boosting" et le "stacking" sont des techniques d'ensemble populaires.

Mise à jour des connaissances (Knowledge Grounding)
La capacité des modèles génératifs à fonder leurs résultats sur des connaissances factuelles ou des sources de données externes, souvent utilisée pour améliorer l'exactitude ou la cohérence des faits.

Mise au point (Fine-tuning)
Le processus de formation supplémentaire d'un modèle génératif pré-entraîné sur une tâche ou un domaine spécifique.

Modèle autorégressif
Un type de modèle génératif qui génère des sorties de manière séquentielle, chaque jeton de sortie étant conditionné par les jetons précédents.

Modèle basé sur les flux (Flow-Based Model)
Un type de modèle génératif qui apprend une correspondance bijective entre les données et une distribution de probabilité simple, souvent utilisé pour l'estimation de la densité ou les tâches de génération de données.

Modèle d'espace vectoriel
Modèle pour représenter les documents textuels sous forme de vecteurs d'identifiants.

Modèle de dialogue génératif (Generative Dialogue Model)
Un type de modèle génératif conçu pour les interactions conversationnelles, souvent utilisé dans les chatbots ou les assistants virtuels.

Modèle de diffusion
Un type de modèle d'IA génératif utilisé pour la génération d'images, qui fonctionne en ajoutant progressivement du bruit à une image et en apprenant ensuite à inverser le processus.

Modèle de fusion (Fusion Model)
Un type de modèle génératif qui combine plusieurs modalités, telles que le texte et les images, pour générer des résultats dans une ou plusieurs modalités.

Modèle de langage (Language Model)
Un type de modèle d'IA génératif qui apprend des modèles dans les données textuelles afin de générer des textes de type humain.

Modèle de langage contrastif (Contrastive Language Model)
Type de modèle de langage entraîné à faire la distinction entre un texte réel et un texte artificiellement corrompu, souvent utilisé pour l'apprentissage non supervisé de représentations.

Modèle de langage masqué (Masked Language Model)
Type de modèle linguistique entraîné à prédire les mots masqués ou manquants dans une séquence, souvent utilisé pour des tâches telles que la génération de texte ou l'apprentissage de la représentation.

Modèle de langage non causal (Non-Causal Language Model)
Un type de modèle de langage qui peut générer des sorties basées sur l'ensemble de la séquence d'entrée, souvent utilisé pour des tâches telles que la traduction automatique ou le résumé de texte.

Modèle de probabilité de diffusion
Le modèle probabiliste sous-jacent utilisé par les modèles de diffusion, qui apprend à inverser le processus d'ajout progressif de bruit aux données.

Modèle linguistique causal (Causal Language Model)
Un type de modèle de langage qui génère des sorties basées uniquement sur les tokens précédents dans une séquence, couramment utilisé pour les tâches de génération de texte.

Modèle séquence à séquence (Sequence-to-Sequence Model)
Un type de modèle génératif qui peut mettre en correspondance des séquences d'entrée (par exemple, texte ou audio) avec des séquences de sortie, souvent utilisé dans des tâches telles que la traduction automatique ou le résumé de texte.

Modèles causaux génératifs (Generative Causal Models)
Modèles génératifs visant à capturer les relations causales dans les données, souvent utilisés pour des tâches telles que le raisonnement contrefactuel ou la découverte causale.

Modèles de diffusion
Modèles probabilistes utilisés pour générer des données en simulant le processus de diffusion.

Modèles génératifs hiérarchiques (Generative Hierarchical Models)
Modèles génératifs qui capturent la structure hiérarchique ou compositionnelle des données, souvent utilisés pour des tâches telles que la génération de scènes ou la modélisation du langage.

Modèles graphiques génératifs (Generative Graph Models)
Modèles génératifs conçus pour capturer et générer des données structurées en graphe, souvent utilisés dans des domaines tels que la chimie ou l'analyse des réseaux sociaux.

Modèles temporels génératifs (Generative Temporal Models)
Modèles génératifs conçus pour capturer les dépendances temporelles et générer des données de séries temporelles, telles que des séquences audio ou vidéo.

Modélisation générative de séquences (Generative Sequence Modeling)
L'utilisation de modèles génératifs pour capturer et générer des données séquentielles, telles que du texte, de la parole ou des données de séries temporelles.
Les outils les plus populaires
Retour en haut