OpenAI a présenté les résultats de sa technologie de clonage de voix par IA, Voice Engine. Pour des raisons de sécurité, le modèle n’est pas encore accessible au grand public.

Glossaire des termes liés à l'intelligence artificielle

Partager la publication

# A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
É

Échantillonnage (Sampling)
Processus consistant à générer de nouvelles sorties à partir d'un modèle génératif par échantillonnage de la distribution de probabilité apprise.

Échantillonnage de la température (Temperature Sampling)
Stratégie d'échantillonnage pour les modèles génératifs qui ajuste la distribution de probabilité en appliquant un facteur d'échelle de température, ce qui permet de contrôler la diversité et la créativité des résultats générés.

Échantillonnage du noyau (Nucleus Sampling)
Une stratégie d'échantillonnage pour les modèles génératifs qui filtre les résultats à faible probabilité, souvent utilisée pour améliorer la qualité et la cohérence du texte généré ou d'autres données.

Échantillonnage programmé (Scheduled Sampling)
Une technique de formation pour les modèles séquence à séquence qui passe progressivement du forçage de l'enseignant à l'utilisation des propres prédictions du modèle pendant la formation, afin de mieux gérer le biais d'exposition.

Échantillonnage Top-k (Top-k Sampling)
Une stratégie d'échantillonnage pour les modèles génératifs qui ne prend en compte que les k sorties les plus probables à chaque étape, souvent utilisée pour améliorer la diversité des sorties générées.

Élagage (Pruning)
L'élagage consiste à supprimer les connexions ou les nœuds inutiles d'un réseau neuronal afin de réduire sa complexité et d'améliorer la généralisation.

E

Emboîtements de mots
Représentations des mots dans un espace vectoriel continu.

Emboîtements de phrases (Sentence Embeddings)
Représentation des phrases sous forme de vecteurs dans un espace vectoriel continu.

Empilage (Stacking)
L'empilage ou la généralisation par empilage est un algorithme d'apprentissage automatique d'ensemble. Il utilise un algorithme de méta-apprentissage pour apprendre à combiner au mieux les prédictions de deux ou plusieurs algorithmes d'apprentissage automatique de base.

Encodage One-Hot
Méthode de conversion des données catégorielles en vecteurs binaires.

É

Époque (Epoch)
Un passage complet à travers l'ensemble de données d'entraînement.

Équité adverbiale générative (Generative Adversarial Fairness)
L'utilisation de réseaux adversaires génératifs pour améliorer l'équité et réduire les biais dans les modèles d'apprentissage automatique, en apprenant à cartographier les données dans une représentation équitable ou biaisée.

E

Erreur Quadratique Moyenne (Mean Squared Error (MSE))
Fonction de perte courante pour les tâches de régression.

Erreur quadratique moyenne racine (Root Mean Square Error (RMSE))
Mesure des différences entre les valeurs prédites par un modèle et les valeurs réelles.

Espace latent (Latent Space)
La représentation de dimension inférieure apprise par un modèle génératif, à partir de laquelle de nouvelles données peuvent être générées.

Estimation de l'incertitude par les réseaux adversaires génératifs
Utilisation de réseaux adversaires génératifs pour estimer l'incertitude ou la confiance des modèles d'apprentissage automatique, en apprenant à générer des échantillons divers ou hors distribution.

É

Étiquetage (Labeling)
Processus d'attribution de balises significatives aux points de données.

E

Exemples contradictoires (Adversarial Examples)
Entrées conçues pour tromper les modèles d'IA et les amener à faire des prédictions incorrectes.

Exploration générative
Utilisation de modèles génératifs pour guider l'exploration dans des contextes d'apprentissage par renforcement ou d'apprentissage actif, en générant des exemples prometteurs ou informatifs.

Extraction de caractéristiques (Feature Extraction)
L'extraction de caractéristiques consiste à transformer les données brutes en un ensemble de caractéristiques pertinentes. Elle est essentielle pour améliorer les performances du modèle et réduire le bruit.
Les outils les plus populaires
Retour en haut