Voici une liste (qui sera mise à jour régulièrement) afin de maitriser les termes clés de l'IA.
L'apprentissage non supervisé permet à un modèle d'analyser des données sans étiquettes préalables, l’aidant à découvrir des schémas ou des regroupements cachés. Utilisé pour des tâches de clustering, il aide à organiser les données en fonction de similarités naturelles, sans guidance humaine.
L'apprentissage supervisé consiste à former un modèle à partir de données étiquetées, où chaque entrée correspond à une sortie attendue. Cette méthode permet aux modèles de faire des prédictions précises en se basant sur des exemples antérieurs, couramment utilisés pour la classification et la régression.
Les arbres de décision sont des modèles visuels qui permettent de classer ou de prédire des données en fonction de critères successifs. Chaque nœud de l'arbre représente une question ou un choix, et les branches définissent les chemins vers des décisions ou prédictions.
Un auto-encodeur est un réseau de neurones qui apprend à compresser des données en une représentation simplifiée, puis à les reconstruire. Utilisé pour la réduction de la dimensionnalité, il capture les caractéristiques essentielles des données.
Le biais d'IA se produit lorsque des modèles d'IA reproduisent des préjugés présents dans les données d'entraînement, ce qui peut conduire à des résultats inéquitables. Comprendre et atténuer ces biais est essentiel pour des applications éthiques de l'IA.
La data augmentation génère de nouvelles données à partir de modifications des données existantes, comme la rotation ou le recadrage d’images. Cette technique enrichit le jeu de données d'entraînement, aidant à améliorer la robustesse et la précision du modèle.
Le Deep Learning, sous-domaine du Machine Learning, utilise des réseaux de neurones profonds pour analyser et traiter des données complexes. Ses applications couvrent la reconnaissance d'images, le traitement du langage naturel et bien plus encore, en extrayant des représentations de plus en plus abstraites à chaque couche.
L'entraînement est le processus d’apprentissage d’un modèle d’IA à partir d’un jeu de données, où il apprend à identifier des motifs et relations pour générer des prédictions précises sur de nouvelles données similaires.
Le fine-tuning ajuste un modèle pré-entraîné pour le spécialiser dans une tâche particulière. En le retravaillant sur un jeu de données spécifique, le modèle atteint une performance optimisée et plus précise.
Un GAN est composé de deux réseaux de neurones en compétition : un générateur et un discriminateur. Ensemble, ils produisent des données réalistes, permettant de générer des images, sons ou vidéos, avec une qualité de plus en plus élevée.
GPT est un modèle avancé de langage développé par OpenAI, basé sur l'architecture Transformer. Il est capable de générer du texte contextuellement pertinent grâce à un pré-entraînement sur des ensembles de données massifs.
Dans l'IA, une hallucination désigne le phénomène où un modèle génère des informations incorrectes ou inventées. Cela survient souvent lorsque le modèle manque de données pour une réponse et "imagine" une réponse plausible mais erronée.
L'IA générative est une technologie qui crée du contenu original, comme du texte, des images ou des vidéos, en s’appuyant sur des données d’entraînement. Utilisée dans des applications créatives et interactives, elle propose des solutions personnalisées.
L'inférence est la phase où un modèle d'IA utilise ses connaissances pour produire des réponses ou des prédictions sur de nouvelles données. C'est l’étape qui suit l'entraînement et qui permet l’application du modèle.
L'IA désigne des systèmes qui imitent certaines fonctions humaines, telles que l'apprentissage et la résolution de problèmes. Utilisée dans divers secteurs, elle aide à automatiser des tâches complexes via des algorithmes sophistiqués.
Un jeu de données est un ensemble structuré d'informations utilisé pour entraîner et évaluer des modèles d'IA. Il peut être étiqueté (pour l'apprentissage supervisé) ou non (pour l'apprentissage non supervisé), et constitue la base sur laquelle les modèles apprennent.
Le latent space, ou espace latent, est une représentation simplifiée des données dans un espace compressé. Utilisé dans des modèles comme les auto-encodeurs, il permet de manipuler les données de manière efficace pour diverses applications génératives.
Le Machine Learning est un sous-domaine de l'IA où les modèles apprennent à partir de données pour faire des prédictions. Contrairement aux systèmes programmés explicitement, le Machine Learning adapte les modèles au fil de l'entraînement.
Les machines à vecteurs de support sont des algorithmes qui classent les données en traçant la meilleure séparation possible entre des catégories distinctes. Elles sont efficaces pour la classification de données complexes, où chaque catégorie est séparée par une marge optimisée.
Les modèles de langage sont des algorithmes d’IA qui comprennent et génèrent du texte. Ils sont utilisés pour des applications comme les chatbots, la traduction automatique et la création de contenu, en analysant le langage humain de manière sophistiquée.
Le NLP, ou traitement du langage naturel, est une branche de l'IA qui se concentre sur l'interaction entre les ordinateurs et le langage humain. Il est essentiel dans des applications telles que les assistants vocaux, la traduction et l'analyse de sentiment.
L’overfitting survient lorsque le modèle s'adapte trop bien aux données d'entraînement, limitant ainsi sa capacité à généraliser sur de nouvelles données. Un modèle surentraîné performe bien sur les données apprises mais échoue dans d'autres contextes.
Un paramètre est une valeur ajustable dans un modèle d'IA, qui influence ses prédictions. Les paramètres sont optimisés lors de l'entraînement pour améliorer la précision et l'efficacité du modèle.
La perplexité mesure la capacité d’un modèle de langage à prédire une séquence de mots. Une perplexité faible indique une meilleure aptitude de prédiction, ce qui rend le modèle plus performant dans des tâches de génération de texte.
Un prompt est une instruction ou une question donnée à un modèle d'IA générative pour qu’il produise une réponse spécifique. Il guide le modèle dans la génération de contenu pertinent et contextuel.
Le RAG combine la génération de texte avec la recherche d'informations dans des bases de données pour créer des réponses enrichies et contextualisées, particulièrement utile dans les chatbots avancés.
Les réseaux de neurones sont des modèles d’IA qui simulent le fonctionnement du cerveau humain à travers des couches de neurones interconnectés. Ils sont couramment utilisés pour des applications telles que la reconnaissance d'image et le traitement du langage naturel.
RLHF est une méthode d'apprentissage où un modèle ajuste ses réponses en fonction de retours humains. Cette boucle de rétroaction permet d'améliorer ses performances pour mieux répondre aux besoins des utilisateurs.
La tokenization consiste à diviser un texte en unités plus petites, appelées tokens, que le modèle peut traiter. Chaque token représente une entité distincte, comme un mot ou un sous-mot, facilitant l’analyse du texte.
Le traitement parallèle des données divise une tâche en sous-tâches exécutées simultanément sur plusieurs processeurs. Cela permet d’accélérer le calcul et de traiter de grandes quantités de données en même temps, améliorant la rapidité et l’efficacité des modèles d'IA, en particulier pour les réseaux de neurones comme les Transformers.
L'architecture Transformer est un type de réseau de neurones utilisé principalement dans le traitement du langage naturel, qui permet un traitement parallèle des données, accélérant ainsi l'analyse et la génération de contenu.
Les word embeddings sont des représentations vectorielles des mots qui capturent les relations sémantiques entre eux. Cela permet aux modèles d’IA de comprendre et de manipuler le sens des mots dans différents contextes.