Glossaire de l’IA : les termes de base que tous les utilisateurs de ChatGPT doivent connaître
Votre première expérience de l’intelligence artificielle (IA) a peut-être été ChatGPT, le chatbot d’OpenAI qui a la capacité étonnante de répondre à n’importe quelle question.
Mais les IA conversationnelles ne sont qu’une partie du paysage de l’intelligence artificielle. Certes, le fait que ChatGPT vous aide à faire vos devoirs ou que Midjourney crée des images fascinantes est une révolution, mais l’IA a le potentiel pour remodeler en profondeur les économies. Selon le McKinsey Global Institute, cela pourrait représenter 4 400 milliards de dollars par an pour l’économie mondiale. Autant dire que vous pouvez vous attendre à entendre beaucoup parler d’IA dans les mois et années à venir.
Pour briller en société ou faire bonne impression lors d’un entretien d’embauche, voici quelques termes importants relatifs à l’intelligence artificielle qu’il faut absolument connaître.
Intelligence artificielle générale (IAG) : concept qui suggère une version plus avancée de l’IA que celle que nous connaissons aujourd’hui, capable d’effectuer des tâches cognitives aussi bien que les humains tout en en faisant progresser ses propres capacités.
Éthique de l’intelligence artificielle : principes visant à empêcher l’IA de nuire aux humains, notamment en définissant la manière dont les systèmes d’IA doivent collecter des données ou traiter les préjugés.
Sécurité de l’IA : domaine interdisciplinaire qui s’intéresse aux impacts à long terme de l’IA et à la manière dont elle pourrait évoluer soudainement vers une superintelligence qui pourrait être hostile à l’homme.
Algorithme : série d’instructions qui permet à un programme informatique d’apprendre et d’analyser des données d’une manière particulière, par exemple en reconnaissant des modèles, pour ensuite en tirer des enseignements et accomplir des tâches par lui-même.
Alignement : adaptation d’une IA pour qu’elle produise le résultat souhaité. Cela peut aller de la modération du contenu au maintien d’interactions positives avec les humains.
Anthropomorphisme : tendance à donner à des objets non humains des caractéristiques semblables à celles des humains. Dans le domaine de l’IA, il peut s’agir de faire croire à un chatbot qu’il est plus humain et plus conscient qu’il ne l’est en réalité, par exemple en lui faisant croire qu’il est heureux, triste ou même qu’il est tout à fait sensible.
Intelligence artificielle (IA) : utilisation de la technologie pour simuler l’intelligence humaine, que ce soit dans des programmes informatiques ou en robotique. Il s’agit d’un domaine de l’informatique qui vise à construire des systèmes capables d’accomplir des tâches humaines.
Biais : en ce qui concerne les grands modèles linguistiques, il s’agit des erreurs résultant des données d’apprentissage. Il peut en résulter une attribution erronée de certaines caractéristiques à certaines races ou à certains groupes sur la base de stéréotypes. Les biais d’IA les plus courants sont lié au genre, à la couleur de peau, à l’orientation sexuelle.
Chatbot : un agent conversationnel qui communique avec les humains par le biais d’un texte qui simule le langage naturel.
ChatGPT : Un chatbot d’IA développé par OpenAI qui utilise la technologie des grands modèles de langage.
Informatique cognitive : autre terme pour désigner l’intelligence artificielle.
Augmentation des données : réorganiser des données existantes ou ajouter un ensemble plus diversifié de données pour entraîner une IA.
Apprentissage profond ou deep learning : méthode d’IA et sous-domaine de l’apprentissage automatique, qui utilise de multiples paramètres pour reconnaître des modèles complexes dans des images, des sons et des textes. Le processus s’inspire du cerveau humain et utilise des réseaux neuronaux artificiels pour créer des modèles.
Diffusion : méthode d’apprentissage automatique qui prend un élément de données existant, comme une photo, et y ajoute un bruit aléatoire. Les modèles de diffusion entraînent leurs réseaux à réorganiser ou à récupérer cette photo.
Comportement émergent : lorsqu’un modèle d’IA présente des capacités inattendues.
Apprentissage de bout en bout (E2E) : processus d’apprentissage profond dans lequel un modèle est chargé d’effectuer une tâche du début à la fin. Il n’est pas formé pour accomplir une tâche de manière séquentielle, mais apprend à partir des entrées et résout le problème en une seule fois.
Considérations éthiques : sensibilisation aux implications éthiques de l’IA et aux questions liées à la vie privée, à l’utilisation des données, à l’équité, à l’utilisation abusive et à d’autres questions de sécurité.
Foom : augmentation soudaine de l’intelligence artificielle, de sorte qu’un système d’IA devient extrêmement puissant.
Réseaux antagonistes génératifs (RAG) : modèle d’IA générative composé de deux réseaux neuronaux pour générer de nouvelles données : un générateur et un discriminateur. Le générateur crée de nouveaux contenus et le discriminateur vérifie leur authenticité.
IA générative : technologie de génération de contenu qui utilise l’IA pour créer du texte, de la vidéo, du code informatique ou des images. L’IA est alimentée par de grandes quantités de données d’entraînement et trouve des modèles pour générer ses propres réponses, qui peuvent parfois être similaires au matériel d’origine.
Google Bard : chatbot d’IA de Google qui fonctionne de la même manière que ChatGPT mais qui tire des informations du web, alors que ChatGPT est limité aux données jusqu’en 2021 et n’est pas connecté à l’Internet.
Garde-fous : politiques et restrictions imposées aux modèles d’IA pour garantir que les données sont traitées de manière responsable et que le modèle ne crée pas de contenu indésirable.
Hallucination : réponse incorrecte de l’IA. Il peut s’agir d’une IA générative produisant des réponses erronées mais énoncées avec assurance comme étant correctes. Les raisons de ce phénomène ne sont pas entièrement connues. Par exemple, si l’on demande à un chatbot IA : « Quand Léonard de Vinci a-t-il peint la Joconde ? », il peut répondre de manière incorrecte mais affirmative : « Léonard de Vinci a peint la Joconde en 1815 », soit 300 ans après qu’elle a été réellement peinte.
Grand modèle de langage (LLM) : modèle d’IA entraîné sur des quantités massives de données textuelles afin de comprendre le langage et de générer un contenu nouveau dans un langage semblable à celui des humains.
Apprentissage automatique : composante de l’IA qui permet aux ordinateurs d’apprendre et d’obtenir de meilleurs résultats prédictifs sans programmation explicite.
Microsoft Bing : moteur de recherche de Microsoft qui utilise désormais la technologie de ChatGPT pour donner des résultats de recherche alimentés par l’IA. Il est similaire à Google Bard dans la mesure où il est connecté à l’internet.
IA multimodale : type d’IA capable de traiter plusieurs types d’entrées comme le texte, les images, les vidéos et la parole.
Traitement du langage naturel : Une branche de l’IA qui utilise l’apprentissage automatique et l’apprentissage profond pour donner aux ordinateurs la capacité de comprendre le langage humain, souvent en utilisant des algorithmes d’apprentissage, des modèles statistiques et des règles linguistiques.
Réseau neuronal : modèle informatique qui ressemble à la structure du cerveau humain et qui est destiné à reconnaître des modèles dans les données. Il se compose de nœuds interconnectés, ou neurones, qui peuvent reconnaître des modèles et apprendre au fil du temps.
Surapprentissage : erreur dans l’apprentissage automatique qui fonctionne trop étroitement avec les données d’apprentissage et peut seulement être capable d’identifier des exemples spécifiques dans ces données mais pas de nouvelles données.
Paramètres : valeurs numériques qui donnent aux LLM leur structure et leur comportement, leur permettant de faire des prédictions.
Prompt chaining : capacité de l’IA à utiliser les informations des interactions précédentes pour enrichir les réponses futures.
Perroquet stochastique : l’expression fait référence à la façon dont un perroquet peut imiter des mots humains sans en comprendre le sens. Appliquée aux LLM, elle illustre le fait que le logiciel n’a pas une compréhension plus large de la signification du langage ou du monde qui l’entoure, même si le résultat semble convaincant.
Transfert de style : capacité d’adapter le style d’une image au contenu d’une autre, permettant à une IA d’interpréter les attributs visuels d’une image et de les utiliser sur une autre. Par exemple, prendre l’autoportrait de Rembrandt et le recréer dans le style de Picasso.
Génération texte-image : création d’images à partir de descriptions textuelles.
Données d’entraînement : ensembles de données utilisés pour aider les modèles d’IA à apprendre (texte, images, code).
Transformeur ou modèle auto-attentif : une architecture de réseau neuronal et un modèle d’apprentissage profond qui apprennent le contexte en suivant les relations dans les données, comme dans les phrases ou les parties d’images. Ainsi, au lieu d’analyser une phrase un mot à la fois, il peut regarder la phrase entière et comprendre le contexte.
Test de Turing : nommé d’après le célèbre mathématicien et informaticien Alan Turing, il teste la capacité d’une machine à se comporter comme un humain. La machine réussit le test si un humain ne peut pas distinguer la réponse de la machine de celle d’un autre humain.
Intelligence artificielle faible : IA qui se concentre sur une tâche particulière et ne peut pas apprendre au-delà de ses compétences. La plupart des IA actuelles sont des IA faibles.
Zero-shot learning : test dans lequel un modèle doit accomplir une tâche sans recevoir les données d’entraînement nécessaires. Par exemple, de reconnaître un lion alors qu’il n’a été formé qu’aux tigres.
Source : https://www.cnetfrance.fr/news/glossaire-de-lia-les-termes-de-base-que-tous-les-utilisateurs-de-chatgpt-doivent-connaitre-375419.htm
Auteur :
Date de Publication : 2023-08-30 17:30:03
Le droit d’auteur pour le contenu syndiqué appartient à la source liée.