Concept information
Terme préférentiel
GPT
Définition
- Modèle de langue basé sur les transformeurs et l'apprentissage non supervisé. (Loterre)
Concept générique
Synonyme(s)
- transformeur génératif pré-entraîné
Contexte(s) définitoire(s)
- Nous utilisons une adaptation du modèle GPT (Generative Pre-trained Transformer développé par OpenAI) à un corpus français et un dataset composé de pièces de théâtre de Molière pour l'entraînement afin de générer le dialogue entre l'humain et l'agent. (Grosjean, Pappa, Roziere & Cazenave, 2022)
Exemple
- Comme GPT BERT réutilise une partie de l'architecture Transformer mais pour obtenir un modèle bidirectionnel BERT utilise les encodeurs de Transformer et non pas les décodeurs. (Cécillon, Dufour & Labatut, 2021)
- GPT empile douze couches de décodeurs qui sont entraînés à prédire le prochain mot d'une séquence. (Cécillon, Dufour & Labatut, 2021)
- GPT est particulièrement efficace pour les tâches de génération de texte. (Simoulin & Crabbé, 2021)
- L'architecture de GPT s'appuie sur des transformers et présente beaucoup de similarités avec BERT. (Simoulin & Crabbé, 2021)
- Nous proposons une adaptation en français du fameux modèle Generative Pre-trained Transformer (GPT). (Simoulin & Crabbé, 2021)
Traductions
-
anglais
-
generative pre-trained transformer
URI
http://data.loterre.fr/ark:/67375/8LP-R4SB21W1-V
{{label}}
{{#each values }} {{! loop through ConceptPropertyValue objects }}
{{#if prefLabel }}
{{/if}}
{{/each}}
{{#if notation }}{{ notation }} {{/if}}{{ prefLabel }}
{{#ifDifferentLabelLang lang }} ({{ lang }}){{/ifDifferentLabelLang}}
{{#if vocabName }}
{{ vocabName }}
{{/if}}