@prefix skos: <http://www.w3.org/2004/02/skos/core#> .
@prefix dc: <http://purl.org/dc/terms/> .
@prefix xsd: <http://www.w3.org/2001/XMLSchema#> .
@prefix ltk: <http://data.loterre.fr/ark:/67375/LTK> .
@prefix inist: <http://www.inist.fr/Ontology#> .
@prefix owl: <http://www.w3.org/2002/07/owl#> .

<http://data.loterre.fr/ark:/67375/8LP-V1WS80W6-2>
  skos:prefLabel "modèle de langue"@fr, "language model"@en ;
  a skos:Concept ;
  skos:narrower <http://data.loterre.fr/ark:/67375/8LP-R4SB21W1-V> .

<http://data.loterre.fr/ark:/67375/8LP-R4SB21W1-V>
  skos:example "L'architecture de GPT s'appuie sur des transformers et présente beaucoup de similarités avec BERT. (Simoulin & Crabbé, 2021)"@fr, "Large Language Models (LLMs) such as Generative Pre-trained Transformers (GPT-2 GPT-3) and Turing Natural Language Generation (T-NLG) models have billions of parameters. (Tiwari, Kola, Milunovic, Chen & Slavkovski, 2023)"@en, "Generative pre-trained transformer (GPT) models have shown promise in clinical entity and relation extraction tasks because of their precise extraction and contextual understanding capability. (Bhattarai, Oh, Abrams & Lai, 2024)"@en, "Comme GPT BERT réutilise une partie de l'architecture Transformer mais pour obtenir un modèle bidirectionnel BERT utilise les encodeurs de Transformer et non pas les décodeurs. (Cécillon, Dufour & Labatut, 2021)"@fr, "GPT est particulièrement efficace pour les tâches de génération de texte. (Simoulin & Crabbé, 2021)"@fr, "Nous proposons une adaptation en français du fameux modèle Generative Pre-trained Transformer (GPT). (Simoulin & Crabbé, 2021)"@fr, "GPT empile douze couches de décodeurs qui sont entraînés à prédire le prochain mot d'une séquence. (Cécillon, Dufour & Labatut, 2021)"@fr, "The evolution and widespread adoption of Generative Pre-trained Transformers notably with the release of ChatGPT have significantly influenced the landscape of digital communication and content creation. (Ben-fares, Zaratiana, Hernandez & Holat, 2024)"@en ;
  skos:broader <http://data.loterre.fr/ark:/67375/8LP-V1WS80W6-2> ;
  dc:modified "2024-10-23T12:23:57"^^xsd:dateTime ;
  skos:exactMatch ltk:-S9QTZG05-W ;
  a skos:Concept ;
  skos:prefLabel "GPT"@en, "GPT"@fr ;
  skos:definition "Language model based on transformers and unsupervised learning. (Loterre)"@en, "Modèle de langue basé sur les transformeurs et l'apprentissage non supervisé. (Loterre)"@fr ;
  skos:altLabel "generative pre-trained transformer"@en, "transformeur génératif pré-entraîné"@fr ;
  skos:inScheme <http://data.loterre.fr/ark:/67375/8LP> ;
  inist:definitionalContext "Nous utilisons une adaptation du modèle GPT (Generative Pre-trained Transformer développé par OpenAI) à un corpus français et un dataset composé de pièces de théâtre de Molière pour l'entraînement afin de générer le dialogue entre l'humain et l'agent. (Grosjean, Pappa, Roziere & Cazenave, 2022)"@fr .

<http://data.loterre.fr/ark:/67375/8LP> a owl:Ontology, skos:ConceptScheme .
