@prefix skos: <http://www.w3.org/2004/02/skos/core#> .
@prefix ltk: <http://data.loterre.fr/ark:/67375/LTK> .
@prefix dc: <http://purl.org/dc/terms/> .
@prefix xsd: <http://www.w3.org/2001/XMLSchema#> .
@prefix owl: <http://www.w3.org/2002/07/owl#> .

<http://data.loterre.fr/ark:/67375/8LP-V1WS80W6-2>
  skos:prefLabel "modèle de langue"@fr, "language model"@en ;
  a skos:Concept ;
  skos:narrower <http://data.loterre.fr/ark:/67375/8LP-DTG3BP1K-H> .

<http://data.loterre.fr/ark:/67375/8LP-DTG3BP1K-H>
  skos:definition "A BERT architecture with fewer parameters. (Loterre)"@en, "Une architecture BERT avec un nombre limité de paramètres. (Loterre)"@fr ;
  skos:broader <http://data.loterre.fr/ark:/67375/8LP-V1WS80W6-2> ;
  skos:exactMatch ltk:-X93SS3HX-L ;
  skos:altLabel "A Lite Bidirectional Encoder Representations from Transformers"@en, "A little BERT"@en ;
  dc:modified "2024-04-26T13:03:34"^^xsd:dateTime ;
  skos:example "XLNet et ALBERT obtiennent globalement de mauvais résultats dans toutes les expériences que nous avons réalisées. (Metheniti, van de Cruys & Hathout, 2021)"@fr, "Dans ce travail nous estimons la capacité de différents modèles de type transformers pré-entraînés (BERT RoBERTa XLNet ALBERT) à prédire la télicité et la durée. (Metheniti, van de Cruys & Hathout, 2021)"@fr, "Le fine-tuning a été réalisé sur des modèles transformers de plusieurs architectures (BERT RoBERTa XLNet ALBERT). (Metheniti, van de Cruys & Hathout, 2021)"@fr ;
  skos:inScheme <http://data.loterre.fr/ark:/67375/8LP> ;
  skos:prefLabel "ALBERT"@en, "ALBERT"@fr ;
  a skos:Concept ;
  skos:hiddenLabel "Albert"@en, "Albert"@fr .

<http://data.loterre.fr/ark:/67375/8LP> a owl:Ontology, skos:ConceptScheme .
