@prefix skos: <http://www.w3.org/2004/02/skos/core#> .
@prefix owl: <http://www.w3.org/2002/07/owl#> .
@prefix ltk: <http://data.loterre.fr/ark:/67375/LTK> .
@prefix dc: <http://purl.org/dc/terms/> .
@prefix xsd: <http://www.w3.org/2001/XMLSchema#> .

<http://data.loterre.fr/ark:/67375/8LP-V1WS80W6-2>
  skos:prefLabel "modèle de langue"@fr, "language model"@en ;
  a skos:Concept ;
  skos:narrower <http://data.loterre.fr/ark:/67375/8LP-VVX7L2X2-S> .

<http://data.loterre.fr/ark:/67375/8LP> a owl:Ontology, skos:ConceptScheme .
<http://data.loterre.fr/ark:/67375/8LP-VVX7L2X2-S>
  skos:prefLabel "XLNet"@en, "XLNet"@fr ;
  skos:hiddenLabel "xlnet"@en, "xlnet"@fr ;
  skos:inScheme <http://data.loterre.fr/ark:/67375/8LP> ;
  skos:definition "« Une méthode autorégressive généralisée qui exploite le meilleur de la modélisation linguistique autorégressive et par autoencodage tout en évitant leurs limites. » (Yang et al., 2020)"@fr, "A generalized autoregressive method that leverages the best of both AR (autoregressive) language modeling and AE (autoencoding) while avoiding their limitations. (Yang et al., 2020)"@en ;
  skos:example "Le fine-tuning a été réalisé sur des modèles transformers de plusieurs architectures (BERT RoBERTa XLNet ALBERT). (Metheniti, van de Cruys & Hathout, 2021)"@fr, "Nos résultats montrent que BERT est le plus performant sur les deux tâches tandis que les modèles XLNet et ALBERT sont les plus faibles. (Metheniti, van de Cruys & Hathout, 2021)"@fr, "Dans ce travail nous estimons la capacité de différents modèles de type transformers pré-entraînés (BERT RoBERTa XLNet ALBERT) à prédire la télicité et la durée. (Metheniti, van de Cruys & Hathout, 2021)"@fr ;
  skos:exactMatch <https://www.wikidata.org/wiki/Q107031747>, ltk:-CH1KS4KF-Z ;
  a skos:Concept ;
  dc:modified "2024-04-26T13:29:33"^^xsd:dateTime ;
  skos:broader <http://data.loterre.fr/ark:/67375/8LP-V1WS80W6-2> .

