@prefix skos: <http://www.w3.org/2004/02/skos/core#> .
@prefix dc: <http://purl.org/dc/terms/> .
@prefix xsd: <http://www.w3.org/2001/XMLSchema#> .
@prefix ltk: <http://data.loterre.fr/ark:/67375/LTK> .
@prefix owl: <http://www.w3.org/2002/07/owl#> .

<http://data.loterre.fr/ark:/67375/8LP-V1WS80W6-2>
  skos:prefLabel "modèle de langue"@fr, "language model"@en ;
  a skos:Concept ;
  skos:narrower <http://data.loterre.fr/ark:/67375/8LP-ZS8B6SL1-Z> .

<http://data.loterre.fr/ark:/67375/8LP-ZS8B6SL1-Z>
  dc:modified "2024-04-26T13:23:24"^^xsd:dateTime ;
  skos:prefLabel "byT5"@fr, "byT5"@en ;
  skos:inScheme <http://data.loterre.fr/ark:/67375/8LP> ;
  skos:definition "Modèles de transformateur au niveau de l'octet pré-entraînés basés sur l'architecture T5. (source : Xue et al., 2022)"@fr, "Pre-trained byte-level Transformer models based on the T5 architecture. (Xue et al., 2022)"@en ;
  skos:example "We see that byT5 alone achieves excellent BLEU scores. (Jude Ogundepo, Oladipo, Adeyemi, Ogueji & Lin, 2022)"@en, "Whereas byT5 only uses byte sequences instead of subwords and differs in hyperparameters Charformer uses convolution and combines character blocks to obtain latent subword representations. (Libovický, Schmid & Fraser, 2022)"@en ;
  skos:hiddenLabel "ByT5"@en, "ByT5"@fr ;
  a skos:Concept ;
  skos:exactMatch ltk:-N6C3C7QB-L ;
  skos:broader <http://data.loterre.fr/ark:/67375/8LP-V1WS80W6-2> .

<http://data.loterre.fr/ark:/67375/8LP> a owl:Ontology, skos:ConceptScheme .
