@prefix skos: <http://www.w3.org/2004/02/skos/core#> .
@prefix dc: <http://purl.org/dc/terms/> .
@prefix xsd: <http://www.w3.org/2001/XMLSchema#> .
@prefix owl: <http://www.w3.org/2002/07/owl#> .

<http://data.loterre.fr/ark:/67375/8LP-V1WS80W6-2>
  skos:prefLabel "modèle de langue"@fr, "language model"@en ;
  a skos:Concept ;
  skos:narrower <http://data.loterre.fr/ark:/67375/8LP-J07T5M81-B> .

<http://data.loterre.fr/ark:/67375/8LP-J07T5M81-B>
  a skos:Concept ;
  skos:broader <http://data.loterre.fr/ark:/67375/8LP-V1WS80W6-2>, <http://data.loterre.fr/ark:/67375/8LP-RWWV231L-P> ;
  skos:prefLabel "BART"@en, "BART"@fr ;
  skos:example "La recherche de l'antécédent a été effectuée à l'aide des algorithmes de Hobbs et de Lappin et Leass dans le premier étude, et à l'aide du système BART dans le second. (Loáiciga, 2013)"@fr, "Pour mettre ce résultat en perspective, on peut se référer aux travaux sur BART dans le projet SENSEI (Kabadjov et Stepanov, 2015) qui a obtenu un score Blanc de 15.04 % sur le corpus ANCOR (provoqué par un faible rappel). (Godbert & Favre, 2017)"@fr, "We used the bart large model and followed the instructions on the github repository for finetuning BART on the summary task. (Segonne & Mickus, 2023)"@en, "De tels systèmes ont déjà été conçus pour le français par (Trouilleux, 2001) et (Longo, 2013) mais leur portée reste modeste par rapport à celles de systèmes comme BART (Versley et al.) (Grobol, Tellier, Clergerie, Dinarelli & Landragin, 2017)"@fr ;
  skos:inScheme <http://data.loterre.fr/ark:/67375/8LP> ;
  dc:modified "2025-02-12T13:48:25"^^xsd:dateTime ;
  skos:altLabel "Bayesian Analogy with Relational Transformations"@en .

<http://data.loterre.fr/ark:/67375/8LP-RWWV231L-P>
  skos:prefLabel "denoising autoencoder"@en, "autoencodeur débruiteur"@fr ;
  a skos:Concept ;
  skos:narrower <http://data.loterre.fr/ark:/67375/8LP-J07T5M81-B> .

<http://data.loterre.fr/ark:/67375/8LP> a owl:Ontology, skos:ConceptScheme .
