@prefix ltk: <http://data.loterre.fr/ark:/67375/LTK> .
@prefix skos: <http://www.w3.org/2004/02/skos/core#> .
@prefix ns0: <http://data.loterre.fr/OntoTM#> .
@prefix ns1: <http://www.ebi.ac.uk/swo/> .
@prefix dc: <http://purl.org/dc/terms/> .

ltk:-SCTX2SHF-V
  skos:prefLabel "plongement lexical"@fr, "word embedding"@en ;
  a skos:Concept ;
  ns0:executes ltk:-CQ6NWPMQ-3 .

ltk:-PFDPNVQ7-3
  skos:prefLabel "transformeur"@fr, "transformer"@en ;
  a skos:Concept ;
  ns1:SWO_0000085 ltk:-CQ6NWPMQ-3 .

ltk:-WVMJL37J-5
  skos:prefLabel "Python"@fr, "Python"@en ;
  a skos:Concept .

ltk:-SWNPX252-5
  skos:prefLabel "large language model"@en, "grand modèle de langue"@fr ;
  a skos:Concept ;
  skos:narrower ltk:-CQ6NWPMQ-3 .

ltk:-CQ6NWPMQ-3
  skos:altLabel "Open Pre-trained Transformers"@en ;
  skos:broader ltk:-SWNPX252-5 ;
  ns1:SWO_0000740 ltk:-PFDPNVQ7-3 ;
  ns1:SWO_0040005 ltk:-SCTX2SHF-V ;
  skos:definition "a suite of decoder-only pre-trained transformers ranging from 125M to 175B parameters, to be shared fully and responsibly with researchers (after Zhang et al., 2022)."@en, "une série de transformeurs pré-entraînés par décodeurs uniquement, allant de 125M à 175B paramètres, en vue d'être partagée de manière complète et responsable avec les chercheurs intéressés (after Zhang et al., 2022)."@fr ;
  skos:prefLabel "OPT"@en, "OPT"@fr ;
  skos:inScheme ltk: ;
  a skos:Concept ;
  dc:bibliographicCitation "• Zhang, S., Roller, S., Goyal, N., Artetxe, M., Chen, M., Chen, S., Dewan, C., Diab, M., Li, X., Lin, X. V., Mihaylov, T., Ott, M., Shleifer, S., Shuster, K., Simig, D., Koura, P. S., Sridhar, A., Wang, T., & Zettlemoyer, L. (2022). OPT: Open Pre-trained Transformer anguage Models (arXiv:2205.01068). arXiv.  <a href=\"https://doi.org/10.48550/arXiv.2205.01068\">https://doi.org/10.48550/arXiv.2205.01068</a>" ;
  ns0:hasDesignCountry "États-Unis"@en, "United States"@fr ;
  ns0:hasRepository <https://huggingface.co/docs/transformers/model_doc/opt> ;
  ns1:SWO_0000741 ltk:-WVMJL37J-5 .

ltk: a skos:ConceptScheme .
