@prefix owl: <http://www.w3.org/2002/07/owl#> .
@prefix skos: <http://www.w3.org/2004/02/skos/core#> .
@prefix dc: <http://purl.org/dc/terms/> .
@prefix xsd: <http://www.w3.org/2001/XMLSchema#> .

<http://data.loterre.fr/ark:/67375/8LP> a owl:Ontology, skos:ConceptScheme .
<http://data.loterre.fr/ark:/67375/8LP-F3BF19DC-2>
  skos:definition "An attention mechanism employed in the decoder of transformers that allows the model to consider information from different parts of the input sequence while generating the output sequence. (Based on Bharti, Unraveling Transformers: A Deep Dive into Self-Attention and Cross-Attention Mechanisms, on medium.com, 2024)"@en, "Mécanisme d'attention utilisé dans les modèles basés sur des transformeurs qui se concentre simultanément sur différentes parties d'une séquence d'entrée lors de la génération de la sortie."@fr ;
  skos:altLabel "cross-attention mechanism"@en ;
  skos:example "Deux encodeurs LSTM (couche de contextualisation) sont liés par une couche d'attention croisée et contribuent à une couche de décision pour réaliser la tâche de classification finale pour une paire de phrases. (Hau Nguyen, Gravier & Sébillot, 2022)"@fr ;
  skos:hiddenLabel "Attention croisée"@fr, "Cross attention"@en ;
  skos:broader <http://data.loterre.fr/ark:/67375/8LP-CQ937GB8-K> ;
  dc:modified "2024-05-13T14:36:24"^^xsd:dateTime ;
  a skos:Concept ;
  skos:inScheme <http://data.loterre.fr/ark:/67375/8LP> ;
  skos:prefLabel "attention croisée"@fr, "cross attention"@en .

<http://data.loterre.fr/ark:/67375/8LP-CQ937GB8-K>
  skos:prefLabel "attention mechanism"@en, "mécanisme d'attention"@fr ;
  a skos:Concept ;
  skos:narrower <http://data.loterre.fr/ark:/67375/8LP-F3BF19DC-2> .

