Passer au contenu principal

Vocabulaire du traitement automatique des langues

Choisissez le vocabulaire dans lequel chercher

Concept information

Terme préférentiel

attention croisée  

Définition

  • Mécanisme d'attention utilisé dans les modèles basés sur des transformeurs qui se concentre simultanément sur différentes parties d'une séquence d'entrée lors de la génération de la sortie.

Concept générique

Exemple

  • Deux encodeurs LSTM (couche de contextualisation) sont liés par une couche d'attention croisée et contribuent à une couche de décision pour réaliser la tâche de classification finale pour une paire de phrases. (Hau Nguyen, Gravier & Sébillot, 2022)

Traductions

URI

http://data.loterre.fr/ark:/67375/8LP-F3BF19DC-2

Télécharger ce concept :

RDF/XML TURTLE JSON-LD Dernière modification le 13/05/2024