Passer au contenu principal

Vocabulary of natural language processing (POC)

Choisissez le vocabulaire dans lequel chercher

Concept information

Terme préférentiel

self-attention layer  

Définition

  • A layer in the architecture of transformer-based models that allows the model to focus on different parts of the input sequence when processing each token to capture contextual relationships and dependencies within the input sequence.

Concept générique

Traductions

URI

http://data.loterre.fr/ark:/67375/8LP-DMDVS16W-4

Télécharger ce concept :

RDF/XML TURTLE JSON-LD Dernière modification le 13/05/2024