Passer au contenu principal

Thésaurus du text mining (ThesoTM)

Choisissez le vocabulaire dans lequel chercher

Concept information

Terme préférentiel

MiniLM  

Définition

  • « modèles simples et rapides pré-entraînés pour la compréhension et la génération du langage » (source : https://github.com/microsoft/unilm/tree/master/minilm)

Concept générique

Référence(s) bibliographique(s)

  • • Wang, W., Bao, H., Huang, S., Dong, L., & Wei, F. (2021). MiniLMv2: Multi-Head Self-Attention Relation Distillation for Compressing Pretrained Transformers (No. arXiv:2012.15828). arXiv. https://doi.org/10.48550/arXiv.2012.15828
  • • Wang, W., Wei, F., Dong, L., Bao, H., Yang, N., & Zhou, M. (2020). MiniLM : Deep self-attention distillation for task-agnostic compression of pre-trained transformers. arXiv:2002.10957 [cs]. http://arxiv.org/abs/2002.10957

basé sur

a pour champ d'application

a pour langage d'entrée

implémente

est encodé en

est exécuté dans

a pour licence

Traductions

URI

http://data.loterre.fr/ark:/67375/LTK-NV2360BM-D

Télécharger ce concept :