Passer au contenu principal

Thesaurus of Text Mining (ThesoTM)

Choisissez le vocabulaire dans lequel chercher

Concept information

Terme préférentiel

MiniLM  

Définition

  • "Small and fast pre-trained models for language understanding and generation" (source: https://github.com/microsoft/unilm/tree/master/minilm)

Concept générique

Référence(s) bibliographique(s)

  • • Wang, W., Bao, H., Huang, S., Dong, L., & Wei, F. (2021). MiniLMv2: Multi-Head Self-Attention Relation Distillation for Compressing Pretrained Transformers (No. arXiv:2012.15828). arXiv. https://doi.org/10.48550/arXiv.2012.15828
  • • Wang, W., Wei, F., Dong, L., Bao, H., Yang, N., & Zhou, M. (2020). MiniLM : Deep self-attention distillation for task-agnostic compression of pre-trained transformers. arXiv:2002.10957 [cs]. http://arxiv.org/abs/2002.10957

basé sur

a pour champ d'application

a pour langage d'entrée

implémente

est encodé en

est exécuté dans

a pour licence

Traductions

URI

http://data.loterre.fr/ark:/67375/LTK-NV2360BM-D

Télécharger ce concept :