Pre-trained language model with feature reduction and no fine-tuning

Pre-trained language models were proven to achieve excellent results in Natural Language Processing tasks such as Sentiment Analysis. However, the number of sentence embeddings from the base model of Bidirectional Encoder from Transformer (BERT) is 768 for a sentence, and there will be more than mil...

وصف كامل

محفوظ في:
التفاصيل البيبلوغرافية
المؤلفون الرئيسيون: Kit, Y. H., Mokji, M.
التنسيق: Conference or Workshop Item
منشور في: 2022
الموضوعات:
الوصول للمادة أونلاين:http://eprints.utm.my/id/eprint/98842/
http://dx.doi.org/10.1007/978-981-19-3923-5_59
الوسوم: إضافة وسم
لا توجد وسوم, كن أول من يضع وسما على هذه التسجيلة!