【RNN+加密流量A】ET-BERT: A Contextualized Datagram Representation with Pre-training Transformers for...
文章目录论文简介摘要存在的问题论文贡献1.ET-BERT2.实验总结论文内容数据集可读的引用文献参考连接论文简介原文题目:ET-BERT:AContextualizedDatagramRepresentationwithPre-trainingTransformersforEncryptedTrafficClassification中文题目:ET-BERT:一种基于预训练转换器的数据报上下文化表示