论文使用的TLS1.3数据集是从 2021 年 3 月到 2021 年 7 月在中国科技网 (CSTNET) 上收集的。
如果要使用自己的数据集的话,需要检查数据格式是否与
datasets/cstnet-tls1.3/
目录下一致,并且在data_process/
目录下指定数据集路径。
用于微调的数据集,分为train、test、valid。微调数据集的链接—>fine-tuning cstnet-tls 1.3
数据预处理的md说明文件
主程序:dataset_generation.py
函数:pretrain_dataset_generation
,get_burst_feature
pcap_path
(line:616)设置为要处理的 PCAP数据的目录。设置变量word_dir
(line:23)和word_name
(line:24)为预训练数据集的存放目录。output_split_path
(line:583)和pcap_output_path
(line:584)。表示PCAP
数据的pcapng
格式转换为pcap
格式的pcap_output_path
存放目录。output_split_path
代表PCAP
数据切片成session
格式的存储目录。PCAP
数据处理完成后,程序生成由BURST
组成的预训练数据集。def pretrain_dataset_generation(pcap_path):
# pcap--->session的存储路径
output_split_path = ".\\data\\dataset\\"
# pcapng--->pcap的存储路径
pcap_output_path = ".\\data\\dataset\\"
if not os.listdir(pcap_output_path):
print("Begin to convert pcapng to pcap.")
for _parent,_dirs,files in os.walk(pcap_path):
for file in files:
if 'pcapng' in file:
#print(_parent + file)
convert_pcapng_2_pcap(_parent, file, pcap_output_path)
else:
shutil.copy(_parent+"\\"+file, pcap_output_path+file)
if not os.path.exists(output_split_path + "splitcap"):
print("Begin to split pcap as session flows.")
for _p,_d,files in os.walk(pcap_output_path):
for file in files:
split_cap(output_split_path,_p+file,file)
print("Begin to generate burst dataset.")
# burst sample
for _p,_d,files in os.walk(output_split_path + "splitcap"):
for file in files:
get_burst_feature(_p+"\\"+file, payload_len=64)
return 0
# 预训练阶段dataset_generation.py main函数主要的子函数
if __name__ == '__main__':
# pretrain
pcap_path = "I:\\pcaps\\"
# pretrain data
pretrain_dataset_generation(pcap_path)
input:原始的pcap流量
output:word_dir+word_name的burst数据--->encrypted_burst.txt文件
word_dir = "I:/corpora/"
word_name = "encrypted_burst.txt"
主程序:data_process/main.py
函数:data_preprocess.py
、dataset_generation.py
、open_dataset_deal.py
、dataset_cleanning.py
处理公共PCAP
数据集微调阶段的核心思想是先对数据集中不同标签的数据进行文件夹区分,然后对数据进行session
切分,最后根据样本需要生成包级或流级数据集.
注意:由于可能存在原始PCAP数据的复杂性,建议在报错时执行以下步骤检查代码执行情况。
pcap_path
, dataset_save_path
, samples
, features,dataset_level
(line:28)为基础变量,分别代表原始数据目录、存储的生成数据目录、样本数量、特征类型和数据级别。open_dataset_not_pcap
(line:215)表示将不是PCAP
数据转换为pcap
格式的处理,例如pcapng
到pcap
。file2dir
(line:226) 表示当一个pcap
文件为类别时,生成类别目录存放PCAP
数据。PCAP
数据拆分成session
数据。请将该splitcap_finish
参数设置为0,初始化样本数数组,sample此时设置的值不要超过最小样本数。然后您可以设置splitcap=True
(line:54)并运行拆分 PCAP
数据的代码。拆分的会话将保存在pcap_path\splitcap
.pcap_path
应该是拆分数据的路径并且修改splitcap=False
。现在sample
的大小可以不受最小样本量的限制。open_dataset_not_pcap
和file2dir
应该是False
。然后生成微调的数据集并保存在dataset_save_path
.step 1. 下载预训练模型,这个预训练模型是作者提供的pretrained_model.bin
step 2. ET-BERT 可以通过使用标记的网络流量在数据包级别进行微调来应用于特定任务
corpora链接—>encrypted_traffic_burst.txt
【困惑点1】执行代码里使用的encryptd_vocab.txt不造从哪里生成的,,待我看看代码
python3 fine-tuning/run_classifier.py --pretrained_model_path models/pre-trained_model.bin \
--vocab_path models/encryptd_vocab.txt \
--train_path datasets/cstnet-tls1.3/packet/train_dataset.tsv \
--dev_path datasets/cstnet-tls1.3/packet/valid_dataset.tsv \
--test_path datasets/cstnet-tls1.3/packet/test_dataset.tsv \
--epochs_num 10 --batch_size 32 --embedding word_pos_seg \
--encoder transformer --mask fully_visible \
--seq_length 128 --learning_rate 2e-5
step 3. 微调分类器模型的默认路径为models/finetuned_model.bin
. 然后您可以使用微调模型进行预测:
【困惑点2】finetuned_model.bin不知道哪来的,,待我看看代码
python3 inference/run_classifier_infer.py --load_model_path models/finetuned_model.bin \
--vocab_path models/encryptd_vocab.txt \
--test_path datasets/cstnet-tls1.3/packet/nolabel_test_dataset.tsv \
--prediction_path datasets/cstnet-tls1.3/packet/prediction.tsv \
--labels_num 120 \
--embedding word_pos_seg --encoder transformer --mask fully_visible
总结,要仔细阅读run_classifier.py
和run_classifier_infer.py
两份代码!!!
要复现在网络流量数据上预训练 ET-BERT,执行以下步骤:
运行vocab_process/main.py
生成加密后的流量语料或者直接使用生成的语料在corpora/
.
请注意,您需要更改文件路径和文件代码顶部的一些配置。
运行main/preprocess.py
对加密流量burst
语料库进行预处理。
python3 preprocess.py --corpus_path corpora/encrypted_traffic_burst.txt \
--vocab_path models/encryptd_vocab.txt \
--dataset_path dataset.pt --processes_num 8 --target bert
data_process/main.py
如果有pcap
格式的数据集需要处理,运行生成下游任务的数据。这个过程包括两个步骤:datasets/main.py:54
中的splitcap=True
来拆分流量文件并另存为npy
数据集;dataset_save_path
下创建一个文件夹dataset
并将数据集复制到此处。要复现在标记数据上微调 ET-BERT
所需的步骤,运行pretrain.py
以进行预训练。
python3 pre-training/pretrain.py --dataset_path dataset.pt --vocab_path models/encryptd_vocab.txt \
--output_model_path models/pre-trained_model.bin \
--world_size 8 --gpu_ranks 0 1 2 3 4 5 6 7 \
--total_steps 500000 --save_checkpoint_steps 10000 --batch_size 32 \
--embedding word_pos_seg --encoder transformer --mask fully_visible --target bert
要查看如何使用 ET-BERT 执行加密流量分类任务的示例,运行fine-tuning
下的run_classifier.py
脚本。
具体看上文的1. 微调章节
注意:您需要更改程序中的路径。