Bert模型参数及运行脚本编写

python run_classifier.py \

 --task_name=mytask \

 --do_train=true \

 --do_eval=true \

 --data_dir=$DATA_DIR/ \

 --vocab_file=$BERT_BASE_DIR/vocab.txt \

 --bert_config_file=$BERT_BASE_DIR/bert_config.json \

 --init_checkpoint=$BERT_BASE_DIR/bert_model.ckpt \

 --max_seq_length=128 \

 --train_batch_size=32 \

 --learning_rate=2e-5 \

 --num_train_epochs=3.0 \

 --output_dir=/output
 

下面的几个参数:
do_train代表是否进行fine tune,
do_eval代表是否进行evaluation,
还有未出现的参数do_predict代表是否进行预测。
如果不需要进行fine tune,或者显卡配置太低的话,可以将do_trian去掉。max_seq_length代表了句子的最长长度,当显存不足时,可以适当降低max_seq_length。

运行脚本
./run.sh
1
运行的时间可能会有点久,视配置而定,会在output_dir下面生成一个eval_results.txt文件:

eval_accuracy = 0.8503984
eval_loss = 0.47183684
global_step = 6588
loss = 0.47183684

这样说明我们就运行成功了。在output_dir也会有fine-tune(微调)之后的模型文件。
————————————————
版权声明:本文为CSDN博主「DemonHunter211」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/kwame211/article/details/104305033

你可能感兴趣的:(tensorflow应用)