【textsum/seq2seq_attention】调试日志

=====================================================
草稿区:

# Run training process
bazel-bin/textsum/seq2seq_attention \
    --mode=train \
    --article_key=article \
    --abstract_key=abstract \
    --data_path=./data/cnn_stories_bin/cnn-train.bin \
    --vocab_path=./data/cnn_stories_bin/cnn-vocab \
    --log_root=textsum/log_root \
    --train_dir=textsum/log_root/train \
    --max_run_steps=20000 \
    --max_article_sentences=400 \
    --max_abstract_sentences=2 \
    --beam_size=4 \
    --eval_interval_secs=60 \
    --checkpoint_secs=60 \
    --use_bucketing=False \
    --truncate_input=False \
    --num_gpus=1 \
    --random_seed=2333 

=====================================================

你可能感兴趣的:(代码调试日志)