关于epoch、episode、iteration和batch size

文章目录

  • batch_size
  • iteration
  • epoch
  • episode

batch_size

用minibatch方法时会定义batch_size,即把数据分几份后,每份的大小是多少。

iteration

迭代,每个循环的一遍,一次参数更新。用minibatch时就意味着train完一个batch

epoch

one forward pass and one backward pass of all the training examples, in the neural network terminology.即所有训练数据过一遍,如果数据有300条,你把数据分成了3个batchbatch_size是300 / 3 = 100,3个batch都跑完,即跑了三个iteration,就是一个epoch。

episode

one a sequence of states, actions and rewards, which ends with terminal state. 如果玩围棋,从头下到尾的一局棋就是一个episode。

你可能感兴趣的:(机器学习)