tensorflow —— tf.contrib

tf.contrib

tf.contrib.data.map_and_batch

把map和batch混在一起并行处理

dataset.apply(tf.contrib.data.map_and_batch())

tf.contrib.tpu

tf.contrib.tpu.RunConfig

tpu_config=None,  # TPUConfig(required by TPUEstimator) that specifies TPU-specific configuration.
evaluation_master=None,  #  The address of the master to use for eval. Defaults to master if not set.
master=None,  # The address of the master to use for training. Tensorflow master url.
cluster=None,  # a ClusterResolver
**kwargs  # keyword config parameters.

tf.contrib.tpu.TPUConfig

iterations_per_loop: the number of train steps;global step is increased iterations_per_loop times in one Session.run
num_shards: (Deprecated, ignored by TPUEstimator). The number of model replicas in the system. non-model-parallelism :equals the total number of TPU cores;model-parallelism:the total number of TPU cores = num_cores_per_replica * num_shards.

tf.contrib.tpu.TPUEstimator:TPU上运行模型

Estimator是tensorflow的模型级抽象层。
标准Estimators可以在CPU和GPU上运行模型。

维护可在 CPU/GPU 或 Cloud TPU 上运行的模型:最简单的方式是将模型的推理阶段(从输入到预测)定义在 model_fn 之外。确保 Estimator 设置和 model_fn 的单独实现,二者均包含此推理步骤。

在本地运行 TPUEstimator

创建标准 Estimator

调用构造函数,然后将它传递给 model_fn

my_estimator = tf.estimator.Estimator(
  model_fn=my_model_fn)
本地计算机上使用TPUEstimator

构造函数需要两个额外的参数:use_tpu = False,并将 tf.contrib.tpu.RunConfig 以 config 参数的形式传递。

my_tpu_estimator = tf.contrib.tpu.TPUEstimator(
    model_fn=my_model_fn,
    config=tf.contrib.tpu.RunConfig()
    use_tpu=False)
设置命令行标记
python mnist_tpu.py --use_tpu=false --master=''

你可能感兴趣的:(tensorflow)