最后更新:2020-05-19 10:15:06 手机定位技术交流文章

在本文中,我们将探讨张量流2.0的10个特性。
1(a)。用于构建输入管道的数据API
用张量构建管道
>。>。>。数据集= TF . data . dataset . from _张量_切片(
饱和= tf.image .调整饱和度(image,5)可视化(image,饱和)
roted = TF . image . rot 90(image)可视化(image,rotated)
裁剪= tf.image.central_crop(image,central_fraction=0.5)可视化(image,裁剪)

3.tendorflow数据集
这是一个非常有用的库,因为它包含了众所周知的由张量流收集的数据集。
将tensorflow _ datasets导入为tfds mnist _ data = tfds . load(' mnist ' ')mnist _ train,mnist_test = mnist_data
if ckpt _ manager . latest _ check point:ckpt . restore(ckpt _ manager . latest _ check point)9。Keras调谐器
这是张量流中一个相当新的特性。
!Pip安装keras-tuner超级参数调整是选择参数的过程,这些参数定义了机器学习模型的配置,并且这些参数是特征工程和机器学习模型性能的决定性因素。
# model_builder是一个构建模型并返回tuner = kt的函数。Hyperband( model_builder,objective='val_accuracy ',max _ epochs = 10,Factor = 3,directory =' my _ dir ',project _ name =' intro _ to _ kt '),除了Hyperband之外,BayesianOptimization和RandomSearch也可以用于调整。
调谐器.搜索(img_train,label_train,epochs = 10,validation_data=(img_test,label_test),回调= [ClearTrainingOutput ()]) #获取最佳超参数最佳HPS =调谐器。获取最佳超参数(试验数= 1) [0]然后,用最佳超参数训练模型:
model = tuner . hyper model . build(best _ HPS)model . fit(img _ train,label _ train,epochs = 10,validation _ data = (img _ test,label _ test)) 10。分布式培训
如果您有多个图形处理器,并且希望通过将培训分布在多个图形处理器上来优化培训,TensorFlow的各种分布式培训策略可以优化图形处理器的使用,并在图形处理器上对您进行培训。
镜像策略是最常用的策略。它是如何工作的?
所有变量和模型图都被复制到副本中。输入均匀分布在副本中。每个复制品计算它接收的输入的损耗和梯度。通过对所有副本求和来同步渐变。同步后,每个副本上的变量副本会以相同的方式更新。strategy = TF . distribute . mirroredstrategy()with strategy . scope():model = TF . keras . sequential([TF . keras . layers . conv2D(32,3,activation='relu ',input_shape=(28,28,1)),TF . keras . layers . maxpool2d(),tf.keras.layers.Flatten(),TF . keras . layers . density(64,activation='relu '),TF . keras . layers . density(10)])model.com堆
张量流足以构建机器学习管道的几乎所有组件。本教程的主要内容是介绍TensorFlow提供的各种API以及如何使用这些API的快速指南。
本文由 在线网速测试 整理编辑,转载请注明出处。