神经网络全连接层详解_17岁boy的博客-CSDN博客
什么是Tensor Flow和lite以及数据流图_17岁boy的博客-CSDN博客
什么是KerasKeras是一个由纯Python编写的人工神经网络库 可以用它来完成深度学习的应用 它的作者是François Chollet 目前已经加入谷歌 源代码是开放的基于MIT开源许可方式开源在Github上。
实战温度转换模型训练首先第一步导入tensor flow包于numpy包 用numpy主要用于处理矩阵 我们在存储数据集的时候用numpy来做存储与处理 然后在转化为tf的向量
#!/usr/bin/env python # coding utf-8 import tensorflow as tf import numpy as np
然后生成两组数据集 一组是摄氏度一组是华氏度 这里需要注意需要让两组数据是对应关系的 然后才能在训练的时候让神经网络找出对应关系的规律 就像我们人一样在计算某些有规律的数字时通过统计就能找出其中的差值 其实这一过程就是在不停的统计
celsius np.array([-40,-10,0,8,15,22,38], dtype float) fahrenheit np.array([-40,14,32,46,59,72,100], dtype float)
下面就是建立全连接层模型 首先看一下Keras建立全连接层模型的函数原型
tf.keras.layers.Dense( units, # 正整数 输出空间的维数 inputs 64, # 输入张量大小 activation None, # 选择使用的 激活函数 use_bias True, # 是否使用 偏置项 kernel_initializer None, # Kernel权重矩阵的初始值设定项 bias_initializer tf.zeros_initializer(), # 偏差向量的初始值设定项 kernel_regularizer None, # 正则化函数应用于核权矩阵 activaty_regularizer None, # 应用于偏差向量的正则化函数 kernel_constraint None, # 对主权重矩阵进行约束 bias_constraint None, # 对偏置向量进行约束 trainable True, # 可以设置为不可训练 冻结 网络层 name None, # 层的名字 reuse None # 是否重复使用参数 )
重点参数介绍
units 输出维数大小inputs 输入空间维度尺寸 用input_shape来输入下面代码创建了一个全连接层
l0 tf.keras.layers.Dense(units 1,input_shape [1])
选择模型 把刚刚创建好的全连接层模型传入
model tf.keras.Sequential([l0])
模型编译,compile 参数介绍
model.compile(optimizer 优化器 loss 损失函数 mean_squared_error、categorical_crossentropy... metrics [ 准确率”])
编译模型
model.compile(loss mean_squared_error ,optimizer tf.keras.optimizers.Adam(0.1))
训练函数:fit原型
model.fit( 训练集的输入特征 训练集的标签 batch_size, #每一个batch的大小 epochs, #迭代次数 validation_data (测试集的输入特征 测试集的标签 validation_split 从测试集中划分多少比例给训练集 validation_freq 测试的epoch间隔数
开始训练
history model.fit(celsius,fahrenheit,epochs 500,verbose True)
训练后可以调用model的predict来预测结果
print(model.predict([50.0]))
运行结果
[[120.27382]]
50摄氏度等于122华氏度 仅仅训练了500次相差大概2 在训练个几万次基本上就已经达到精确了
如果想保存模型的话在Tensor Flow2.0非常简单 Tensor Flow2.0提供了h5模型文件使用model.save可以直接保存
model.save( test.h5 )
完整代码
#!/usr/bin/env python # coding utf-8 import tensorflow as tf import numpy as np celsius np.array([-40,-10,0,8,15,22,38], dtype float) fahrenheit np.array([-40,14,32,46,59,72,100], dtype float) l0 tf.keras.layers.Dense(units 1,input_shape [1]) model tf.keras.Sequential([l0]) model.compile(loss mean_squared_error ,optimizer tf.keras.optimizers.Adam(0.1)) history model.fit(celsius,fahrenheit,epochs 500,verbose True) print(model.predict([50.0])) model.save( test.h5 )



