包含标签 Tensorflow 的文章

Tensorflow2.0 笔记(2)

六步法 import train, test 网络结构 model=tf.keras.models.Sequential # 搭建网络结构 class MyModel(Model) model = MyModel model.compile # 配置训练优化器,损失函数 model.fit # 输入特征,batch, epoch model.summary 网络结构 拉直层 tf.keras.layers.Flatten() 全连接层 tf.keras.layers.Dense(神经元个数, activation="激活函数", kernel_regularizer="正则化") 卷积层 tf.keras.layers.Conv2D(filters=卷积核个数, kernel_size=卷积核尺寸, strides=卷积步长, padding="valid" or "same") LSTM层 tf.keras.layers.LSTM() 训练方法 model.compile(optimizer=优化器, loss=损失函数, metrics=["准确率"]) Optimizer sgd adagrad adadelta adam loss Metrics 训练过程 model.fit(训练集的输入特征, 训练集的标签, batch_size=, epochs=, validation_data=(测试集的输入特征, 测试集的标签), validation_split=从训练集划分多少比例分给测试集, validation_freq=多少次epoch测试一次) ……

阅读全文

Tensorflow2.0 笔记(3)

CNN 输入特征图的深度(channel数),决定了当前层卷积核的深度; 当前层卷积核的个数,决定了当前层输出特征图的深度; tf.keras.layers.Conv2D( kernel_size=卷积核尺寸, strides=滑动补偿, padding="same" or "valid", activation="relu" or "sigmoid" or "tanh" or "softmax", input_shape=(高, 宽, 通道数) ) 批标准化(Batch Normalization, BN) 池化 池化用于减少特征数据量,最大值池化可提取图片纹理,均值池化可保留背景特征。 舍弃 Dropout 训练时,一定概率随机舍弃神经元。网络使用时,恢复神经元。 卷积神经网络结构 卷积:特征提取器,CBAPD(Convolutinoal, BN, Activation, Pooling, Dropout)……

阅读全文