- 守则如下:-**
第一个月
**Import of Datasets**
from tensorflow.keras.datasets import cifar10
通过将像素除以255归一化图像
(train_images, train_labels), (test_images, test_labels) = cifar10.load_data()
- 将像素值标准化为介于0和1之间**
train_images, test_images = train_images / 255.0, test_images / 255.0
- 将标签转换为类别**
x一个一个一个一个x一个一个二个x
- 创建卷积基数**
一个一个三个一个一个一个一个一个四个一个一个一个一个一个五个一个
- 编译和训练CNN架构'**
- 执行此步骤后出现错误**
m1 = Sequential()
m1.add(Conv2D(128,(3,3),activation='relu',input_shape=(256,256,3)))
m1.add(MaxPooling2D(pool_size=(2,2)))
m1.add(Conv2D(64,(3,3),activation='relu'))
m1.add(MaxPooling2D(pool_size=(2,2)))
m1.add(Conv2D(64,(3,3),activation='relu'))
m1.add(MaxPooling2D(pool_size=(2,2)))
m1.add(Flatten())
m1.add(Dense(32,activation='relu'))
m1.add(Dense(16,activation='relu'))
m1.add(Dense(10,activation='softmax'))
m1.compile(optimizer='adam',loss='sparse_categorical_crossentropy',metrics=['acc']) # multiclass and therefore categorical_crossentropy
h1 = m1.fit(x_train,y_train,validation_data=(x_test,y_test),epochs=10)
1条答案
按热度按时间pu82cl6c1#
在顺序模型中,将
input_shape
作为第一层中的(256,256,3)
传递,如下所示。这意味着您正在指示您的模型拍摄高度和宽度均为256像素且具有3个通道(即RGB)的图像。
但是,现在请注意,您正在将cifar10数据集传递给您的模型。它们的形状是
(32,32,3)
。因此出现错误。给定的图像大小与模型预期的大小不匹配。在模型的第一层中进行以下更改,即
这应该会删除此错误。
在错误中你会注意到一个
None
的形状,即None,256,256,3
。它表示批处理大小。模型可以在批处理模式下拍摄图像。他们可以拍摄多张图像用于训练和预测。由于批处理大小对任何人来说都是固定的,它被表示为无。它留给像你和我这样的开发人员来决定什么批处理适合我们的CPU或GPU。