24小时热门版块排行榜    

CyRhmU.jpeg
查看: 1755  |  回复: 1
【悬赏金币】回答本帖问题,作者Alpha1024将赠送您 10 个金币

Alpha1024

新虫 (正式写手)

[求助] 为什么他报错的时候说就一个样本?

建了一个卷积神经网络,输入训练集,有多个样本,见训练集,报错以及代码,为什么他报错的时候说就一个样本?问题在哪?
ValueError: Training data contains 1 samples, which is not sufficient to split it into a validation and training set as specified by `validation_split=0.2`. Either provide more data, or a different value for the `validation_split` argument.

import numpy as np

import pandas as pd

import tensorflow as tf

from tensorflow.keras import layers

#定义模型

def get_model():

#建立一个序贯模型

model = tf.keras.Sequential()

#第一个卷积块

model.add(layers.Conv2D(128, kernel_size=(3, 3), activation= 'relu', input_shape=(75, 75, 3)))

model.add(layers.MaxPooling2D(pool_size=(3, 3), strides=(2, 2)))

model.add(layers.Dropout(0.2))

#第二个卷积块

model.add(layers.Conv2D(128, kernel_size=(3, 3), activation= 'relu'))

model.add(layers.MaxPooling2D(pool_size=(2,2), strides=(2, 2)))

model.add(layers.Dropout(0.2))

#第三个卷积块

model.add(layers.Conv2D(64, kernel_size=(2, 2), activation='relu'))



model.add(layers.MaxPooling2D(pool_size=(3, 3), strides=(2, 2)))

model.add(layers.Dropout(0.2))

#第四个卷积块

model.add(layers.Conv2D(64, kernel_size=(2, 2), activation= 'relu'))

model.add(layers.MaxPooling2D(pool_size=(2, 2), strides=(2, 2)))

model.add(layers.Dropout(0.2))

#将上一层的输出特征映射转化为一维数据,以便进行全连接操作

model.add(layers.Flatten())

#第一个全连接层

model.add(layers.Dense(256))

model.add(layers.Activation('relu'))

model.add(layers.Dropout(0.2))

#第二个全连接层

model.add(layers.Dense(128))

model.add(layers.Activation('relu'))

model.add(layers.Dropout(0.2))

#第三个全连接层

model.add(layers.Dense(1))

model.add(layers.Activation('sigmoid'))

#编译模型

model.compile(loss= 'binary_crossentropy', optimizer=tf.keras.optimizers.Adam(0.0001), metrics=['accuracy'])

#打印出模型的概况信息

model.summary()

return model

cnn_model = get_model()

cnn_model. fit (train_x, train_y, batch_size=25, epochs=100, verbose=1, validation_split=0.2)

代码

训练集显示
[array([[[110, 110, 110],
         [110, 110, 110],
         [109, 109, 109],
         ...,
         [  0,   0,   0],
         [  0,   0,   0],
         [  0,   0,   0]]]),
array([[[110, 110, 110],
         [110, 110, 110],
         [109, 109, 109],
         ...,
         [255, 255, 255],
         [255, 255, 255],
         [255, 255, 255]]]),
array([[[165, 165, 165],
         [173, 173, 173],
         [169, 169, 169],
         ...,
         [255, 255, 255],
         [255, 255, 255],
         [255, 255, 255]]]),
array([[[58, 58, 58],
         [52, 52, 52],
         [51, 51, 51],
         ...,
         [47, 47, 47],
         [55, 55, 55],
         [49, 49, 49]]]),
array([[[ 74,  74,  74],
         [ 76,  76,  76],
         [ 71,  71,  71],
         ...,
         [110, 110, 110],
         [106, 106, 106],
         [108, 108, 108]]]),
array([[[159, 159, 159],
         [118, 118, 118],
         [132, 132, 132],
         ...,
         [ 93,  93,  93],
         [ 95,  95,  95],
         [ 91,  91,  91]]]),
array([[[165, 165, 165],
         [173, 173, 173],
         [169, 169, 169],
         ...,
         [255, 255, 255],
         [255, 255, 255],
         [255, 255, 255]]]),
array([[[110, 110, 110],
         [110, 110, 110],
         [109, 109, 109],
         ...,
         [255, 255, 255],
         [255, 255, 255],
         [255, 255, 255]]]),
array([[[165, 165, 165],
         [173, 173, 173],
         [169, 169, 169],
         ...,
         [255, 255, 255],
         [255, 255, 255],
         [255, 255, 255]]]),
array([[[58, 58, 58],
         [52, 52, 52],
         [51, 51, 51],
         ...,
         [47, 47, 47],
         [55, 55, 55],
         [49, 49, 49]]]),
array([[[ 74,  74,  74],
         [ 76,  76,  76],
         [ 71,  71,  71],
         ...,
         [110, 110, 110],
         [106, 106, 106],
         [108, 108, 108]]]),
array([[[159, 159, 159],
         [118, 118, 118],
         [132, 132, 132],
         ...,
         [ 93,  93,  93],
         [ 95,  95,  95],
         [ 91,  91,  91]]]),
array([[[165, 165, 165],
         [173, 173, 173],
         [169, 169, 169],
         ...,
         [255, 255, 255],
         [255, 255, 255],
         [255, 255, 255]]]),
array([[[110, 110, 110],
         [110, 110, 110],
         [109, 109, 109],
         ...,
         [255, 255, 255],
         [255, 255, 255],
         [255, 255, 255]]]),
array([[[165, 165, 165],
         [173, 173, 173],
         [169, 169, 169],
         ...,
         [255, 255, 255],
         [255, 255, 255],
         [255, 255, 255]]]),
array([[[58, 58, 58],
         [52, 52, 52],
         [51, 51, 51],
         ...,
         [47, 47, 47],
         [55, 55, 55],
         [49, 49, 49]]]),
array([[[ 74,  74,  74],
         [ 76,  76,  76],
         [ 71,  71,  71],
         ...,
         [110, 110, 110],
         [106, 106, 106],
         [108, 108, 108]]]),
array([[[159, 159, 159],
         [118, 118, 118],
         [132, 132, 132],
         ...,
         [ 93,  93,  93],
         [ 95,  95,  95],
         [ 91,  91,  91]]]),
array([[[165, 165, 165],
         [173, 173, 173],
         [169, 169, 169],
         ...,
这是trainx
[array(0),
array(0),
array(0),
array(0),
array(1),
array(1),
array(0),
array(0),
array(0),
array(0),
array(1),
array(1),
array(0),
array(0),
array(0),
array(0),
array(1),
array(1),
array(0)]
这是trainy
回复此楼
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖

Alpha1024

新虫 (正式写手)

你这个就是一个样本,请你看一下张量
2楼2023-11-21 15:50:24
已阅   回复此楼   关注TA 给TA发消息 送TA红花 TA的回帖
相关版块跳转 我要订阅楼主 Alpha1024 的主题更新
不应助 确定回帖应助 (注意:应助才可能被奖励,但不允许灌水,必须填写15个字符以上)
信息提示
请填处理意见