python Tensorflow estimator ValueError:logits和标签必须具有相同的形状((?,1)vs(?,))

0kjbasz6  于 2023-05-16  发布在  Python
关注(0)|答案(6)|浏览(211)

我在用二进制交叉熵把电影评论分为正面和负面。所以,当我试图用tensorflow estimator Package 我的keras模型时,我得到了错误:

Tensorflow estimator ValueError: logits and labels must have the same shape ((?, 1) vs (?,))

我使用sigmoid激活作为我的最后一层,猜我错过了一些琐碎的东西。有什么帮助吗?

from tensorflow import keras
import tensorflow as tf
print("Tensorflow {} loaded".format(tf.__version__))
import numpy as np

keras.__version__
from keras.datasets import imdb

(train_data, train_labels), (test_data, test_labels) = imdb.load_data(num_words=10000)
def vectorize_sequences(sequences, dimension=10000):
    # Create an all-zero matrix of shape (len(sequences), dimension)
    results = np.zeros((len(sequences), dimension))
    for i, sequence in enumerate(sequences):
        results[i, sequence] = 1.  # set specific indices of results[i] to 1s
    return results.astype('float32')

# Our vectorized training data
x_train = vectorize_sequences(train_data)

# Our vectorized test data
x_test = vectorize_sequences(test_data)

# Our vectorized labels
y_train = np.asarray(train_labels).astype('float32')
y_test = np.asarray(test_labels).astype('float32')

x_val = x_train[:10000]
partial_x_train = x_train[10000:]
y_val = y_train[:10000]
partial_y_train = y_train[10000:]

model = keras.models.Sequential()
model.add(keras.layers.Dense(16, activation='relu', input_shape=(10000,), name='reviews'))
model.add(keras.layers.Dense(16, activation='relu'))
model.add(keras.layers.Dense(1, activation='sigmoid'))
model.compile(optimizer='rmsprop',
              loss='binary_crossentropy',
              metrics=['accuracy'])
estimator_model = keras.estimator.model_to_estimator(keras_model=model)

def input_function(features,labels=None,shuffle=False,epochs=None,batch_size=None):
    input_fn = tf.estimator.inputs.numpy_input_fn(
        x={"reviews_input": features},
        y=labels,
        shuffle=shuffle,
        num_epochs=epochs,
        batch_size=batch_size
    )
    return input_fn

estimator_model.train(input_fn=input_function(partial_x_train, partial_y_train, True,20,512))
score = estimator_model.evaluate(input_function(x_val, labels=y_val))
print(score)
ffx8fchx

ffx8fchx1#

你应该将标签重塑为2d-tensor(第一个维度是batch维度,第二个维度是scalar标签):

# Our vectorized labels
y_train = np.asarray(train_labels).astype('float32').reshape((-1,1))
y_test = np.asarray(test_labels).astype('float32').reshape((-1,1))
x4shl7ld

x4shl7ld2#

如果你正在做一个二元分类,确保你的最后一个Dense层的形状只有(None,1),而不是None,2)

tf.keras.layers.Dense(1, activation="sigmoid") # binary activation output
lbsnaicq

lbsnaicq3#

使用model.summary()检查网络
您最终需要精简网络以获得与您的类相同的输出。例如,对数字进行OCR需要Dense(10)的最终输出(对于数字0到9)。
例如,表征狗与猫。最后一层必须有两个输出(0-狗,1-猫)

polhcujo

polhcujo4#

我们可以通过在Dense层之后添加Flatten层来将输出与标签的维度相匹配来解决这个问题:

model.add(Flatten())

或加入:

model.add(GlobalAveragePooling2D())

See this GitHub issue for full details

c8ib6hqw

c8ib6hqw5#

如果你在做二进制交叉熵,那么你的数据集可能有2个类,错误就来了,因为你的标签向量(在测试和训练中)的形式是[0,1,0,1,1,0,0,1,...]。要对二进制标签进行独热编码,可以使用以下函数:Labels = tf.one_hot(Labels, depth=2)

ttp71kqs

ttp71kqs6#

在最后一层,而不是一个输出,你应该使用两个输出:

model.add(keras.layers.Dense(2, activation='sigmoid'))

相关问题