如何在Keras中从image_dataset_from_directory()中附加或获取MapDataset的文件名?

qvsjd97n  于 2023-01-26  发布在  其他
关注(0)|答案(2)|浏览(193)

我正在训练卷积自动编码器,我有这个代码加载数据(图像):

train_ds = tf.keras.preprocessing.image_dataset_from_directory(
    'path/to/images',
    image_size=image_size
)
normalization_layer = layers.experimental.preprocessing.Rescaling(1./255)

def adjust_inputs(images, labels):
    return normalization_layer(images), normalization_layer(images)

normalized_train_ds = train_ds.map(adjust_inputs)

由于我不需要类标签,但将其自身图像为Y,因此我将函数adjust_inputsMap到数据集。但现在当我尝试访问属性filenames时,我得到错误:AttributeError: 'MapDataset' object has no attribute 'filenames'。这是合乎逻辑的,因为MapDataset不是Dataset。
如何附加或获取数据集中已加载图像的文件名?
我真的很惊讶,没有一个更容易的界面,这看起来很常见的事情。

flseospp

flseospp1#

如果您想将filepaths添加为数据集的一部分:

import tensorflow as tf
import pathlib
import matplotlib.pyplot as plt

dataset_url = "https://storage.googleapis.com/download.tensorflow.org/example_images/flower_photos.tgz"
data_dir = tf.keras.utils.get_file('flower_photos', origin=dataset_url, untar=True)
data_dir = pathlib.Path(data_dir)

batch_size = 32
train_ds = tf.keras.utils.image_dataset_from_directory(data_dir, shuffle=False, batch_size=batch_size)

normalization_layer = tf.keras.layers.Rescaling(1./255)
def change_inputs(images, labels, paths):
  x = normalization_layer(images)
  return x, x, tf.constant(paths)

normalized_ds = train_ds.map(lambda images, labels: change_inputs(images, labels, paths=train_ds.file_paths))

images, images, paths = next(iter(normalized_ds.take(1)))

image = images[0]
path = paths[0]
print(path)
plt.imshow(image.numpy())
Found 3670 files belonging to 5 classes.
tf.Tensor(b'/root/.keras/datasets/flower_photos/daisy/100080576_f52e8ee070_n.jpg', shape=(), dtype=string)
<matplotlib.image.AxesImage at 0x7f9b113d1a10>

您必须确保对路径使用相同的批处理大小。

5us2dqdw

5us2dqdw2#

我是这样做的。
训练完我的模型后,我重新加载了所有的图像,这一次使用选项shuffle=False,并在我的模型中运行它们以提取特征。由于shuffle是关闭的,图像和文件路径的排序是相同的。因此索引为0的图像,其对应的特征在索引为0,其文件路径在索引为0。

相关问题