首页 > TAG信息列表 > tensorflow-datasets

我如何在TensorFlow中使用自己的图像?

我知道之前曾有人问过这个问题,但我还没有找到可以使用的答案.我是Python和Tensorflow的新手,但是使用MNIST图像集设法使我的准确性达到了-99.3%.现在,我想尝试使用自己的图像,但是事实证明,这对我来说比预期的要困难得多. 我已经在Tensorflow网站上阅读了数百次教程页面,但这对我来

如何在tf.estimator的input_fn中使用tf.data的可初始化迭代器?

我想用tf.estimator.Estimator来管理我的训练,但是在使用tf.data API时遇到一些麻烦. 我有这样的事情: def model_fn(features, labels, params, mode): # Defines model's ops. # Initializes with tf.train.Scaffold. # Returns an tf.estimator.EstimatorSpec. def input

python – Tensorflow数据集API中的过采样功能

我想问一下,当前的数据集API是否允许实现过采样算法?我处理高度不平衡的阶级问题.我当时认为在数据集解析过程中对特定类进行过采样会很好,即在线生成.我已经看到了rejection_resample函数的实现,但是这会删除样本而不是复制它们,并且它减慢了批处理生成(当目标分布与初始分布大不相

python – TensorFlow – tf.data.Dataset读取大型HDF5文件

我正在设置一个TensorFlow管道,用于读取大型HDF5文件作为我的深度学习模型的输入.每个HDF5文件包含100个可变大小长度的视频,存储为压缩JPG图像的集合(以使磁盘上的大小可管理).使用tf.data.Dataset和tf.py_func的映射,使用自定义Python逻辑从HDF5文件中读取示例非常简单.例如: def

python – 在Tensorflow的数据集API中,如何将一个元素映射到多个元素?

在张量流数据集管道中,我想定义一个自定义映射函数,它接受一个输入元素(数据样本)并返回多个元素(数据样本). 下面的代码是我的尝试,以及期望的结果. 我无法完全按照tf.data.Dataset().flat_map()上的文档来了解它是否适​​用于此处. import tensorflow as tf input = [10, 20,

python – Numpy到TFrecords:有没有更简单的方法来处理来自tfrecords的批量输入?

我的问题是如何从多个(或分片)tfrecords获得批量输入.我已经阅读了示例https://github.com/tensorflow/models/blob/master/inception/inception/image_processing.py#L410.基本管道是,以训练集为例,(1)首先生成一系列tfrecords(例如,000-train-of-005,train-001-of-005 ,. ..),(2)

python – Tensorflow:如何查找tf.data.Dataset API对象的大小

我理解Dataset API是一种迭代器,它不会将整个数据集加载到内存中,因此无法找到数据集的大小.我正在谈论存储在文本文件或tfRecord文件中的大型数据语料库.通常使用tf.data.TextLineDataset或类似的东西来读取这些文件.使用tf.data.Dataset.from_tensor_slices找到加载的数据集的大

python – Tensorflow Dataset.from_generator失败并出现pyfunc异常

我正在尝试使用tensorflow的每晚1.4,因为我需要Dataset.from_generator将一些可变长度的数据集放在一起.这个简单的代码(来自here的想法): import tensorflow as tf Dataset = tf.contrib.data.Dataset it2 = Dataset.range(5).make_one_shot_iterator() def _dataset_generator(

如何将一个只有一个共同维度(批量大小)的两个3D张量传递给dynamic_lstm?

我想将2个不同尺寸的张量传递给tf.nn.dynamic_rnn.我有困难,因为尺寸不匹配.我愿意接受最佳方法的建议.这些张量是来自tf.data.Dataset的批次 我有2个形状的张量: 张量1 :(?,?,1024) 张量2 :(?,?,128) 第一个维度是批量大小,第二个维度是时间步长数,第三个维度是每个时间步输入的要素数.

python – DataSet规范化输入值的范围

我正在使用TensorFlow中的神经网络进行一些实验.最新版本的发行说明称DataSet以后是推荐的用于提供输入数据的API. 通常,当从外部世界获取数值时,需要对值的范围进行标准化;如果你插入原始数字,如长度,质量,速度,日期或时间,所产生的问题将是病态的;有必要检查值的动态范围并归一化

如何使用tf.estimator返回预测和标签(使用预测或eval方法)?

我正在使用Tensorflow 1.4. 我创建了一个自定义的tf.estimator来进行分类,如下所示: def model_fn(): # Some operations here [...] return tf.estimator.EstimatorSpec(mode=mode, predictions={"Preds": predictions},