首页 > TAG信息列表 > neural-network

我如何以编程方式为任意数据集生成描述符?

我目前正在分析一组要分类的图片.分类是通过人工神经网络以监督方式进行的.我有一个测试集,为每个图片分配其类. 我现在想做的是生成很多描述符,然后在这些描述符上执行PCA并进行统计分析,描述符可以描述多少图片的类别. 如何以编程方式为这些图片生成描述符?这也可以帮助我解决将来

c#-多输出神经网络中的训练错误和验证错误

我正在开发一个用于研究神经网络的程序,到目前为止,我了解了将数据集分为3组(训练,验证和测试)的区别(我想).我的网络可能只有一个输出或多个输出,具体取决于数据集和问题.学习算法是反向传播. 因此,问题基本上是让我对每个错误及其计算方法感到困惑. 哪个训练错误?如果我想使用MSE

Python音频信号分类MFCC特征神经网络

我正在尝试将语音信号从语音到情感进行分类.为此,我要提取音频信号的MFCC特征并将其馈入一个简单的神经网络(由PyBrain的BackpropTrainer训练的FeedForwardNetwork).不幸的是,结果非常糟糕.因此,从5个班级中,网络似乎几乎总是提出相同的班级. 我有5种情感类别和大约7000个带有标签

多层感知器,可视化Python中的决策边界(2D)

我为二进制分类编写了多层感知器.据我了解,一个隐藏层可以仅使用线条作为决策边界来表示(每个隐藏神经元一行).这很好用,并且只需使用训练后得到的权重就可以轻松绘制出来. 但是,随着添加更多的层,我不确定使用哪种方法,并且教科书中很少处理可视化部分.我想知道,是否存在将权重矩

python-千层面mlp目标越界

嗨,我正在尝试修改mnist示例以使其与我的数据集匹配.我只尝试使用mlp示例,它给出了一个奇怪的错误. Tha数据集是具有2100行和17列的矩阵,并且输出应为16种可能的类之一.错误似乎发生在培训的第二阶段.模型已正确构建(已确认日志信息). 这是错误日志: ValueError: y_i value out of

将正则化器添加到skflow

我最近从tensorflow切换到skflow.在tensorflow中,我们将lambda * tf.nn.l2_loss(weights)添加到我们的损失中.现在我在skflow中有以下代码: def deep_psi(X, y): layers = skflow.ops.dnn(X, [5, 10, 20, 10, 5], keep_prob=0.5) preds, loss = skflow.models.logistic_reg

Caffe Python API参考?

我对Caffe的主要抱怨是,尽管文档中有一些示例,但没有确定的参考指南.这尤其适用于Python接口(如果有参考指南,那会很棒),也适用于prototxt.看来,要正确使用Caffe,用户必须已经是Google Protobuf和CUDA的专家.遗憾的是,我在这两件事上都没有经验. 那么,如何在Python接口中查找事物(

如何规范预测股市的神经网络输入[python]

我正在尝试实现一个以python预测股市的神经网络.在输入中,我有一个二维的numpy数组,我想规范化数据. 我尝试使用此代码,但我不是,这是此类任务的最佳选择. def normData(data): #data_scaled = preprocessing.scale(data) data = scale( data, axis=0, with_mean=True, wi

如何实现maxpool:在图像或张量的滑动窗口上获取最大值

简而言之:我正在寻找Maxpool的一个简单的numpy(也许是oneliner)实现-在numpy.narray上的窗口上,该窗口在所有尺寸上的所有位置都达到最大值. 更详细地讲:我正在实现一个卷积神经网络(“ CNN”),这种网络中的典型层之一是MaxPool层(例如here).写作 y = MaxPool(x,S),x是输入narray,S是

python-Keras LSTM:检查模型输入尺寸时出错

我是keras的新用户,并尝试实现LSTM模型.为了进行测试,我按如下所示声明了该模型,但是由于输入尺寸的差异而导致模型失败.尽管我在该站点中发现了类似的问题,但我自己找不到错误. ValueError: Error when checking model input: expected lstm_input_4 to have 3 dimensions, but

keras模型会影响输入数据的大小吗?

我的意思是,如果将convnet模型输入n个模型,它将给出n个输出,对吗? 但是,当我尝试使用瓶颈模型(使用VGG16 convnet构建)时,VGG16 convnet返回的输出比输入数少16. 这是控制台输出: import numpy as np train_data = np.load(open('bottleneck_features_train.npy')) train_data.shap

在RNN / LSTM中处理丢失的数据(时间序列)

如标题所示,我有一个时间序列数据集,并且有很多丢失的数据.对于LSTM模型,处理此问题的最佳方法是什么? 为了提供更多详细信息,我大约有五个数据源来创建数据集,其中一些不允许我获取历史数据,因此我在该数据源中缺少很多功能.我可以使用最近观察到的样本进行填充,但是在大多数情况下

python-在TensorFlow中梯度下降后权重的更新

我是张量流和神经网络的新手.我想了解的是,执行“梯度下降”功能后如何更新权重?示例代码如下. with graph.as_default(): weights = tf.Variable( tf.truncated_normal([image_size * image_size, num_labels])) biases = tf.Variable(tf.zeros([num_labels]))

javascript-如何正确设置brain.js神经网络

我正在使用从http://archive.ics.uci.edu/ml/datasets/Auto+MPG开始的自动MPG训练集 我的代码是: 'use strict'; var brain, fs, normalizeData, trainNetwork, _; _ = require('lodash'); brain = require('brain'); fs = require('fs'); trainNet

java-Neuroph:多层感知器反向传播学习不起作用

此问题与Neuroph Java库有关. 我有以下程序,该程序创建一个包含20个节点的单个隐藏层的多层感知器.正在学习的函数是x ^ 2.使用反向传播学习规则.但是,从输出中可以明显看出,该程序似乎无法正常工作.输出始终为1.我的程序中是否有错误? 程序 import org.neuroph.core.NeuralNetwork

python-XOR神经网络反向传播

我正在尝试用Python中的1个隐藏层实现基本的XOR NN.我不特别了解反向传播算法,因此我一直在获取delta2和更新权重…帮助? import numpy as np def sigmoid(x): return 1.0 / (1.0 + np.exp(-x)) vec_sigmoid = np.vectorize(sigmoid) theta1 = np.matrix(np.random.rand(3,3

python-如何在Numpy中实现二次采样的RBF(径向基函数)?

我试图按照CalTech lecture here的描述在Python和Numpy中实现径向基函数.数学对我来说似乎很清楚,所以我发现它不起作用(或似乎不起作用)很奇怪.这个想法很简单,一个人为每个高斯形式选择一个子采样中心的数量,形成一个核矩阵,并试图找到最佳系数.即求解Kc = y,其中K是最小平方的高

4个GPU中1bit SGD与常规SGD的Python CNTK速度比较

我在具有Ubuntu(python 3.4)的Azure NC24 GPU VM中从CNTK安装了版本2.0.beta7.该机器具有4个NVIDIA K80 GPU.生成信息: Build type: release Build target: GPU With 1bit-SGD: yes With ASGD: yes Math lib: mkl

Javascript-为什么这个神经网络不渲染(仅)完整的3层路径?

所讨论的功能是基于相当简单的数据结构来渲染表示在该图像右侧的神经网络. 努力发展: 演变之后: 每个点代表一个神经元,每条线代表一个连接.存在一个神经元和连接被渲染而没有被渲染的问题,我一直在努力解决这个问题达5个小时,没有休息时间.你们中的一位很可能会指出一个导致问题的

python-TensorFlow专家混合

我想在TensowFlow上实现一个通用模块,该模块接收TensorFlow模型列表(此处表示为专家),并从中构建专家混合物,如下图http://www.aclweb.org/anthology/C16-1133中所示 因此,此模型获得输入x,该输入x会馈入不同的专家以及选通网络.最终输出对应于整体输出,该总输出由不同专家的输出

python-低损耗和非常非常低的精度

我正在训练深度学习模型,但获得的准确性非常低,但损失也很低,这与二者成反比.这种低精度的原因是什么,我该如何制止它? 该模型应检测视频场景中的异常事件 我用来建立模型的研究论文的链接 https://arxiv.org/abs/1604.04574 模型架构 这是我的代码: model = Sequential() model.

python-了解PyTorch CNN频道

对于CNN和频道的工作方式,我有些困惑.具体来说,这两个实现为何不相等?只是数量众多的滤波器不是输出通道的数量吗? self.conv1 = nn.Conv2d(1, 10, kernel_size=(3, self.embeds_size)) self.conv2 = nn.ModuleList([nn.Conv2d(1, 1, kernel_size=(3, self.embeds_size)) fo

python-Keras:使用模型的一阶和二阶导数之和作为最终输出

假设我使用Keras创建了此模型: model = Sequential() model.add(Dense(32, activation='tanh', input_dim=1)) model.add(Dense(10, activation='tanh')) model.add(Dense(1, activation='linear')) 该模型的输入和输出维度均为1.现在,假设我想再增加一层,即上面模型的一阶导数和

python-神经网络输入/输出

谁能向我解释如何处理更复杂的数据集,例如球队统计数据,天气,骰子,复杂数字类型 我了解所有数学知识以及一切工作原理,我只是不知道如何输入更复杂的数据,然后如何读取它吐出的数据 如果有人可以在python中提供示例,那将有很大帮助解决方法:您必须将输入和输出编码为可以由神经网络

在Keras中使用EarlyStopping回调时如何获得最佳模型?

我正在使用基于Val_acc和耐心= 0的EarlyStopping使用Keras训练神经网络. val_acc减少后,EarlyStopping将停止训练. 但是,我获得的最终模型不是最佳模型,即具有最高val_acc的模型.但是我宁愿有一个对应于之后的时期的模型,即对应于val_acc的那个模型仅比最佳模型低一点,从而导致提早