首页 > TAG信息列表 > deep-learning
我如何阻止特定单元格在Google Colab中运行?
如果某个单元的运行时间太长(例如,如果它具有用于在深度学习中训练模型的代码),那么如何阻止它在Google Colab中运行.解决方法:按下停止按钮,或从运行系统菜单中选择“中断执行”项. 请记住,某些代码不能被中断. (例如,如果您使用的是被系统调用卡住的C库.)在这些情况下,可以通过将共享层的输出传递给层
我正在解决一个问题,我必须创建一个相同共享层的列表并将其传递给另一层.所以我使用了for循环并添加到列表中.然后,我必须将那些推数传递到另一层.列表无法传递到另一层.如何执行呢? x = Input(shape=...) shared_layer = MySharedLayer(...) outputs=[] # Step 2: Iterate for Typython-Simonyan等人的论文“深入卷积网络内部:可视化图像分类模型和显着图”的实现
在使用Caffe框架的卷积神经网络中的梯度数据可视化中,已经可视化了所有类别的梯度数据,对于特定类别采用梯度很有趣.在“ bvlc_reference_caffenet”模型中的deploy.prototxt文件中,我设置了: force_backward: true 并评论了最后一部分: layer { name: "prob" type: "Softmaxpython-Caffe-draw_net_to_file-“分类器”对象没有属性“名称”
我在draw.py中找到了draw_net_to_file方法,并希望使用它来了解我可以更好地使用的Caffe网络. 问题是以下代码 import caffe from caffe.draw import draw_net_to_file import numpy as np weights = 'reference_model/caffe_reference_imagenet_model.weights' means = 'referencpython-千层面mlp目标越界
嗨,我正在尝试修改mnist示例以使其与我的数据集匹配.我只尝试使用mlp示例,它给出了一个奇怪的错误. Tha数据集是具有2100行和17列的矩阵,并且输出应为16种可能的类之一.错误似乎发生在培训的第二阶段.模型已正确构建(已确认日志信息). 这是错误日志: ValueError: y_i value out of将正则化器添加到skflow
我最近从tensorflow切换到skflow.在tensorflow中,我们将lambda * tf.nn.l2_loss(weights)添加到我们的损失中.现在我在skflow中有以下代码: def deep_psi(X, y): layers = skflow.ops.dnn(X, [5, 10, 20, 10, 5], keep_prob=0.5) preds, loss = skflow.models.logistic_regCaffe Python API参考?
我对Caffe的主要抱怨是,尽管文档中有一些示例,但没有确定的参考指南.这尤其适用于Python接口(如果有参考指南,那会很棒),也适用于prototxt.看来,要正确使用Caffe,用户必须已经是Google Protobuf和CUDA的专家.遗憾的是,我在这两件事上都没有经验. 那么,如何在Python接口中查找事物(python-张量乘法的张量流有效方法
我在张量流中有两个张量,第一个张量是3-D,第二个张量是2D.我想像这样乘以它们: x = tf.placeholder(tf.float32, shape=[sequence_length, batch_size, hidden_num]) w = tf.get_variable("w", [hidden_num, 50]) b = tf.get_variable("b", [50]) output_list = [] for step_ind我如何将.csv训练数据馈送到mxnet中的卷积神经网络?
我最近在Windows 10和Python 3.5上安装了具有GPU支持的mxnet(python软件包).我列举了两个例子,它们似乎运行良好. 尽管我已经在R中使用Mxnet,但我习惯于使用scikit-learn风格的机器学习程序包和Python深度学习程序包(如Mxnet)非常陌生.我很难理解如何将.csv训练数据输入模型. 我想java-如何使用DeepLearning4J训练RBM并重建输入?
我正在尝试使用DeepLearning4J 0.7训练受限的玻尔兹曼机(RBM),但没有成功.我发现的所有示例都无法在Deepeeping4J 0.7上做任何有用的事情或无法正常工作. 我需要训练一个带有对比发散的RBM,然后计算重建误差. 这是我到目前为止的内容: import org.nd4j.linalg.factory.Nd4j; importpython-Keras LSTM:检查模型输入尺寸时出错
我是keras的新用户,并尝试实现LSTM模型.为了进行测试,我按如下所示声明了该模型,但是由于输入尺寸的差异而导致模型失败.尽管我在该站点中发现了类似的问题,但我自己找不到错误. ValueError: Error when checking model input: expected lstm_input_4 to have 3 dimensions, butkeras模型会影响输入数据的大小吗?
我的意思是,如果将convnet模型输入n个模型,它将给出n个输出,对吗? 但是,当我尝试使用瓶颈模型(使用VGG16 convnet构建)时,VGG16 convnet返回的输出比输入数少16. 这是控制台输出: import numpy as np train_data = np.load(open('bottleneck_features_train.npy')) train_data.shappython-沿着aixs查找张量中非零元素的数量
我想找到沿特定轴的张量中非零元素的数量.有没有可以执行此操作的PyTorch函数? 我试图在PyTorch中使用nonzero()方法. torch.nonzero(losses).size(0) 在这里,损失是一个形状为64 x 1的张量.当我运行上面的语句时,它给了我以下错误. TypeError: Type Variable doesn't implementpython-Keras在某一点停止学习
每个班级大约有300张真实图像.具有3个类别的分类模型. 我使用2000个生成的样本和10个纪元制作了一个模型.该模型还可以,但是有许多错误的负面预测.比我想改进模型并将生成的样本数(真实图像数不变)增加到20000.在第6个时期,精度开始下降,最终达到0.2 339/666 [==============>....python-在基本Tensorflow 2.0中运行简单回归
我正在学习Tensorflow 2.0,我认为在Tensorflow中实现最基本的简单线性回归将是一个好主意.不幸的是,我遇到了几个问题,我想知道这里是否有人可以提供帮助. 考虑以下设置: import tensorflow as tf # 2.0.0-alpha0 import numpy as np x_data = np.random.randn(2000, 1) w_real =千层面的回归:错误
我正在尝试使用千层面/ nolearn进行回归.我在查找文档中如何执行此操作时遇到了麻烦(通常是深度学习的新手). 从一个简单的网络(一个隐藏层)开始 from lasagne import layers from lasagne.nonlinearities import softmax from lasagne.updates import nesterov_momentum from no4个GPU中1bit SGD与常规SGD的Python CNTK速度比较
我在具有Ubuntu(python 3.4)的Azure NC24 GPU VM中从CNTK安装了版本2.0.beta7.该机器具有4个NVIDIA K80 GPU.生成信息: Build type: release Build target: GPU With 1bit-SGD: yes With ASGD: yes Math lib: mklpython-在tensorflow中使用gabor过滤器,或使用其他任何过滤器代替默认过滤器
我想在CNN中使用gabor过滤器.使用convolution2d函数,如何更改它以将输入图像转换为gabor滤镜而不是默认的高斯滤镜?解决方法:这是一些代码,您可以将其用作使用OpenCV库创建的恒定(非学习型)Gabor过滤器的指南: import tensorflow as tf import cv2 # Create a 3x3 Gabor filter partensorflow mnist示例精度不会增加
我正在关注this tutorial以学习tensorflow和tensorboard.下面是我的代码.准确性停留在随机范围内.我找不到哪里出了问题. 有人可以指出错误在哪里吗?我也想知道如何在tensorflow中进行调试.谢谢. 进口 from tensorflow.examples.tutorials.mnist import input_data mnist = inputpython-TensorFlow专家混合
我想在TensowFlow上实现一个通用模块,该模块接收TensorFlow模型列表(此处表示为专家),并从中构建专家混合物,如下图http://www.aclweb.org/anthology/C16-1133中所示 因此,此模型获得输入x,该输入x会馈入不同的专家以及选通网络.最终输出对应于整体输出,该总输出由不同专家的输出python-Keras VGGnet预训练模型变量大小的输入
我想使用VGG预训练模型提取368×368尺寸图像的特征.根据文档,VGGnet接受224×224尺寸的图像.有没有办法给Keras VGG提供可变大小的输入? 这是我的代码: # VGG Feature Extraction x_train = np.random.randint(0, 255, (100, 224, 224, 3)) base_model = VGG19(weights='imagenet')python-低损耗和非常非常低的精度
我正在训练深度学习模型,但获得的准确性非常低,但损失也很低,这与二者成反比.这种低精度的原因是什么,我该如何制止它? 该模型应检测视频场景中的异常事件 我用来建立模型的研究论文的链接 https://arxiv.org/abs/1604.04574 模型架构 这是我的代码: model = Sequential() model.java-如何在Deeplearning4j中使用自定义数据模型?
基本问题是尝试使用自定义数据模型创建要在deeplearning4j网络中使用的DataSetIterator. 我要使用的数据模型是一个Java类,其中包含一堆双打,这些双打是根据特定股票的报价创建的,例如时间戳,开盘价,开盘价,收盘价,高价,低价,交易量,技术指标1,技术指标2,等等 我查询互联网资源exampython-了解PyTorch CNN频道
对于CNN和频道的工作方式,我有些困惑.具体来说,这两个实现为何不相等?只是数量众多的滤波器不是输出通道的数量吗? self.conv1 = nn.Conv2d(1, 10, kernel_size=(3, self.embeds_size)) self.conv2 = nn.ModuleList([nn.Conv2d(1, 1, kernel_size=(3, self.embeds_size)) fopython-机器学习中的高损失的恒定验证准确性
我目前正在尝试使用具有2个类的Inception V3创建图像分类模型.我有1428张图像,大约平衡了70/30.当我运行模型时,我会得到很高的损失以及持续的验证准确性.是什么导致此恒定值? data = np.array(data, dtype="float")/255.0 labels = np.array(labels,dtype ="uint8") (trainX, tes