首页 > TAG信息列表 > CS231N
cs231n 随笔
一、K最近邻算法(KNN)。 1. 有关K参数(统称超参数)选取,一种常见的方式是将数据集分为三部分,最大的训练集train set ,以及两个大小相当的验证集和测试集。通过训练集训练模型,再通过验证集选取合适的K参数,最终再用测试集去记录模型有效性。 2. 搜索 复制【cs231n】损失函数及梯度下降优化
本专栏的文章是我学习斯坦福cs231n课程的笔记和理解, 同时也欢迎大家可以访问我的个人博客,查看本篇文章 目录损失函数支持向量机SVM正则化常用的正则化函数多项逻辑斯蒂回归(softmax)优化梯度下降计算梯度数值梯度解析梯度梯度下降过程小批量随机下降参考资料 损失函数 如何确定W,【cs231n】详解神经网络中的反向传播
本专栏的文章是我学习斯坦福cs231n课程的笔记和理解,同时也欢迎大家可以访问我的个人博客,查看本篇文章 目录计算图例子节点详细的计算过程例子特殊的节点高纬向量雅克比矩阵计算过程 计算图 定义:使用计算图来表示任意函数,其中图的节点表示我们要执行的每一步计算。 好处:使用计算斯坦福大学的 CS231n课程
斯坦福大学的 CS231n(全称:面向视觉识别的卷积神经网络)一直是计算机视觉和深度学习领域的经典课程,每年开课都吸引很多学生。 CS231的参考llink:http://cs231n.stanford.edu/schedule.html http://cs231n.stanford.edu/slides/ 2017_CS231课程的简介: Lecture 1:面向视觉识别的卷cs231n 课程学习 一
cs231n 课程学习 一 cs231n 课程资源:Stanford University CS231n: Convolutional Neural Networks for Visual Recognition 我的 github 作业:FinCreWorld/cs231n: The assigments of cs231n (github.com) 第一章 图像分类——以KNN为例 一 简介 什么是图像分类:给定程序一CS231n 课程(笔记内容 by Aries.Y)
图像分类 图像分类的任务,就是对于一个给定的图像,预测它属于的那个分类标签(或者 给出属于一些列不同标签的可能性) 好的图像分类模型能够在维持分类结论稳定的同时,保持堆类间差异足够敏感 数据驱动的方法就是像教小孩子看图识物一样:给计算机很多数据,然后实现学习算法,让计算机学CV入门 学习网站
PyTorch: 官方文档:https://pytorch.org/docs/stable/index.html PyTorch模型训练实用教程 代码: paper with code: (可能要梯子) SOTA代码: CV: OpenCV 斯坦福cs231n: 李宏毅教授系列课程:CS231n Assignment #1
先吹一波Google Colab,所有操作都可在云上进行,还能白嫖精讲CS231N斯坦福计算机视觉公开课笔记
【子豪兄】精讲CS231N斯坦福计算机视觉公开课 计算机视觉发展历史与课程概述 大概讲了一些计算机视觉的运用范围(机器学习、生物、无人机、光学等)。Hubel和Wiesel在1959年发现猫对图像的边缘信息产生反映,每个神经元针对固定区域进行处理。 视觉是分层的。2012年,在ILSVRC比赛中精讲CS231N斯坦福计算机视觉公开课 25375cb181284619a12bbec405886f14
精讲CS231N斯坦福计算机视觉公开课学习笔记 计算机视觉发展历史与课程概述 大概讲了一些计算机视觉的运用范围(机器学习、生物、无人机、光学等)。Hubel和Wiesel在1959年发现猫对图像的边缘信息产生反映,每个神经元针对固定区域进行处理。 视觉是分层的。2012年,在ILSVRC比赛中AlCS231N Study Notes Lecture 7 Training Neural Networks
Written in the front: I'm polar bear, a freshman at deep learning and also a freshman at csdn community. Recently I have been studying cs231n which is a famous computer vision course recommended by my tutor. This is my first block at csdn.This bloCS231n 学习总结(笔记和作业)
历时两个月,终于学完了这门计算机视觉的神课~回顾整个学习历程,不得不说这门课真的设计的如此之好,不论是讲师Justin深入浅出的讲解,还是颇有难度的课后作业,都让我真正对深度学习这一领域有了一定的了解。 我是一开始在b站上看2017年的cs231n,但是在看完CNN的部分后发现Justin在Umi【读书笔记】:cs231n(image classification notes)
图像分类笔记 一、图像分类、数据驱动方法和流程 ⑴ 图像分类 1、目标: 所谓图像分类问题,就是已有固定的分类标签集合,然后对于输入的图像,从分类标签集合中找出一个分类标签,最后把分类标签分配给该输入图像。这是计算机视觉领域的核心问题之一,并且有着各种各样的实际应用。计算cs231n_Linear_svm
cs231n_Linear_svm Linear_svm原理代码小tips Linear_svm原理 SVM损失:计算了所有不正确的例子,将所有不正确类别的评分与正确类别评分之差再加1,将得到的数值与0比较,取二者最大,然后将所有数值进行求和。 计算分数: s斯坦福深度视觉识别课程cs231n 学习笔记三:神经网络
斯坦福深度视觉识别课程cs231n 学习笔记三:神经网络 反向传播一个简单的例子具体例子加法门:梯度分配器max门:梯度路由器乘法门:梯度转换器两个上游结点 一个向量的例子 神经网络神经元基本结构常用激活函数神经网络结构前向传播代码示例 反向传播 一个简单的例子 如图,z=fCS231n_2020课程任务实现1.3——Softmax
传送门:CS231n_2020课程任务实现——系列汇总 CS231n_2020 Assignment 1 准备工作k-Nearest Neighbor (kNN)Support Vector Machine (SVM)Softmax知识基础完成 softmax.pysoftmax_loss_naive函数softmax_loss_vectorized函数 完成 ValidationInline QuestionsInline Questio学习率和loss下降的关系
本文摘自:学习率和batchsize如何影响模型的性能? 初始的学习率一般有一个最优值,过大则导致模型不收敛,过小则导致模型收敛特别慢或者无法学习,下图展示了不同大小的学习率下模型收敛情况的可能性,图来自于cs231n。cs231n 2019版assignment 笔记(入门级解析,超详细)
CS231n 2019版作业笔记 手抄代码的方式不推荐,由于一些特殊原因导致我可以有充裕的时间来这样学习,希望能对和我一样的小白有帮助 几点说明 1. 代码源自b站的cs231n课程视频的评论区,这里也附上原网址: 白嫖得到的作业代码 另外也附上我下载下来后加了一部分注释以及略有改动斯坦福cs231n计算机视觉经典课程笔记(更新中)
计算机视觉 数据驱动方法 def train(imges, labels): # Machine learning return model def predict(model, test_image): # use model to predict labels retrun test_labels Nearest Neighboor 数据集例子 CIFAR10 十个种类,50000张训练图片,10000测试图片,每张cs231n作业:Assignment2-Fully-Connected Neural Nets
fc_net.py from builtins import range from builtins import object import numpy as np from cs231n.layers import * from cs231n.layer_utils import * class TwoLayerNet(object): """ A two-layer fully-connected neural network with ReLU ncs231n-第一稿笔记--待后续整理
批量归一化 1.在每个特征提取层之后,增加批量归一化层 激活函数 整体上,ReLu是一种更加主流的方法 ReLu 1.图像中大于0的部分不存在梯度饱和的现象 2.收敛速度更快,比sigmoid和tanh快接近6倍 3.当x取0时,可以默认函数的梯度为0 4.考虑到当x小于0时,梯度为0,可能产生dead ReLu,所全球名校课程作业分享系列(8)--斯坦福计算机视觉与深度学习CS231n之tensorflow实践
原文链接:https://blog.csdn.net/yaoqiang2011/article/details/79278930 课程作业原地址:CS231n Assignment 1 作业及整理:@邓妍蕾 && @郭承坤 && @寒小阳 时间:2018年2月。 出处:http://blog.csdn.net/han_xiaoyang/article/details/79278930 在cs231n__4.2 神经网络 Neural networks
CS231n 学习笔记 4.2 神经网络 Neural networks 之前我们已经使用了 很多线性分类函数 现在我们不用单变换的: 我们首先有线性层,然后有这个非线性计算,继而在顶层再加入另一个线性层。然后到这里,最后我们可以得到一个计分函数。输出计分向量。 一般来说,神经网络就是由简单函数构成CS231N课程学习小结(assignment1)
1.image classification 主要是用数据驱动的算法,将data分为train_data,val_data,test_data.在train上用不同的超参数调试不同的结果,在验证集上进行评估,再用在验证集上表现最好的超参数应用到test上。 image classifier,data_driven approach, 实例1:knn 最近邻算法 代码分为cs231n__4. Backpropagation and Neural Network
CS231n 4.1 Backpropagation 回顾: 两个损失函数: 优化的方法: 如何计算梯度: 用有限差分估计 直接计算偏导数(解析梯度) 今天,我们要学习如何计算任意复杂度的解析梯度 要用到一个叫做计算图的框架: 每一个节点代表着计算 上图是我们讲过的线性分类器 这里使用计算图的好处是: 一旦我