首页 > TAG信息列表 > fine

【NeRF】基于Mindspore的NeRF实现

一、NeRF介绍 1. 背景 传统计算机图形学技术经过几十年发展,主要技术路线已经相对稳定。随着深度学习技术的发展,新兴的神经渲染技术给计算机图形学带来了新的机遇,受到了学界和工业界的广泛关注。神经渲染是深度网络合成图像的各类方法的总称,各类神经渲染的目标是实现图形渲染中建模

(转载)GPT-3阅读笔记:Language Models are Few-Shot Learners

原地址 Abstract 提出问题:最近的许多研究都表明pre-train模型搭配下游任务fine-tune在许多情况下效果显著,但是微调过程需要大量的样本。这一框架不符合人类的习惯,人类只需要少量的示例或说明便能适应一个新的NLP下游任务。 主要贡献:本文证明了通过增大参数量就能让语言模型显著提

新概念1(144课)

1. casual dress 便服      evening dress晚礼服 祈使句: my coat and my umbrella please.=give me my coat and my umbrella (show me your) Ticket,please.     passort护照 sorry = i'm sorry(为自己所犯过错道歉,对他人有所伤害) what can i do for you ,sir? this is no

解决Iframe嵌入帆软BI系统后,Chrome升级后跨域出现登录界面,Cookie写入不成功。解决办法

当我们使用Iframe嵌入fine BI的页面时,由于google chrome的高版本为了防止CSRF 攻击,默认将Cookie的SameSite设置为lax了,导致 cookie跨域的时候就写不成功了,所以导致嵌入的iframe出现登录界面。这是咋们可以自己手动来写这个cookie,并且将SameSite的值设置为none。 我们只需要在嵌

创建Mysql用户并授权

mysql查看当前登录用户,当前数据库: select user(); -- 这个一般会带出ipselect current_user(); -- 这个查出的是定义的用户 select database(); 修改root或其他用户密码 update mysql.user set password=password('new_pass') where user='user_name';    创建新用户并授

meta_learning学习

花了2天学习 meta learning代码,记录一下。 MAML学习一个好的初始化权重,从而在新任务上实现fast adaptation,即在小规模的训练样本上迅速收敛并完成fine-tune。 因此基于MAML的模型首先基于多个任务样本学习好的初始化权重。 第二阶段, 针对特定场景做 fine-tune,部分参数如embeddin

【题解】Luogu P5122 Fine Dining G

\(Dijkstra\) 水一发 对于题目,我们可以转化为如下图所示: 我们设点 \(s\) 到点 \(e\) 的距离就是题目里面每个点到终点的距离,然后节点 \(t\) 就是多出的干草(有可能在最短路上,有可能在最短路外)。设点到点的距离为 \(dis\) ,干草垛的美味度为 \(k\) 值,那么题目就是求: \[dis_{s->t}+di

文本分类pytorch Bert fine tune

基于Bert预训练模型的文本分类fine tune 环境 python==3.7torch==1.7.1transformers==4.9.2scikit-learn==0.21.3tensorboard==2.5.0pandasnumpy 构建数据集 将数据放到如下图格式的dataframe中,label对应的数字为每种类别的下标。 random seed设置 import torch import nu

feature-based 方法和fine-tuning 方法的区别

前言 文章来源:LawsonAbs 望各位读者审慎阅读。 持续更新~ 在谈联系和区别的时候,先看Bert 那篇论文中的原文: 1. 共同点 它们都是在下游任务中使用预训练模型的方法 2. 区别 名称 feature-bases 使用具体任务的特征,同时包含预训练的表示作为额外的特征 fine-tuning 引入最小的

【Pre-Training】GPT:通过生成式预训练改善语言理解

  今天阅读的是 OpenAI 2018 年的论文《Improving Language Understanding by Generative Pre-Training》,截止目前共有 600 多引用。 在这篇论文中,作者提出了一种半监督学习方法——Generative Pre-Training(以下简称 GPT),GPT 采用无监督学习的 Pre-training 充分利用大量未标注的文

hdu1232 并查集总结

前言 在一些有N个元素的集合应用问题中,我们通常是在开始时让每个元素构成一个单元素的集合,然后按一定顺序将属于同一组的元素所在的集合合并,其间要反复查找一个元素在哪个集合中。 这一类问题其特点是看似并不复杂,但数据量极大,若用正常的数据结构来描述的话,往往在空间上过大,计算机

使用PAINTOR做fine-mapping的步骤

首先,感谢陈文燕群主跟另外一位博主(又是一只小菜鸟)的帖子。链接放出来: (1) https://mp.weixin.qq.com/s?__biz=Mzg2MDA2MDQzMQ==&mid=2247484123&idx=1&sn=550fdf6fba5efe58fad6e1a0b23a2948&chksm=ce2d6cbbf95ae5ada324e924db32d2d836c3fcc8838bcad69df055bda376758e9613731fc830&s

分层图洛谷P5122. Fine Dining G

今天就completely在划水,mentor也不搭理了 哎 那就做题吧,下午做gre的题,这周六过生日2333 上次有个分层图的题其实一直没想明白,但我现在这题就搞明白了 这题问的是要求是否能吃到艹,我本来想用费用流,但是数据量就死心了 然后看了看是用dij跑的 分层图可以解决图中一些存在着某些不等

856. 句子相似性

856. 句子相似性   给出两个句子 words1 和 words2 (每个用一个字符串数组表示),和一个相似词对数组 pairs ,你需要判断两个句子是否相似。 例如,如果相似词对是 pairs = [["great", "fine"], ["acting","drama"], ["skills","talent"]] ,那么 words1 = great actin

<Fine-Pruning: Defending Against Backdooring Attacks on Deep Neural Networks>阅读笔记

Abstract 提出了第一个针对后门攻击的有效的方案。我们根据之前的工作实现了三种攻击并使用他们来研究两种有希望的防御,即Pruning和fine-tuning。我们的研究表明,没有一个可以抵御复杂的攻击。我们然后评估了fine-pruning,这是结合了Pruning和fine-tuning,结果表明它可以削弱或

856. 句子相似性

856. 句子相似性 中文English 给出两个句子words1和words2(每个用一个字符串数组表示),和一个相似词对数组pairs,你需要判断两个句子是否相似。 例如,如果相似词对是pairs = [["great", "fine"], ["acting","drama"], ["skills","talent"]],那么words1 = great acting skil

fine-tuning of VGG

一、 fine-tuning 由于数据集的限制,我们可以使用预训练的模型,来重新fine-tuning(微调)。 使用卷积网络作为特征提取器,冻结卷积操作层,这是因为卷积层提取的特征对于许多任务都有用处,使用新的数据集训练新定义的全连接层。 何时以及如何Fine-tune 决定如何使用迁移学习的因素有很多,

帆软还原登录页设置

测试登录页改为其他页面,导致报错404。    解决方法: 通过单点接口实现登录决策系统之后直接在平台内修改。 1)访问单点接口 浏览器 F12 调用控制台,在 console 选项中输入 encodeURI("http://ip:端口/webroot/decision/login/cross/domain?fine_username=XX&fine_password=XX&val

Bert微调技巧实验大全-How to Fine-Tune BERT for Text Classification

背景介绍 文本分类是NLP中的一个经典任务, 通常在大型的数据集进行一些预训练的模型在文本分类上可以取得很不错的成绩。例如word2vec, CoVe(contextualized word embeddings)和ELMo都取得了不错的成绩。Bert是基于双向transformer使用masked word prediction和NSP(next sente

《Batch Spectral Shrinkage for Safe Transfer Learning》论文解析

文章全名为《Catastrophic Forgetting Meets Negative Transfer:Batch Spectral Shrinkage for Safe Transfer Learning》 1、摘要 这篇文章主要针对模型的fine-tune问题进行优化。众所周知,在许多模型的训练中,使用预训练好的模型进行fine-tune可以使模型的训练更加容易且结果更

Finereport10.0学习记录——day 01

1.用户从9.0升级到10.0可以使用升级工具 注:升级工具目前只支持 jdk1.8,用户在升级时要确保自己的 jdk 为 1.8 版本。 2.人工更新升级jar包 涉及jar包13个: fine-accumulator-10.0.jar、fine-activator-10.0.jar、fine-core-10.0.jar、fine-datasource-10.0.jar、fine-decision-1

两个SQL查询,横向合并为一个查询结果

第一条sql: select unit,count(*)as number from archives_management group by unit 第二条sql: select fine_units,count(*) as fine_number from fine group by fine_units 注:两条sql 分别查询结果如下图 要求生成如下格式: unit              

图像检索:layer选择与fine-tuning性能提升验证

原文链接:http://yongyuan.name/blog/layer-selection-and-finetune-for-cbir.html 这个世界上肯定有另一个我,做着我不敢做的事,过着我想过的生活。一个人逛街,一个人吃饭,一个人旅行,一个人做很多事。极致的幸福,存在于孤独的深海。在这样日复一日的生活里,我

[USACO18DEC]Fine Dining

[USACO18DEC]Fine Dining 同步:https://buringstraw.win/index.php/archives/44/ https://hexo.buringstraw.win/2019/07/14/FineDining/ 咕咕咕。。。 什么?前几次考试? 。。。有空就补(放心你没空的) 题目 漫长的一天结束了,饥困交加的奶牛们准备返回牛棚。农场由N片牧场组成(2≤N≤50,0