首页 > TAG信息列表 > tilde

Twirling operation w.r.t. a group $U(d)$ is equivalent to a depolarizing channel

I will give an extended explanation of Nielsen's proof, i.e. your first ref link. The idea is that, \(\rho=\sum_ip_i|i\rangle\langle i|\), we can prove it's depolarizing channel for each \(|i\rangle\langle i|\) with same \(p\), then

Localized Graph Collaborative Filtering

目录概符号说明本文方法 Wang Y., Li C., Li M., Jin W., Liu Y., Sun H., Xie X. and Tang J. Localized graph collaborative filtering. 概 现在的推荐系统, 倾向于为每个 user, item 构建 embeddings. 但是和 NLP 中的问题不同, 推荐的数据往往是非常稀疏的, 所以这么做势必

ItemRank: A Random-Walk Based Scoring Algorithm for Recommender Engines

目录概符号说明本文方法 Gori M. and Pucci A. ItemRank: a random-walk based scoring algorithm for recommender engines. In International Joint Conferences on Artificial Intelligence (IJCAI), 2007. 概 采用类似 PageRank 的方式进行推荐排序. 符号说明 \(\mathcal{U

Addressing Unmeasured Confounder for Recommendation with Sensitivity Analysis

目录概符号说明问题本文方法代码 Ding S., Wu P., Feng F., Wang Y., He X., Liao Y. and Zhang Y. Addressing unmeasured confounder for recommendation with sensitivity analysis. In ACM SIGKDD Conference on Knowledge Discovery and Data Mining (KDD), 2022 概 以往的

论文解读(PPNP)《Predict then Propagate: Graph Neural Networks meet Personalized PageRank》

论文信息 论文标题:Predict then Propagate: Graph Neural Networks meet Personalized PageRank论文作者:Johannes Gasteiger, Aleksandar Bojchevski, Stephan Günnemann论文来源:2019,ICLR论文地址:download 论文代码:download 1-Abstract   本文主要将 PageRank 算法引入到

学习笔记·GNN&GCN

目录博文介绍GNNGNN的流程聚合更新循环GCN公式推导(物理意义)理解GCN,卷积从何而来类比图片 博文介绍 对于初学者来说,GNN还是好理解的,但是对于GCN来说,我刚开始根本不理解其中的卷积从何而来!! 这篇博文分为两部分,第一部分是我对GNN的理解,第二部分是我个人对GCN中卷积的理解。 GNN 看

论文解读(DMVCJ)《Deep Embedded Multi-View Clustering via Jointly Learning Latent Representations and Grap

论文信息 论文标题:Deep Embedded Multi-View Clustering via Jointly Learning Latent Representations and Graphs论文作者:Zongmo Huang、Yazhou Ren、Xiaorong Pu、Lifang He论文来源:2022, ArXiv论文地址:download 论文代码:download 1 Introduction   隶属于多视图聚类(MVC)算

Fairness among New Items in Cold Start Recommender Systems

目录概符号说明Opportunity fairnessMax-Min opportunity fairnessMean Discounted Gain (MDG)主要内容基本框架Joint-learning generative methodScore scaling method Zhu Z., Kim J. and Nguyen T. Fairness among new items in cold start recommender systems. In Interna

$SU(2)$ 与 $SO(3)$ 的对应关系

从Pauli算符看SU(2)与SO(3) 如果$U\in SU\left( 2 \right) $,对于任意一个\(2x2\)零迹厄密矩阵\(\sigma=\left( \begin{matrix} z& x-iy\\ x+iy& -z\\ \end{matrix} \right)\),都有\(U\sigma U^\dagger\)仍旧是零迹厄密矩阵,即$U\sigma U^{\dagger}=\tilde{\sigma}=\lef

《DSP using MATLAB》Problem 2.3(Scilab脚本)

    只做了第4小题,放代码: 1 // <<DSP using MATLAB>>3rd edition 2 // Book Author:Vinay K Ingle, John G Proakis 3 // 4 // Problem 2.3(4) 5 // script by: 6 // 7 clear, clc, clf(); 8 9 mode(2); 10 funcprot(0); 11 exec('fun_banner.sci

【图神经网络】图神经网络(GNN)学习笔记:图滤波器与图卷积神经网络

图神经网络GNN学习笔记:图滤波器与图卷积神经网络 4. 图滤波器4.1 空域视角4.2频域角度 5. 图卷积神经网络5.1 对频率响应矩阵进行参数化5.2 对多项式系数进行参数化5.3 设计固定的图滤波器 参考资料 4. 图滤波器 在图信号处理中,我们将图滤波器定义为对给定图信号的频谱

[半监督学习] Temporal Ensembling for Semi-Supervised Learning

self-ensembling self-ensembling 即自集成, 自己集成自己. 对于神经网络来说, 一个样本如果多次送入网络, 能够产生多个模型预测结果, 这些结果可以进行融合, 同时在不同的 batch 训练之后, 模型的参数也会发生变化, 参数可以进行融合, 因此, self-ensembling 的套路在于集

论文解读GALA《Symmetric Graph Convolutional Autoencoder for Unsupervised Graph Representation Learning》

论文信息   Title:《Symmetric Graph Convolutional Autoencoder for Unsupervised Graph Representation Learning》  Authors:Jiwoong Park、Minsik Lee、H. Chang、Kyuewang Lee、J. Choi  Sources:2019 IEEE/CVF International Conference on Computer Vision (ICCV)  P

最大熵模型

1.最大熵模型 终极目标 \(P(Y|X)\) 熵 \(H(P)=-\sum_{x}P(x)\log P(x)\) 将终极目标代入熵 \(H(P)=-\sum_{x}P(y|x)\log P(y|x)\) 做些改变,调整为条件熵 \(H(P)=H(y|x)=-\sum_{x}\tilde P(x)P(y|x)\log P(y|x)\) \(\tilde P(x)代表经验分布,从训练集中统计出来的\) 2.约束条件 \(

回归分析09:自变量的选择(1)

目录Chapter 9:自变量的选择(1)5.1 自变量选择的后果5.1.1 全模型和选模型5.1.2 自变量选择对估计和预测的影响5.2 自变量选择的准则5.2.0 残差平方和的局限性5.2.1 平均残差平方和准则5.2.2 调整后的 准则 Chapter 9:自变量的选择(1) 5.1 自变量选择的后果 5.1.1 全模型和选模型

【RL-Notes】Constraint Decoupling by Constraint Relaxiation

Navigator ExampleReference Example Constraint Relaxiation, whereby the constraint set is replaced by another constraint set that does not involve coupling. Multiarmed bandit problem, involves n projects of which only one can be worked on at any time

基础拓扑学讲义 1.7 粘合映射不是开映射

粘合映射不是开映射 定义 粘合映射 \(p\):\(p\) 是等价关系诱导出的映射,故而必为满射。 \((X, \tau)\) 是拓扑空间,\(\sim\) 是集合 \(X\) 上的一个等价关系,规定商集 \(X/\sim\) 上的子集族 \[\tilde{\tau}:=\{V\subset X/\sim|p^{-1}(V)\in \tau\} \]则 \(\tilde{\tau}\) 是 \(X

【Simple and Deep Graph Convolutional Networks】

该论文由中国人民大学、复旦大学、阿里巴巴合作完成,第一作者为中国人民大学研究生陈明,通讯作者为中国人民大学教授魏哲巍。 1. 摘要 Graph Convolutional Network via Initial residual and Identity mapping(GCNII),它是普通GCN模型的扩展,应用了两种简单而有效的技术:初始残

吃瓜教程|Datawhale-10月(3)

吃瓜教程|Datawhale-10月(3) 决策树 基本流程 基于树结构来进行决策。 一般一颗决策树只包含一个根结点、若干个内部结点和若干个叶结点。 其中叶结点对应决策结果,其他的每个结点对应一个属性测试,从根结点到每个叶结点的路径对应了一个判定测试序列。 决策树学习的目的是为了产生一

latex打出算法复杂度里的O波浪线

\tilde{O} O ~ \tilde{O} O~ 来源:https://tex.stackexchange.com/questions/66418/tilde-over-a-symbol-phi

广义相对论-学习记录4-第三章-张量分析与黎曼几何1

第三章:张量分析与黎曼几何   广义相对论的数学语言是微分几何。微分几何用来描述“流形”:局部可以看做欧几里得空间,而全局形状则可能比较复杂。 N N N维欧几里得空间

第六章 最大熵模型

目录6.1 逻辑斯蒂回归模型参数估计多项式逻辑回归6.2 最大熵模型最大熵原理最大熵模型最大熵模型的学习6.3 最优化算法改进迭代尺度算法牛顿法 这一章分为三个部分,逻辑斯蒂回归,最大熵模型和模型的最优化算法。 最大熵模型这一块,《统计机器学习》有些地方讲的不清楚,我补充了一部分

基于拉格朗日对偶的凸全局三维配准

论文地址 文章导读 最近自己的工作有借鉴这篇文章中用到的拉格朗日对偶,然后就细读了文章的内容并且分析了对应的代码。 拉格朗日对偶属于凸优化的范畴,详细的定义和理论可以在《Convex optimization》一书中进行深入学习。本篇博客仅重点解读该文章的主要内容。 摘要 通过欧

故障检测指标的贡献分析(Reconstruction Based Contribution,RBC)新方法

最近研究的故障检测新的方法,发现一个基于故障重构的贡献方法,准确的说是一种基于沿变量方向重建故障检测指标的贡献分析新方法。 在检测到导致故障检测指标超出控制极限的故障情况后,沿每个变量方向使故障检测指标最小化的重构量被定义为该变量的基于重构的贡献(RBC)。 Reconstru

softmax与sigmoid的关系&最大熵与极大似然估计的关系

softmax与sigmoid的关系&最大熵与极大似然估计的关系 softmax与sigmoid 已知sigmoid的函数为: \[\begin{align} %\frac{1}{1+e^{-z^{[l](k)}}} sigmoid(z) &=\frac{1}{1+e^{-z}} =\frac{1}{1+\frac{1}{e^z}} =\frac{e^z}{e^z+1} =\frac{e^z}{e^z+e^0}\\ 1-sigmoid(z)&=1-\frac{