首页 > TAG信息列表 > mathcal
Feature Overcorrelation in Deep Graph Neural Networks: A New Perspective
目录概符号说明over-correlation 的现象解决方法代码 Jin W., Liu X., Ma Y., Aggarwal C. and Tang J. Feature overcorrelation in deep graph neural networks: a new perspective. In ACM International Conference on Knowledge Discovery and Data Mining (KDD), 2022. 概P4655 [CEOI2017] Building Bridges 题解
P4655 分析 发现如果在 \(i,j\) 之间建桥,那么 \((i,j)\) 内的所有柱子都是无用的,代价还需加上 \((i,j)\) 内的所有拆除代价。设 \(dp_i\) 为从 \(1\) 走到 \(i\) 的最小代价,于是转移方程就呼之欲出了: \[dp_i=\min\limits_{j=1}^{i-1}\{dp_j+(h_i-h_j)^2+s_{i-1}-s_j\} \],其中 \(s_Twirling operation w.r.t. a group $U(d)$ is equivalent to a depolarizing channel
I will give an extended explanation of Nielsen's proof, i.e. your first ref link. The idea is that, \(\rho=\sum_ip_i|i\rangle\langle i|\), we can prove it's depolarizing channel for each \(|i\rangle\langle i|\) with same \(p\), then【ZJSU - 大红大紫:ACM - Template】比赛用模板08(W):动态规划
动态规划 \(\tt{}0/1\) 背包 \(N\) 件物品中选取,使得选取物品总体积不超过 \(M\) 的前提下,使得物品的价值总和最大。每种物品一件, \(\mathcal{O}(N*M)\) 。 int n, m, dp[N]; int v[N], w[N]; void Zero_bag() { cin >> n >> m; for (int i = 1; i <= n; ++ i) cin >> v[iabc265
\(\textbf{F.}\) 设 \(f(i, x, y)\) 表示考虑前 \(i\) 维, 当前和 \(P\) 的曼哈顿距离为 \(x\), 和 \(Q\) 的曼哈顿距离为 \(y\) 的方案数. 则 \(f(i, x, y) = \sum _ {s = -2000} ^ {2000} f(i - 1, x - |s - p _ i|, y - |s - q _ i|)\). 按照 \(s < \min(p _ i, q _ i)\), \(sarc145
\(\textbf{A.}\) 当 \(n = 2\) 时有解当且仅当 \(S _ 1 = S _ 2\). 下设 \(n \geq 3\). 设若干次操作 \(S\) 得到是回文串 \(T\). 则 \(T _ 1 \in \{ \texttt{A} , S _ 1 \}\), \(T _ n \in \{ \texttt{B}, S _ n \}\). 而 \(T _ 1 = T _ n\). 故 \((S _ 1, S _ n) \neqIOI2022
鲶鱼塘 \((\texttt{Easy} \ 0 / 3)\) 设第 \(i\) 列的高度为 \(h_i\),若 \(h_{i - 1} > h_i < h_{i + 1}\),则可以直接令 \(h_i = 0\)。 于是可以设 \(f_{i, j}\) 表示 \(h_{i - 1} \le j = h_i\) 的答案;\(g_{i, j}\) 表示 \(h_{i - 1} > j = h_i\) 的答案,则根据上面的性质可以方便ItemRank: A Random-Walk Based Scoring Algorithm for Recommender Engines
目录概符号说明本文方法 Gori M. and Pucci A. ItemRank: a random-walk based scoring algorithm for recommender engines. In International Joint Conferences on Artificial Intelligence (IJCAI), 2007. 概 采用类似 PageRank 的方式进行推荐排序. 符号说明 \(\mathcal{UAddressing Unmeasured Confounder for Recommendation with Sensitivity Analysis
目录概符号说明问题本文方法代码 Ding S., Wu P., Feng F., Wang Y., He X., Liao Y. and Zhang Y. Addressing unmeasured confounder for recommendation with sensitivity analysis. In ACM SIGKDD Conference on Knowledge Discovery and Data Mining (KDD), 2022 概 以往的联邦学习:联邦场景下的多源知识图谱嵌入
1 导引 目前,知识图谱(Knowlege Graph)在医疗、金融等领域都取得了广泛的应用。我们将知识图谱定义为\(\mathcal{g}=\{\mathcal{E}, \mathcal{R}, \mathcal{T}\}\),这里\(\mathcal{E}=\left\{e_{i}\right\}_{i=1}^{n}\)是由\(n\)个实体(entity)组成的集合,\(\mathcal{R}=\left\{r_{i}Less is More: Reweighting Important Spectral Graph Features for Recommendation
目录概符号说明动机本文方法微调的方法其它细节代码 Peng S., Sugiyama K. and Mine T. Less is more: reweighting important spectral graph features for recommendation. In International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGI2022杭电多校部分好题题解(简要口糊)
Day 1 D - Ball 枚举两个点,计算剩下一个点的选取方法: 题解做法:从小到大加入边,相当于要求与其中一个点右边而与另一个没有,直接 \(bitset\) 维护,\(\mathcal O(\frac{Tn^3}{\omega})\) 即可通过。 考场做法:注意到与一个点曼哈顿距离 \(\le d\) 的点形成一个正方形。两个正方形的是线性代数 - 矩阵对角化
矩阵对角化 今天听 \(\texttt{m}\color{red}\texttt{yee}\) 嘴的,赶紧来补个学习笔记。 我们有点时候需要计算一个较小矩阵的 \(n\) 次幂,但直接求幂非常不方便,这是会考虑矩阵对角化,将 \(M\) 改写为 \(\mathcal{PDP^{-1}}\),这样 \(M^n\) 次就可以写为 \((\mathcal{PDP^{-1}})=\mathcGraph Convolutional Matrix Completion
目录概符号说明流程EncoderDecoder代码 van den Berg R. Kipf T. N. and Weling M. Graph convolutional matrix completion. In Proceedings of the ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (SIGKDD), 2017. 概 GCN 在推荐系统中的一次2021多篇顶会论文看OOD泛化新理论,新方法,新讨论
Arxiv 2021: Towards a Theoretical Framework of Out-of-Distribution Generalization ICML 2021 Oral: Can Subnetwork Structure be the Key to Out-of-Distribution Generalization? ICML 2021 Oral:Domain Generalization using Causal Matching ICML 2Unsupervised Semantic Segmentation by Distilling Feature Correspondences
目录概流程代码 Hamilton M., Zhang Z., Hariharan B., Snavely N., Freeman W. T. Unsupervised semantic segmentation by distilling feature correspondences. In International Conference on Learning Representations, 2022 概 本文介绍了一种无监督的语义分割方法, 只需2022.7.19 $\mathcal{S\,\,T\,L}$
\(STL\) 容器的共有特征:.begin() .end()//表示最后一个元素的后面那个位置 .size()//无符号整型 .swap(b) ::iterator//迭代器 关于迭代器 迭代器可以看做是一个广义的指针,可以是指针,也可以是对其进行类似指针操作的对象。 list<int>::iterator it;//it是迭代器名称 list<int>a; fSolution Set - IQ ↓↓
Q: 为什么说雨兔是个傻子? A: 因为一路上全是星号标记. 0. 「CF 1672H」Zigu Zagu * Link & Submission & Tag:「C.性质/结论」 一个被忽略的方法——寻找操作前后变化形式优美的特征值. 假设对序列 \(S\) 操作, 设其中 \(00\) 子段的数量为 \(x\), \(11\) 子段的数解题报告【ACM ICPC 2017–2018, NEERC – Northern Eurasia Finals】
前言 和 dX、cmll vp 的,发现这场其实我原本做过一些题,但很巧的是我都没开到这些题,且我根本不记得了,快结束时才发现。 介于有些题我做过并记录过,就不写了。 赛时通过: A B C D E F G H I J K L M by M M C D M M D C D A 题目给的限制既保证了圆不交又保证了圆与 \(x论文阅读 A Data-Driven Graph Generative Model for Temporal Interaction Networks
13 A Data-Driven Graph Generative Model for Temporal Interaction Networks link:https://scholar.google.com.sg/scholar_url?url=https://par.nsf.gov/servlets/purl/10272483&hl=zh-TW&sa=X&ei=HCmOYrzrJ8nFywSFg47QCw&scisig=AAGBfm08x5PFAPPWh_nl6CoExplainable Fairness in Recommendation
目录概符号说明流程细节疑问 Ge Y., Tan J., Zhu Y., Xia Y., Luo J., Liu S., Fu Z., Geng S., Li Z. and Zhang Y. Explainable fairness in recommendation. In International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR), 2022. 概「BZOJ3569」DZJ Loves Chinese II
题目 点这里看题目。 分析 神奇的题目啊! 以下设被删除的边集为 \(Q\)。 思路一 正常人的思路。 随便拉一棵生成树 \(T\),并定一个根。假如我们只删除了一条树边 \(e\),设 \(S(e)\) 为覆盖 \(e\) 的非树边的集合,则图不连通当且仅当 \(Q\supseteq S(e)\)。 那么删除了多条树边呢?假如我[Exercises on 2022.6.19] Hs-black 的字符串和笛辟选讲
[SDOI 2017] 苹果树 一些闲话:前排真的超级热热热热热热热热热热热热热热热热热热。要热死了要热死了要热死了 ☹️线下春眠做噩梦
牢骚:完蛋了,每天都欠一屁股债,那么多题没补,我要爆炸了!【论文笔记】(防御蒸馏)Distillation as a Defense to Adversarial Perturbations against Deep Neural Networks
有关蒸馏 (Distillation)的论文: (2006)Model Compression (2014)Do Deep Nets Really Need to be Deep?--- 论文笔记 (2015)Distilling the Knowledge in a Neural Network--- 论文笔记 摘要 本文提出了防御蒸馏(defensive distillation),主要思想为:使用从DNN中提取的知识来降低