首页 > TAG信息列表 > 解释性

可解释机器学习(李宏毅)学习笔记

可解释机器学习(李宏毅) 学习笔记 本文为李宏毅老师机器学习课程中的可解释章节学习总结。 可解释的需求 可解释性目的在于理解模型内部的决策逻辑。 如果我们不去分析模型的决策逻辑,那么我们无法理解模型学到了什么。甚至部分情况下模型并没有学到我们想要的决策逻辑。此处课程举

编译型和解释型的区别

编译型 直接全文翻译,一次到底,但是更新了就比较麻烦 由于比较简单,所以一些操作系统就是用编译型写的 对速度要求高 解释性 就是写一句翻译一句,实时更新 对速度要求不高 java两者都有:Javac->java

Discovering symbolic policies with deep reinforcement learning

发表时间:2021(ICML 2021) 文章要点:这篇文章想说神经网络的解释性太差,用简单的符号式子来表示策略具有更好的解释性,而且性能也不错。这里符号式子就是一个简单的函数。作者就提出了一个叫deep symbolic policy的算法来搜索symbolic policies。算法先有一个Policy Generator模块,来构

如何提升推荐系统的可解释性?京东智能推荐卖点技术全解析

导读:京东智能商客之推荐卖点是基于NLP的产品,目前已广泛地助力和赋能于京东商城的各个平台。今天和大家分享一下自然语言处理如何在工业界落地实现。主要围绕以下5个方面展开: 推荐卖点技术背景 架构描述 核心AI技术 模型研发与实践 产品的落地与回报 -- 01 推荐卖点技术背景 1.

关于“编译型语言”和“解释性语言”的区别

1.编译型语言在程序执行之前,有一个单独的编译过程,将程序翻译成机器语言,以后执行这个程序的时候,就不用再进行翻译了。 2.解释型语言,是在运行的时候将程序翻译成机器语言,所以运行速度相对于编译型语言要慢。 3.C/C++ 等都是编译型语言,而Java,C#等都是解释型语言。 4.虽然Java程序在运

Java基础知识

可能遇到的情况 Java大小写敏感 尽量使用英文 文件名和类名必须保证一致 符号使用了中文 编译型和解释性 Java的运行机制 编译型:有翻译的程序(compile) 优点:操作方便,速度比较高,常用于C/C++ 解释性:用一下翻译一下(就好比单发枪一样!!!!) 优点:网页的编写 Java是先编译后解释的 使

常用机器学习解释性算法:特征权重,feature_importance, lime,shap

目录 1.线性回归中的特征权重β: 2. 树模型中的feature_importance: 3. lime: 4. shap: 5. 各种算法对比: 1.线性回归中的特征权重β: 线性模型中,特征可以归类为:数值特征(比如气温)、二进制特征(性别0/1)、范畴特征(天气:下雨、阴天、晴天,使用one-hot编码,让具体类别有自己的二进制选项)

Transformer可解释性:注意力机制注意到了什么?

©原创作者 | FLPPED 论文: Self-Attention Attribution: Interpreting Information Interactions Inside Transformer (2021 AAAI论文亚军) 地址: https://arxiv.org/pdf/2004.11207.pdf 01 研究背景 随着transformer模型的提出与不断发展,NLP领域迎来了近乎大一统的时代,绝大多数预训

python基本特性

Python是一种高级、多目的的编程语言,在很多领域和技术层面都有广泛的应用。 Python的主要特性 1、开源 Python和大多数的支撑库和工具都是开源的,通常可以非常灵活的使用而且有开放的协议。 2、解释性 也可以使用Cpython完成将解释性语言转化为实施可执行的Python二进制代码的应用

机器学习的可解释性

机器学习的可解释性 人工智能技术与咨询  来源:《计算机研究与发展》,作者陈珂锐等 摘 要 近年来,机器学习发展迅速,尤其是深度学习在图像、声音、自然语言处理等领域取得卓越成效.机器学习算法的表示能力大幅度提高,但是伴随着模型复杂度的增加,机器学习算法的可解释性越差,至今,机

编译型和解释型 程序运行机制

编译型好比是直接翻译好的英文书,后续没办法修改或更新 解释性的话就相当于是有一个翻译给你即时翻译书的内容包括后续更新等等 程序运行机制

[Python]常用知识

Python 常用知识 编译型语言 和 解释性语言 解释性语言 编译型语言 概念 计算机不能直接的理解高级语言,只能直接理解机器语言,所以必须要把高级语言翻译成机器语言,计算机才能执行高级语言的编写的程序。翻译的方式有两种,一个是编译,一个是解释。两种方式只是翻译的时间不同

可解释性与积分梯度 Integrated Gradients

积分梯度是一种神经网络可解释性方法此方法首先在论文《Gradients of Counterfactuals》中提出,后来 《Axiomatic Attribution for Deep Networks》再次介绍了它,这已经是2016~2017年间的工作了此方法已得到较多应用,但是也有一些反对者表示其给出的结果对于积分路径敏感,不能给出

随机part交换:细粒度识别的增强模型泛化和可解释性

摘要   学习用于细粒度识别的中级表征很容易被数量有限的区分度模式所控制,从而降低其鲁棒性和泛化能力。为此,我们提出了一种新的随机部分交换(SPS)方案来解决这个问题,对样本之间的部分特征进行元素交换,以在训练期间注入噪声。它具有类似于Dropout(什么是Dropout)的正则化效果,这促

编译型语言和解释性语言区别 以及运行流程

1.编译型语言全局翻译,解释型语言实时更新 2.编译型语言通常在操作系统(windows)以及各种语言c c++ 解释型语言通常用在网页执行速度不需要过快 3.源程序(.Java文件)通过Java编译器变成字节码(.Class文件)—(虚拟机{32 64} 类装载器)----字节码校验器-----解释器------操作系统平台 Java

神经网络的可解释性综述【A Survey on Neural Network Interpretability】

人工智能可解释性的背景意义 1.1 什么是可解释性 Interpretability (of a DNN) is the ability to provide explanations in understandable terms to a human. F Doshi-Velez & B Kim, 2017 解释(Explanations),是指需要用某种语言来描述和注解 理想情况下,严谨的数学符号-逻辑

2021-06-30

机器学习可解释性 背景 2017年国务院发布的《新一代人工智能发展规划》中明确了人工智能基础理论的研究方向。针对人工智能变革方向,高级机器学习理论重点要突破自适应学习、自主学习等理论方法,实现具备高可解释性、强泛化能力的人工智能。 高级机器学习理论。洋酒统计学习理

机器学习可解释性历史最全方法、论文及资源整理分享

    机器学习业务应用以输出决策判断为目标。可解释性是指人类能够理解决策原因的程度。机器学习模型的可解释性越高,人们就越容易理解为什么做出某些决定或预测。模型可解释性指对模型内部机制的理解以及对模型结果的理解。其重要性体现在:建模阶段,辅助开发人员理解模型,进行

机器学习可解释性

20210508 - (随笔,后续有时间在对概念有了深入理解之后再进行整理) 0. 引言 今天不想写论文,就想起了之前关注的一个内容,机器学习的可解释性。在之前的时候,或多或少了解这个东西,发现他更多的是从特征的角度来解释,这个特征怎么影响了模型。但是我一直理解不了的就是,这个概念跟以往

但是机器学习模型本质上是相关性的学习,大量弱特征的引入在提升模型效果的同时,就会削弱可解释性。

但是机器学习模型本质上是相关性的学习,大量弱特征的引入在提升模型效果的同时,就会削弱可解释性。 滴滴治理算法探索与实践 原创 网约车技术团队 滴滴技术 2021-04-16 https://mp.weixin.qq.com/s/Kn0NToHvCPvIBvSIIN18cQ  

让我如何相信你 -- NLP模型可解释性的6种常用方法

一、前言关于NLP模型可解释性的方法有很多种,有一些需要深入到模型内部,透视出参数的传递过程,我们可以将其归类为“白盒方法”。而有一些方法,则不需要模型内部的参数,是通过输入和输出的关系,来“猜测”模型可能的推理过程,我们可以将其归类为“黑盒方法”。两种类型的方法具有各自的优

可解释性论文阅读笔记2-Leveraging Language Models

ACL2019的一篇文章,主要亮点是利用预训练语言模型中的丰富信息生成解释,辅助CQA(Commonsense Question Answer)任务,对比CQA的the state of the art baseline,提升了10%的准确率,文章的链接如下:https://www.aclweb.org/anthology/P19-1487/Explain Yourself! Leveraging Language Models

图神经网络GNN的可解释性问题与解释方法最新进展

什么是图神经网络图 1:图像卷积与图卷积。卷积神经网络(Convolutional Neural Network,CNN)和图神经网络(Graph Neural Network,GNN)的主要区别是什么?简单来说,就是输入数据。你可能还记得,CNN 所需的输入是一个固定大小的向量或矩阵。然而,某些类型的数据自然是用图表示的,如分子、引用网络或

模型可解释性在保险理赔反欺诈中的实践

分享嘉宾:张洪涛编辑整理:马韶光出品平台:DataFunTalk导读:真实的理赔产品中,绝大部分客户是就医或者患病诊断患病之后去找保险公司进行申请理赔,但是其中有一小部分客户他会制造假的就医记录或者带病投保到保险公司骗取保险金,怎么样保证正常投保客户能够正常理赔的保险权益,同时避免骗保

GAN可解释性解读:Closed-Form Factorization of Latent Semantics in GANs

GAN可解释性,利用范数寻找语义向量 论文名:Closed-Form Factorization of Latent Semantics in GANs摘要 原理介绍实验在对这种方式进行的复现中,我选用了animeface这个数据集。 论文名:Closed-Form Factorization of Latent Semantics in GANs 摘要  GAN的