其他分享
首页 > 其他分享> > AI芯片杂谈-2022年

AI芯片杂谈-2022年

作者:互联网

AI芯片杂谈-2022年

四大类人工智能芯片(GPU、ASIC、FGPA、类脑芯片)及系统级智能芯片在国内的发展进度层次不齐。用于云端的训练、推断等大算力通用 芯片发展较为落后;适用于更多垂直行业的终端应用芯片如自动驾驶、智能安防、机器人等专用芯片发展较快。超过80%中国人工智能产业链企 业也集中在应用层。 

总体来看,人工智能芯片的发展仍需基础科学积累和沉淀,因此,产学研融合不失为一种有效的途径。
研究主体界定:面向人工智能领域的芯片及其技术、算法与应用

无芯片不AI , 以AI芯片为载体实现的算力是人工智能发展水平的重要衡量标准。 

广义的AI芯片:专门用于处理人工智能应用中大量计算任务的模块,即面向人工智能领域的芯片均被称为AI芯片。 狭义的AI芯片:针对人工智能算法做了特殊加速设计的芯片。

参考文献链接

https://mp.weixin.qq.com/s/qYv3EpZiYlld7FV-bnvSEw

https://mp.weixin.qq.com/s/wa5A73BvCQLpL_hNpx3xIw

 

 

 针对狭义的AI芯片即人工智能算法做特殊加速设计的四种主流芯片GPU、ASIC、FPGA、类脑芯片以及系统级AI芯片技术、实现 AI的主流算法及在场景中的应用情况进行解析。

AI芯片的发展历程:模仿人脑建立的模型和算法与半导体芯片发展交替进行

人工智能算法需要在计算机设备上实现,而芯片又是计算机设备运作的核心零件,因此AI芯片的发展主要依赖两个领域:第一个是模仿人脑建 立的数学模型与算法,第二个是半导体集成电路即芯片。优质的算法需要足够的运算能力也就是高性能芯片的支持。

亿欧智库2019年发布AI芯片行业研究报告认为,人工智能于芯片的发展分为三个阶段:第一阶段由于芯片算力不足,神经网络算法未能落 地;第二阶段芯片算力提升,但仍无法满足神经网络算法需求;第三阶段,GPU和新架构的AI芯片促进了人工智能的落地。 

目前,随着第三代神经网络的出现,弥合了神经科学与机器学习之间的壁垒,AI芯片正在向更接近人脑的方向发展。
中国AI芯片产业图谱

 

 基于技术架构、部署位置及实践目标的AI芯片分类 

AI芯片一般泛指所有用来加速AI应用,尤其是用在基于神经网络的深度学习中的硬件。 

AI芯片根据其技术架构,可分为GPUFPGAASIC及类脑芯片,同时CPU可执行通用AI计算,其中类脑芯片还处于探索阶段。 

AI芯片根据其在网络中的位置可以分为云端AI芯片边缘及终端AI芯片根据其在实践中的目标,可分为训练(training)芯片推理 (inference)芯片

云端主要部署训练芯片和推理芯片,承担训练和推理任务,具体指智能数据分析、模型训练任务和部分对传输带宽要求比高的推理任务;边缘 和终端主要部署推理芯片,承担推理任务,需要独立完成数据收集、环境感知、人机交互及部分推理决策控制任务。

 

 GPU:从图形处理器到通用数据并行处理器 

GPU(Graphics Processing Unit)图形处理器最初是一种专门用于图像处理的微处理器,随着图像处理需求的不断提升,其图像处理能力也得 到迅速提升。目前,GPU主要采用数据并行计算模式完成顶点渲染、像素渲染、几何渲染、物理计算和通用计算等任务。因其超过CPU数十倍 的计算能力,已成为通用计算机和超级计算机的主要处理器。其中通用图形处理器GPGPU(GeneralPropose Computing on GPU)常用于数据 密集的科学与工程计算中。 

英伟达与AMD仍占据GPU霸主地位,2018年至今,国产GPU也积极发展中,已有部分产品落地。

 

 ASIC与FPGA: AI芯片领域“兵家必争之地” 

FPGA全称是Field Programmable Gate Array:可编程逻辑门阵列,是一种“可重构”芯片,具有模块化和规则化的架构,主要包含可编程 逻辑模块、片上储存器及用于连接逻辑模块的克重购互连层次结构。在较低的功耗下达到GFLOPS数量级的算力使之成为并行实现人工神经 网络的替代方案。 

ASIC(Application-Specific Integrated Circuit)是指应特定用户要求和特定电子系统的需要而设计、制造的集成电路。ASIC从性能能效、 成本均极大的超越了标准芯片,非常适合AI计算场景,是当前大部分AI初创公司开发的目标产品。

 

 ASIC与FPGA:功能与市场定位不同,竞争关系不明显 

FPGA具有开发周期短,上市速度快,可配置性等特点,目前被大量的应用在大型企业的线上数据处理中心军工单位。ASIC一次性成本远远 高于FPGA,但由于其量产成本低,应用上就偏向于消费电子,如移动终端等领域。

目前,处理器中开始集成FPGA,也出现了可编程的ASIC,同时,随着SoC的发展,两者也在互相融合。

 

 基于不同硬件实现方式的AI芯片:系统级芯片 

在手机、可穿戴设备等端设备中,很少有独立的芯片,AI加速将由SoC上的一个IP实现。 

SoC(System-on-chip,片上系统)作为ASIC设计方法学中的新技术,始于20世纪90年代中期,是以嵌入式系统为核心,以IP复用技术为基 础,集软、硬件于一体的集成芯片。在一个芯片上实现信号的传输、存储、处理和I/O等功能,包含嵌入软件及整个系统的全部内容。 

由于高集成效能,SoC已经成为微电子芯片发展的必然趋势。

 

 基于不同计算范式的AI芯片:类脑芯片 

CPU/GPU/GFPGA/ASIC及SoC是目前用的较多的AI芯片,此类AI芯片大多是基于深度学习,也就是深度神经网络(DNN),以并行方式进 行计算的芯片,此类AI芯片又被称为深度学习加速器

如今,模仿大脑结构的芯片具有更高的效率和更低的功耗,这类基于神经形态计算,也就是脉冲神经网络(SNN)的芯片为类脑芯片

目前,部分企业产品已进入小批量试用阶段 ,类脑芯片最快将于2023成熟,能效比有望较当前芯片提高2-3个数量级。
AI芯片发展:向着更低功耗、更接近人脑、更靠近边缘的方向

现在用于深度学习的AI芯片(包括CPU、GPU、FPGA、ASIC)为了实现深度学习的庞大乘积累加运算和并行计算的高性能,芯片面积越做越 大,带来了成本和散热等问题。AI芯片软件编程的成熟度、芯片的安全,神经网络的稳定性等问题也未能得到很好的解决,因此,在现有基础 上进行改进和完善此类AI芯片仍是当前主要的研究方向。

最终,AI芯片将近一步提高智能,向着更接近人脑的高度智能方向不断发展,并向着边缘逐步移动以获得更低的能耗。

 

 AI芯片发展:计算范式创新方向及其硬件实现

AI硬件加速技术已经逐渐走向成熟。未来可能更多的创新会来自电路和器件级技术的结合,比如存内计算类脑计算;或者是针对特殊的计 算模式或者新模型,比如稀疏化计算和近似计算,对图网络的加速;或者是针对数据而不是模型的特征来优化架构。 

 

 

 同时,如果算法不发生大的变化,按照现在AI加速的主要方法和半导体技术发展的趋势,或将在不远的将来达到数字电路的极限(约1到 10TFlops/W),往后则要靠近似计算模拟计算,甚至是材料或基础研究上的创新。

2022年 AI芯片火爆,元宇宙、生命科学深度融合

伴随全球数字化进程的加快,人工智能成为引领未来世界发展的关键技术。近年来,各国政府、科研教育机构、科技企业及专家学者纷纷加入到推动人工智能产业发展的过程中,人工智能技术与产业融合程度不断加深。

人工智能产业

最新概况

近年来,人工智能技术得到快速发展,其对经济社会发展以及生产生活方式变革将产生重大影响。全球范围内美国、欧盟、英国、日本、中国等国家和地区均大力支持人工智能产业发展,相关新兴应用不断落地。根据Deloitte报告预测,全球人工智能产业规模从2017年的6,900亿美元增长至2025年的64,000亿美元,2017-2025年复合增长率32.10%,呈现较快增长走势。

 

 

 ▲2017-2025年全球人工智能产业规模

投融资方面,全球人工智能投资市场近年来快速发展,整体融资规模从2015年的63亿美元增长至2021年的668亿美元。2021年全球医疗AI融资规模较高达到122亿美元,金融科技AI融资规模为39亿美元,零售AI融资规模为37亿美元。

 

 

 ▲2015-2021年全球AI融资规模和融资数量

 

 

 ▲2015-2021年全球医疗AI融资规模和融资数量

 

 

 ▲2015-2021年全球金融AI融资规模和融资数量

 

 

 ▲2015-2021年全球零售AI融资规模和融资数量

尚普研究院根据CB Insights数据统计,全球现有人工智能企业超过11,000家,累计融资总额超过2,500亿美元。其中,美国拥有AI相关企业达到4,171家,累计融资金额达到1,601.9亿美元,在公司数量和融资规模上均位居世界首位;中国拥有1,275家AI公司,融资总金额为470.7亿美元,位居世界第二位。英国、印度、加拿大等国家也各自拥有百余家AI公司,AI企业数量排名前10位的国家占全球总数的78.3%,累计融资金额则达到全球总额的95%,AI企业和融资活动集中在美、中、英等国家。

 

 

 ▲全球主要国家AI企业数量与累计融资规模

尚普研究院将处于全球人工智能产业链中的典型上市公司进行整理,名单中以具备综合实力的科技巨头为主,国外如Google、Amazon、Microsoft等,国内如百度、阿里巴巴、腾讯等。此外,国内的商汤、科大讯飞等具有强技术属性的AI公司受关注度较高。

 

 

 ▲全球人工智能产业链主要上市企业名单

二、AI芯片,广泛应用于云、边、端各类场景

AI芯片

渗透率不断提升

AI芯片(AI Chip):专门用于处理人工智能相关的计算任务,其架构针对人工智能算法和应用进行专门优化,具有高效处理大量结构化和非结构化数据的特征,可高效支持视觉、语音、自然语言处理等智能处理任务。

当前AI芯片类型主要涉及GPU、FPGA、TPU、IPU、DPU、NPU等类别。从应用场景来看,AI芯片广泛应用于云端、边缘端、终端等各类场景,其中云端AI芯片具备高性能特征,终端AI芯片具有低功耗和高能效特性,而边缘端AI芯片性能介于云端和终端之间。

目前,评价AI芯片性能的指标主要包括:TOPS、TOPS/W、时延、成本、功耗、可扩展性、精度、适用性、吞吐量、热管理等。其中,TOPS/W是用于度量在1W功耗的情况下,芯片能进行多少万亿次操作的关键指标

近年来,MIT、Nvidia等研发人员开发专门的芯片软件评价工具对于AI芯片的性能做出了系统、全面评价,如Accelergy(评估芯片架构级能耗)、Timeloop(评估芯片运算执行情况)等。MLPerf是由来自学术界、研究实验室和相关行业的AI领导者组成的联盟,旨在“构建公平和有用的基准测试”,可用于衡量深度学习软件框架、AI芯片和云平台性能。

CPU作为通用处理器,包含控制单元(指令读取及指令译码)、存储单元(CPU片内缓存和寄存器)及运算单元(ALU约占20%CPU空间)三个主要模块,但受制于成本/功耗/技术难度/算力瓶颈等问题,目前仍未出现适配AI高算力要求的主流CPU产品。

GPU是一种由大量核心组成的大规模并行计算架构,拥有较多运算单元(ALU)和较少缓存(cache),是一款专为同时处理多重任务而设计的芯片,具备良 好的矩阵计算能力和并行计算优势,能满足深度学习等AI算法的处理需求,成为主流云端AI芯片

英伟达A100芯片为多个SM单元(Streaming Multiprocessors,流式多处理器)构成的并发多核处理器,不同SM单元共享L2 Cache存储资源进行数据访存,A100的安培架构中有128个SM核,SM结构是芯片架构升级的核心。Tensor Core是英伟达GPU架构中专为深度学习矩阵运算设置的张量计算单元是英伟达GPU系列深度学习运算加速的核心。

Tensor Core处理的是大型矩阵运算,其执行一种专门的矩阵数学运算,适用于深度学习和某些类型的高性能计算。Tensor Core功能是执行融合乘法和加法的运算,其中两个4*4 FP16矩阵相乘,然后将结果添加到4*4 FP32或FP64矩阵中,最终输出新的4*4 FP32或FP64矩阵。

AIoT通过融合AI和IoT技术实现万物智联,其主要涉及到安防、移动互联网等多样化场景。在智慧安防方面,由于终端摄像头每天产生大量的视频数据,若全部回传到云数据中心将会对网络带宽和数据中心资源造成极大占用。

通过在终端加装AI芯片,可实现数据本地化实时处理,即仅将经过结构化处理、关键信息提取后带有关键信息的数据回传云端,大大降低网络传输带宽压力。当前主流解决方案为前端摄像头设备内集成AI芯片,在边缘端采用智能服务器级产品,后端在边缘服务器中集成智能推理芯片。目前国内外企业正在加大对边缘端AI视觉处理芯片的研发和投入,相关芯片产品如英伟达Jetson AGX Xavier、地平线旭日3、华为海思Hi3559A V100等。

随着智能驾驶等级的提高,技术不断迭代促使车用AI芯片性能逐步增强。SAE(国际自动机工程师学会)将自动驾驶划分为六个级别:L0(非自动化)、L1(驾驶员辅助)、L2(部分自动化,如交通拥堵辅助和高级紧急制动+转向)、L3(有条件自动化,如高速道路自动驾驶)、L4(高度自动化,如城市自动驾驶)和L5(完全自动化,如全场景自动驾驶)。

从L3开始每一级别均需要强大的算力进行实时分析,处理大量数据,执行复杂的逻辑运算,对计算能力有着极高要求。每一级别自动驾驶汽车所需的芯片计算能力一般认为是:L3约为250TOPS,L4超过500TOPS,L5超过1,000TOPS。随着芯片设计和制造工艺的提高,车用AI芯片正朝着高算力、低功耗的方向发展。

 

 

 ▲全球主要车用AI芯片概览

预计到2025年,全球车用AI芯片市场规模将突破17亿美元。随着汽车控制方式逐渐由机械式转向电子式,每辆汽车对车用AI芯片需求提升,带动车用AI芯片长期发展。根据Yole预测,2025年全球车用AI芯片产量将达到67.19亿颗,市场规模将达到17.76亿美元,年复合增速分别达到99.28%和59.27%。此外,车用AI芯片逐渐往高能效方向发展,如英特尔2022年推出的EyeQ Ultra自动驾驶汽车芯片,基于经过验证的Mobileye EyeQ架构而打造,其含有8个PMA、16个VMP、24个MPC、2个CNN Accelerator视觉处理单元(VPU),通过优化算力和效能以达到176TOPS,可满足L4自动驾驶场景,该产品将于2023年底供货,预计在2025年全面实现车规级量产。

 

 

 ▲2021-2025年全球车用AI芯片产量

 

 

 ▲2021-2025年全球车用AI芯片市场规模

AI芯片在图像识别、语音识别和快速建立用户画像等方面具有重要作用。根据Yole预测,2026年全球消费电子AI芯片市场规模将达到55.8亿美元,其中笔记本电脑、平板电脑和智能手机AI芯片渗透率将分别达到100%、100%和91%,未来全球消费电子AI芯片市场规模和渗透率呈现逐步增长态势。

 

 

 ▲2021-2026年全球消费电子AI芯片市场规模及渗透率

三、人工智能趋势展望

前沿技术、产业融合和热点问题

1、前沿技术

Transformer模型:由Google的Ashish Vaswani等人和多伦多大学的Aidan N.Gomez于2017年首次提出,是一种基于自注意力机制(在Transformer模型中起基础作用,可减少对外部信息的依赖,更擅长捕捉数据或特征的内部关系,优化模型训练结果)的深度学习模型,该模型主要由编码器和解码器构成,模型本身并行度较高,在精度和性能上均要优于传统的循环神经网络(RNN)和卷积神经网络(CNN)。Transformer模型在简单语言问答和语言建模任务上有着较好表现。Transformer模型仍存在一些不足,如对局部信息的获取能力弱于RNN和CNN、不能很好表征单词的位置信息、顶层梯度消失等问题。

 

 

 ▲Transformer模型

BERT模型:由Google于2018年提出,是基于Transformer Encoder构建的一种模型。模型基本思想:给定上下文来预测下一个词。BERT模型架构是由多接口组成的Transformer编码器层,即全连接神经网络增加自注意力机制。对于序列中的每个输入标记,每个接口计算键、值和查询向量,相关向量用于创建加权表示,合并同一层中所有接口输出并通过全连接层运行。每个层使用跳跃连接进行包装,之后将层归一化处理。BERT模型传统工作流主要包含预训练和模型微调两部分,其中预训练环节涉及MLM和NSP两个半监督任务;模型微调环节包含一个或更多全连接层,通常增加到最终编码器层的顶部。BERT模型已集成在谷歌搜索中,并提升10%的查询准确率。

 

 

 ▲BERT模型(Bidirectional Encoder Representation from Transformer)

ViT模型(Vision Transformer):由Google公司Alexey Dosovitskiy等人在2021年提出,其原理是将原本用于NLP领域的基于自注意力机制的Transformer模型应用于计算机视觉领域。相比于传统CNN算法,ViT模型在大数据集上识别率更高、成本更低。ViT模型的基本原理:1)将图片切分为相同大小的块,每个块可以看做一个“单词”;2)每个块经过线性投射层(全连接层)的操作得到位置编码(图像分类问题转化为NLP问题);3)将线性投射后的图像块输入由L层Transformer模型构成的编码器;4)输出结果经过多层感知机(MLP)得到最终分类结果。目前,ViT已发展出多种改进模型,在计算机视觉物体检测等方面具有很大应用潜力。

 

 

 ▲ViT模型(Vision Transformer)

自监督学习(Self-supervised Learning):旨在对于无标签数据,通过设计辅助任务来挖掘数据自身的表征特性作为监督信息,来提升模型的特征提取能力,将无监督问题转化为有监督问题的方法。辅助任务是自监督学习最关键内容,目前主要包括自然语言处理NLP和计算机视觉CV两大类任务。其中,自然语言处理包括单词预测、句子序列预测、词序列预测;计算机视觉包括图像任务、视频任务等。著名AI科学家Yann Lecun曾经提出,如果将人工智能比作一块蛋糕,蛋糕的大部分是自监督学习,蛋糕上的糖衣是监督学习,蛋糕上的樱桃是强化学习,自监督学习在人工智能领域占据重要地位。

 

 

 ▲自监督学习(Self-supervised Learning)

类脑计算(Brain-Inspired Computing):又称神经形态计算,是借鉴生物神经系统信息处理模式和结构的计算理论、体系结构、芯片设计以及应用模型与算法的总称。类脑计算可模拟人类大脑信息处理方式,以极低的功耗对信息进行异步、并行、高速和分布式处理,并具备自主感知、识别和学习等多种能力,是实现通用人工智能的途径之一。2020年10月,清华大学张悠慧等人在Nature杂志发表论文,首次提出“类脑计算完备性”,填补类脑研究完备性理论与相应系统层次结构方面的空白。类脑计算技术的发展将推动图像识别、语音识别、自然语言处理等前沿技术的突破,有望推动新一轮技术革命。

 

 

 ▲类脑计算(Brain-Inspired Computing)

AI大模型(Foundation Models):是指经过大规模数据训练且在经微调后即可适应广泛下游任务的模型。随着参数规模不断扩大,AI大模型在语言、视觉、推理、人机交互等领域涌现出新能力。由于各类AI大模型可有效应用于多种任务,各类AI大模型同质化特征愈发明显。伴随2017年Transformer模型的提出,深度学习模型参数数量突破1亿个。此后,模型参数数量迅速增长,其中BAGUALU模型于2021年7月发布,参数规模已达到174万亿个。模型参数规模的增大,有助于进一步提高模型的运算精度。AI大模型的应用向多个应用场景提供预训练方案,其使用的自监督学习方法也可减少标注数据的使用,降低训练研发成本。具体而言,AI大模型在医疗和生物医药、法律和教育等领域拥有广阔应用前景。

 

 

 ▲AI大模型(Foundation Models)

2、产业融合

元宇宙(Metaverse):本质上是对现实世界的虚拟化、数字化过程,其主要包括基础设施、人机交互、空间计算等七层架构,其中计算机视觉、AI芯片和嵌入式AI等人工智能技术及基础设施共同助力元宇宙加速落地。元宇宙涵盖芯片、云计算、技术平台、通信、智能设备、内容服务等庞大生态系统。当前全球科技企业纷纷投入到元宇宙建设热潮中,如Nvidia、Meta、Microsoft等科技巨头及国内企业推出元宇宙解决方案,应用于办公、娱乐、设计等领域。

 

 

 ▲元宇宙七层经典架构(The Seven Layers of the Metaverse)

人工智能与生命科学:AlphaFold是由谷歌旗下DeepMind团队基于深度学习算法的蛋白质结构预测的人工智能系统,其被视作人工智能深入到生物领域的一大突破。目前AlphaFold已对98.5%的人类蛋白质结构做出预测,此外还对于大肠杆菌、果蝇、斑马鱼、小鼠等研究时常用生物的蛋白质结构进行预测。

DeepMind与欧洲生物信息研究所(EMBL-EBI)联合发布由AlphaFold预测的蛋白质结构数据库—AlphaFold Protein Structure Database,该数据库已包含约35万个蛋白质结构。

人工智能与新冠疫情:Eva是用于检测入境旅客新冠病毒的强化学习系统,其由美国南加州大学、美国宾夕法尼亚大学、AgentRisk以及希腊相关专家合作开发。2020年,Eva系统被部署到希腊所有入境口岸(机场、港口、车站等),用于识别限制新冠无症状旅客入境。

借助Eva系统,希腊每天对抵达或途经该国大约41,000户家庭中约17%人员进行检测。通过比较,Eva发现感染的旅行者比原先严格按照其国籍检测的方式多1.25-1.45倍。与随机检测相比,Eva在旅游旺季发现感染的旅行者是前者的4倍,非旅游旺季的结果是随机检测的1.85倍,取得良好检测效果。

人工智能与半导体:功耗、性能和面积(PPA)是芯片设计中的三个重要优化指标。为使PPA优化结果更佳,同时为应对芯片安全性需求提升、设计规模攀升及工艺节点微缩等趋势,EDA厂商开始利用AI技术解决半导体芯片设计问题。在EDA中,数据快速提取模型、布局和布线、电路仿真模型、PPA优化决策等环节均有AI技术参与。

AI应用于EDA主要有两种形式:1)应用于EDA工具以优化单一芯片设计环节,如Google、西门子EDA;2)应用于整体芯片设计流程优化,如Cadence、Synopsys。此外,华大九天、台积电等公司亦将AI纳入芯片生产各个环节。将AI与芯片设计工作结合,不仅有助于释放人力成本、提升工作效率,还将进一步弱化人在其中的作用,甚至可能改变EDA产业格局。

 

 

 ▲EDA企业AI技术应用案例

人工智能与碳中和:自2015年第21届联合国气候变化大会后,碳中和已成为全球共识。当前,碳中和已获得全球超过40个国家和地区承诺,其中大部分国家宣布将于2050年左右实现碳中和目标。从整体来看,人工智能将从预测、监测、优化三大环节助力碳中和,如预测未来碳排放量、实时监测碳足迹、优化工作流程等。根据BCG数据,到2030年人工智能的应用有望减少26-53亿吨二氧化碳排放量,占全球减排总量5-10%。从行业来看,人工智能在不同领域及不同环节发挥重要作用,其主要在城市、制造、汽车、电力四大领域助力“碳中和”。

人工智能与冬奥会:2022年2月,第24届冬季奥林匹克运动会成功在北京举办。人工智能技术在冬奥会开幕式、比赛项目、运动员训练等多个场景实现应用,助力科技冬奥目标实现。

Intel打造的3DAT技术,一方面可以帮助教练员提出科学训练计划,有效提升运动员训练效率,同时还可以在开幕式中实现与演员互动效果;商汤科技为冬奥会冰壶比赛打造的“冰壶运动轨迹捕捉”技术,实现对冰壶检测追踪和轨迹捕捉。未来,人工智能与体育赛事、体育运动的融合程度将逐步加深。

3、热点问题

人工智能产业发展的路径探究:结合人工智能产业特点,梳理出“创新投入—科研成果—商业化落地”的发展路径。其中,创新投入主要涉及人才投入、资本投入和要素投入;科研成果涵盖论文、开源软硬件和专利;商业化落地包含AI产品、AI解决方案和AI平台。当前人工智能产业从投入端到科研成果端发展较快,人工智能在学术研究领域不断取得突破。

但另一方面,人工智能从技术成果到商业化落地环节仍面临诸多挑战,如算法训练的通用性不强、泛化能力不强、商业化成本较高、相关产业及企业对于人工智能技术接受程度不高等问题,需要不断从政策机制、技术发展以及管理层观念等方面不断完善,才能最终推动人工智能在商业化方面实现快速发展。

热点问题:伦理与安全:随着人工智能技术的高速发展与普及应用,由其产生的伦理与安全问题日益受到关注。人工智能不但延续信息技术的伦理问题,又因深度学习算法具有不透明、难解释、自适应、运用广泛等特征而在基本人权、社会秩序、国家安全等方面产生新问题。

人工智能典型伦理问题包括:威胁公民生命安全、算法歧视、威胁隐私权、影响公民知情权和监督权、虚假信息泛滥、破坏市场竞争环境、引起权力结构变化、影响劳动者权益、AI武器威胁世界和平等问题。目前,全球人工智能治理尚处于初期探索阶段,各国正加大人工智能领域的治理力度,出台人工智能伦理相关制度,以预防AI在应用过程中产生的风险。未来,全球人工智能治理将由准则向操作指南、行业标准等层面逐步深入,加快构建人工智能国际治理体系。

就业:人工智能将通过改变劳动分工与人力资本价值结构深刻影响就业市场。AI与劳动力就业关系包含三个方面:1)当AI成本低于劳动力工资水平、且产品附加值又不足以弥补用工成本时,AI应用将直接替代相应劳动岗位;2)AI应用填补劳动者无法胜任的岗位,既可降低错误率,提高产品质量,也可保护人身安全和健康;3)AI应用催生新工作岗位,AI带来生产生活方式的变革与社会效率的提高,全社会产能实现跃升,进一步产生新工作岗位。

世界经济论坛发布的《2020未来就业报告》预计,到2025年,机器可能会取代8,500万个工作岗位,在AI推动下经济增长会产生9,700万个新岗位。随着AI技术发展,工作岗位、员工技能和任务类型将重塑,就业替代呈现行业性特征,总体就业岗位数量仍将上升。

国家间技术限制:当前,开源深度学习框架、开源工具集、开源应用软件快速发展,国际间AI技术交流不断深入,但部分国家和政府间组织为保持自身AI技术优势,限制AI技术交流。

如美国在2021年6月发布《创新与竞争法案》,在AI、无人机、芯片等多个领域限制与中国合作;美国商务部于2019年10月和2020年5月将商汤科技、科大讯飞等多家中国AI公司加入其实体清单,实施投资限制;2022年白宫修订“关键和新兴技术(CET)清单”,对AI技术具体分类并实行技术封锁。欧盟则于2021年9月通过最新出口管制法规,内容涵盖人脸识别等AI技术。上述相关政策与未来人工智能发展趋势背道而驰,不利于各国开展技术合作。

人工智能在60多年的发展过程中经历了几度起落。近年来,移动互联网高速发展带来的海量数据、深度学习算法的持续发展等共同推动人工智能技术在多个领域取得突破,与之前技术革命中的蒸汽机、电力等新技术相比,人工智能对经济社会的影响将更具颠覆性,成为新一轮科技革命和产业变革的重要驱动力量。

 

参考文献链接

https://mp.weixin.qq.com/s/qYv3EpZiYlld7FV-bnvSEw

https://mp.weixin.qq.com/s/wa5A73BvCQLpL_hNpx3xIw

标签:AI,模型,人工智能,杂谈,技术,芯片,2022,GPU
来源: https://www.cnblogs.com/wujianming-110117/p/16403867.html