释放AI视觉技术潜力,解码机器人“新姿势”
作者:互联网
人类可以通过听觉、触觉、嗅觉等感官来获取外界信息,但其中80%以上却来源于视觉。通过视觉,人体可以获取外界事物的大小、位置、明暗、颜色、姿态等信息,从而与周围环境完成交互。而对于自动驾驶、机器人等各种人工智能应用而言,“视觉”的意义也同样比想象中更重要。
潜力释放 场景全面落地
人工智能想要达到人类智能,困难的不是功能属性而是决策能力。即不按照固定程序,机器通过深度学习,根据所收集的数据信息,便能做出智能反馈,从而完成特定技术动作,以达到模拟人类大脑的思维路径。
而要实现决策智能,首先要了解人工智能的技术逻辑,即“看到-识别-决策-行动”,其中精准的视觉环境感知则是一切的基础。
作为一门研究机器如何“看”的学科,AI视觉的本质就是研究环境感知问题,即对输入的图像信息进行组织,对物体和场景进行识别,进而对图像内容给予解释。作为人工智能的重要核心技术,已成为实现自动化和智能化的关键。
随着AI视觉潜力的不断释放,它的应用场景正在不断被开发。基于AI视觉开发的识别技术、目标追踪技术、导航技术、避障技术已成为了各类智能设备的前端通用性技术,广泛应用于工业生产自动化、流水线控制、自动驾驶汽车(测距,导航)、安防监控、遥感图像分析、无人机、农业生产以及机器人等方面。
交互能力是机器人智能化的最大表现
以机器人为例,AI视觉在探月工程,火星探测工程中都发挥了重要作用,嫦娥探月工程中的无人巡航车便搭载了立体视觉导航系统,用于航行控制和路径规划。而除了应用导航以外,AI视觉还赋予了机器人更多的可能性。
交互能力是机器人智能化的最大表现。在完成人机交互动作之前,机器人首先需要判断出人的交互意图。而对交互意图的识别包含了从底层到高层的多层信息处理,其中人体及关键部位的检测、识别和跟踪是理解交互行为的基础。利用AI视觉技术在三维环境感知&认知能力的优势,可将采集到的各类信息进行检测、关键点定位及特征提取,给定相应的数据和标签提交到学习平台进行训练,提高识别精度,经过大量训练之后,机器人根据相应的识别可即时作出智能反馈。
大咖齐聚 共话人工智能技术与产业融合发展
在刚刚结束的由中关村服务产业联盟主办的2021 SHOW TECH活动中,来自全国的知名科技企业大咖纷纷齐聚北京中关村,共话人工智能技术与产业融合发展。
INDMEIND科技有限公司CTO 闫东坤在会上分享了公司目前的技术方向,并对现有的服务和产品做了一次深度的技术解读。
INDEMIND的核心技术是以AI视觉的为主,开发了高精度VSLAM算法、多传感器融合、视觉前端计算和高精度环境语义等一系列核心技术,并为机器人推出了可实现包括空间建图、导航定位、路径规划、智能避障、物体识别及智能交互等功能一体化的底层操作系统INDEMIND OS。
INDEMIND在算法上采用增量优化的方式,有效提高计算效率,降低处理器计算压力;在架构上,INDEMIND采用视觉为主的多传感器融合方案,通过高精度误差建模,以紧组合的形式,实现整体系统的误差估计及补偿,在各种光照环境及动态环境下都能得到高精度的定位。
在实际环境测试中,导航精度实现绝对定位精度<1%,姿态精度<1°,已达到激光方案同等水平。并针对持续使用过程中,可能由环境因素或人为因素导致产生的定位误差,INDEMIND开发了在线标定算法,可使测量精度保持稳定。
INDEMIND独有的立体视觉技术,可提供0.05-1.5m范围内误差小于1%的深度计算,构建三维空间地图,能够立体识别人、动物及十几种大类,上百种家居用品,物体识别精度<2cm,并能根据识别信息作出智能决策反馈,且通过配置业务逻辑实现跟随、看护、安防等智能逻辑,提升机器人人机交互/物机交互能力。
此外,INDEMIND视觉方案具备完善的SDK,能够快速接入不同平台系统;同时,提供标准化控制接口可快速迁入到硬件平台,能够极大地减少研发周期。
标签:AI,解码,机器人,INDEMIND,视觉,识别,交互 来源: https://blog.csdn.net/weixin_43922139/article/details/117821083