视觉感知智能化 构筑领先精准视频智能
人工智能是让计算机模拟人类去看、去听和去读。图像、语音和文字的理解,基本构成了现在的人工智能。实验心理学家赤瑞特拉(Treicher)的著名心理实验得出:人类感官获取信息有83%来自视觉,所以在当前人工智能应用中,50%以上与机器视觉有关。人类进入智能社会的基础是数字化,万物感知是将物理世界数字化的前提,65%的行业数字化信息来自于机器视觉,而前端视觉感知的种类、数量和质量决定了智能化程度的高低。
作为机器视觉的感知终端,智能摄像机在5年前便已经出现,与传统高清网络摄像机(IPC)不同,在AI深化的智能时代,前端摄像机越智能,就越能适应复杂多变的环境,抓住稍纵即逝的时机,采集到更高质量的视频数据。但是受限于当时算法和芯片技术,在雨天、沙尘、雾霾等不可抗拒的环境因素影响时,会导致成像质量不佳;另外场景中的角度、遮挡、光线和像素等因素也会导致目标识别的准确率偏低,很难将智能真正应用于实战。尤其是复杂场景下的视频采集一直是业界的难题,比如大角度、低照度人脸抓拍、夜间低照度场景人车抓拍,白天玻璃强反光下车内人脸抓拍等。
面对这些挑战,整个业界对摄像机智能化的诉求越来越高,摄像机已经从以“编码”为中心的10年一代转向了以“人工智能”为核心的3~6个月一轮迭代,要求摄像机内置智能算力、有开放OS、能够在线加载算法。让摄像机从“看得见、看得清”,进而能够“看得懂”。前端视觉感知智能化,提升了算力效率同时降低了反应时间,进而提升了视频、图片及各种数据采集的质量和协同性,有效了解决了上述各种挑战,为前端“全息感知”奠定基础。
华为机器视觉提出前端智能摄像机“软件定义”的理念,在2020年6月主导首个软件定义摄像机国际标准,推动架构及接口形成ITU-T标准。通过领先的前端智能架构,通过AI算力加持,引领在图像和智能感知优势与创新,通过软件定义实现多业务多场景的智能按需使用,可持续演进。华为摄像机以SuperColor算力换存储、SDC OS、IoT生态仓、HoloSens Store等多项突破性创新,深化视觉感知智能化,提升全天候全场景的视觉数据采集的质量,构筑领先精准视频智能。
机器视觉前端智能化,主要有以下几个方面考虑:
第一,增强全天候图像质量:根据环境的照度、目标速度等变化,前端AI算法实时调节摄像机ISP参数(如快门、光圈、曝光等系数),输出最佳的抓拍图(去重的、保证最优姿态的图片);前端智能还可以精准地做到人脸和人体数据的关联。从而增强全天候的图像质量。
第二,适配多样性场景:前端智能可适配复杂多场景,如摄像机在不同时段、不同预置点设置不同场景化智能,白天做车辆排队长度检测、事故检测、夜间做违停抓拍检测,或者预置点间不同智能切换,充分发挥智能化的效能。软件定义来消化客户个性化/场景化的算法诉求,降低多样化算法交付的敞口风险,提升客户智能创新的响应能力。如华为X/M/C/D四大系列摄像机均支持SDC OS,使得软件与硬件解耦,通过轻量化容器技术构建面向多算法的集成框架,让各算法独立运行,实现算法的快速加载与在线迭代。同时,华为推出HoloSens商城,旨在聚合机器视觉生态合作伙伴,为客户提供面向各行业应用场景的智能能力选择。
第三,实现ms级联动系统响应:前端智能有利于业务快速闭环和系统间联动,如车路协同V2I高速运动场景,视频感知的路侧信息要毫秒级实时发布给附件车辆,保障通行安全。摄像机与补光灯、雷达、红绿灯信号检测器等外部配套设备需要毫秒级完成联动,在恰当时刻曝光、针对不同区域启动精准补光,与红绿灯信号检测器周期同步,输出有效的取证图片。此外如雷球联动、枪球联动、人车道闸联动场景,前端智能化更有利于保障业务的实时性,大幅提升系统的响应效率。
第四,提升算力效能,降低整体TCO:前端摄像机仅处理单路视频,对算力制程要求比后端更低,信号处理时可直接从RawData获取数据,算力成本低,处理效率高。前端智能化输出优质图片,可减少后端二次解码环节,专注于智能分析。同样算力下,图片分析比视频分析的效率高10倍。在1000路智能分析的典配场景,前端智能比后端智能的TCO节约55%。
第五,提升工程效率:前端智能化系统架构有支持多算法并行、多功能合一的优势,如一个摄像机可同时支持电警、卡口、流量检测等业务能力,而原来需要三个不同设备才能实现,所以前端智能大大降低了工程实施的难度,提升了工程效率。
视觉感知智能化,可以极大提升数据采集的质量,同时降低后端数据处理的算力消耗,降低整体TCO,同时分布式处理也提升了系统可靠性。视觉感知智能化,从源头影响数据的产生,支撑释放海量视频数据的价值,构建物理世界的数字孪生。