行业动态

5G时代的AI效能提升 改变了智能生活的哪些细节?

2020年,如果有人和你提到 AI给生活带来的改变,你会想到什么?在如今越来越多被提到的 AI落地投入实用的案例中,其实要回答这个问题很简单:自动驾驶需要车载AI、Google利用AI的深度学习能力预测洪水、更富未来感的“智慧城市”,以及更多医疗健康领域的新研究进展;AI带给生活的改变已经随处可见。



抛开高大上的商业概念,就最贴近我们实际生活的AI来讲,目前分为两大发展方向 ——将算力保存在数据中心的云计算,以及将人工智能算法基于本地设备的AI效能运行的分布式计算;与前者更多用于商业领域不同,后者目前已经非常深入我们日常生活的了:我们目前手机摄影领域最热门的计算摄影 ——包括超清夜景、自动连拍,交给手机来选择效果最好的那张;乃至智能识物、实时文字翻译功能,以及颇受好评的 AI自动拦截骚扰电话功能,其实都是借助于手机 AI算力的飞速提升而得以实现。

但在当前,分布式的 AI效能,能体现在智能手机上,但也远不止智能手机,在我们数字生活中的不少场景中,AI计算都已经开始发挥出其特殊的优势,来着力解决传统智能设备使用中的“痛点”。

智能手机

在当下高速稳定的 5G网络仍然不是很普遍的时代,许多厂商都仍然在研究如何将 AI“塞进”用户的终端设备中:比如Google就一直在研究将基于服务器的语音助手模型通过深度学习的训练,将原本 100G的模型缩减至 0.5G,使其可以直接存储在绝大部分智能手机中,直接通过手机的 AI效能实现更快速的语音响应与交互。



AI的效能同样体现在手机系统优化上,在 Android中,借助高通骁龙移动平台的 AI Engine引擎以及 Google推出的 Tensorflow深度学习框架,开发者还能做出更多利用 AI性能让用户减少重复操作手机的功能:比如在 Android 10中 Google推出的基于深度学习功能的智能回复功能,就可以实现在手机收到短信通知时智能为你推荐快速回复语,如果信息内容中包括了地点或是电话,手机还能直接帮你将地点导入进地图中,或是一键拨打电话。



目前在手机中,AI的使用场景当然不限于手机摄影与语音助手,我们在使用智能手机的日常中已经随处可见 AI算法的“助力”:在输入法中,AI可以结合你输入的上下文自动为你推荐相关的表情包,甚至目前热门的手机快充功能上,AI模型也能实现根据用户使用习惯智能调节充电功率,让你在晚上睡前充电时自动降低快充速度,既保证了你清晨拿起手机仍然是满电状态,同时也延缓了手机电池的容量衰减。



这种基于本地的深度学习模型,决定了手机可以随着用户的重复使用的同时逐渐了解用户的使用习惯,这也是不少手机厂商在推出 AI功能时都少不了一句“越用越好用”的原因。同时,更强的本地 AI算力也能让更多计算过程完全基于手机运行,除了减少数据传输之外,更重要的是减少了不少用户关于手机数据传输带来的隐私问题的担忧。

新形态笔电

笔电行业 2020年的新一个重要的新变化,就是不少传统笔电厂商开始进一步发掘 ARM架构优势,推出基于 ARM处理器的新笔电,目前世面上不少基于 ARM处理器推出的轻薄商务笔电新品,都是基于高通 8cx平台研发而来。



ARM架构处理器的加入,除了我们在智能手机上已经习以为常的使用特性 ——比如超低功耗待机,4G LTE联网等特征加入到笔电产品中之外,另一个显著的特性就是其搭载的与手机骁龙 Soc同源的 AI Engine计算引擎,能借助更强的 AI算力,实现传统 X86架构笔电难以实现的优化功能。



在疫情期间的远程办公以及网课热潮中,视频通话其实是很多人都绕不开的一个场景,但我们往往在视频时都会下意识盯着屏幕看而不是摄像头,虽然这种问题可能大家都已经习以为常,但使用 AI算法,其实能更好的优化这种细节问题。

在微软发布的二合一笔电SurfacePro X上,除了搭载基于高通 8cx研发而来的微软 SQ1芯片之外,微软还借助高通骁龙 SoC架构中的 AI引擎效能,实现了在用户使用笔电进行视频通话或远程会议时,通过算法自动调整眼睛在视频通话中的位置,让你看起来就像一直在看着摄像头一样,实现更自然的视频通话效果。



同时,微软也在相关的功能介绍中表示,在传统 X86架构笔电中,如果采用相同的算法来实现同样的优化效果,则需要面临更大的功耗,得益于新架构中的 AI算力,提升得以实现,未来开发者可以借助高通 ARM笔电架构下的 AI引擎,用更强的 AI性能来实现传统笔电受种种性能而无法实现的智能体验。



智能驾驶

自动驾驶每小时会捕捉近 4TB的道路数据,即使是目前做高效的网络速度也不足以支撑如此海量的数据传输。所以自动驾驶其实是当下最能体现“分布式计算”AI使用场景;目前主流的自动驾驶技术都依赖激光雷达或是摄像头+厘米波雷达来采集自动驾驶车周边环境数据,同时将每秒不停收集到的数据交给车载计算机运算处理。



无论是道路两侧的行人,还是道路地面上的道路导流标识线,乃至人类驾驶员看了都头疼的海量道路指示牌,都需要自动驾驶车能快速借助已有的深度学习模型处理并反馈结果,这也是目前包括特斯拉、宝马以及百度等厂商在冲刺真正意义上可用的 L4级自动驾驶时必须要解决的棘手问题,海量的数据与低延时需求也决定了无法过于依赖云计算的云端算力实现。



在今年 CES中,高通针对自动驾驶的这个需求,推出了新的模块化方案 ——Snapdragon Ride自动驾驶软件栈。同时,借助整合的 AI算力,还能优化模型运算效率,让车载计算机的感知与规划更加智能:即使是现在主流的辅助自动驾驶方案 ——也就是 L2级自动驾驶下,这种性能上升级也能反馈在自动驾驶的用户体验上,让自动驾驶过程更加无感,需要驾驶员手动介入的情况更少。



在更未来的 L4级自动驾驶领域,强大的本地计算还能完成自动驾驶的精密地图构建、实现更无缝的真正自动驾驶,还能借助 Qualcomm Snapdragon Ride平台的高效能,让更多汽车厂商与智能车机开发者开发出更现代化的智能汽车体验。



改变使用细节体验的 AI效能

目前,无论是基于运行速度还是隐私等考量,本地的 AI计算已经是当前 AI发展的重点方向;在 AI热潮之下的种种智能体验吸引眼球的同时,也对智能终端的 AI硬件的算力与效能提出新的挑战,这也是高通为什么在每一代骁龙移动平台中都在着重强调AI引擎的效能提升的原因。



当然,基于数据中心的云计算同样是未来所需,手机、电脑算力无法支撑的庞大计算过程,对于云计算来讲可以很高效的完成;但长期来看,在 5G网络逐渐普及的时代,基于云计算运行的 AI也会作为本地 AI的效能补充;无论是对于开发者还是硬件厂商,都需要更高效的 AI引擎以及深度学习模型框架。

对此,高通不仅在硬件上推出更高效的移动平台与计算解决方案,还为开发者推出了 Qualcomm神经处理软件开发包(SDK),让更多开发者能借助高通设备的 AI效能,训练 AI所必需的神经网络模型,来实现更多 AI效能给智能生活带来改变,带给用户更加无感的智能生活体验。

随着 5G网络的逐渐普及,人工智能与 5G的携手,将对我们生活中的许多习以为常的习惯产生巨大的改变,而这些改变的开始,正是从这些一个个提升使用体验的“小细节”逐渐发展而来,借助专用的 AI硬件算力提升,我们也能越来越多的感受到这种分布式 AI给我们日常生活带来的一点点改变。