你手中握着多少智能?答案是非常之多!
2017 年是人工智能最终融入智能手机的年份,不仅仅是融入智能手机相连的云端,而是融入智能手机本身。
这些手机配备位于设备上的 AI 引擎,旨在有效地从传感器获取数据,彻底了解数据,然后在设备本地存储和计算。这些手机执行面部识别、活动预测和增强数据加密等任务,必须平衡对额外存储与计算能力的需求和尺寸限制、成本效益、电池电量。由于这些手机中搭载的 AI 芯片必须能够根据本地数据提供快速、准确的决策,因此它们依赖于更快、更创新的系统内存和存储。
AI 智能手机的真实用例
最新智能手机提供的增强图像、听觉和语音处理功能已经涌现出新的用户体验。下一波体验将是支持智能手机中 AI 新用例的应用,包括语言处理、人类活动预测和增强型数据加密等。 随着对用户身份验证进行面部识别的流行,创新者将使用设备上的 AI 来帮助用户身份验证变得更加复杂,但是也更安全、更方便。例如,以前使用照片可以让面部识别失效。现在由于使用多个 3D 深度传感器和红外摄像头,智能手机用户身份验证更安全、更快捷。
利用设备上的 AI 进行的自然语言翻译可以增强大多数智能手机中已有的语音识别。更进一步,本地分析和处理电话和聊天对话,可以借助意图预测(即预测一个人的行为)帮助智能手机提高响应速度,并且智能助理会建议采取某种行动或进行购买。未来的智能手机应用势必会将一些买家协助功能从基于云的机器人转移到更快、更安全的智能手机。
将基于云的 AI 与设备上的 AI 相集成,可进一步扩展用例范围。例如,加利福尼亚大学伯克利分校有一款叫做 MyShake 的地震预警应用,它使用手机中的加速计传感器(横向转动手机时它会调整屏幕)和 GPS 测量本地发生的震动程度。该款应用结合收集您附近其他 MyShake 用户的报告并在云中执行综合分析,可以发展成为个人地震计和早期预警系统。
智能手机成为学习机器
为设备上的本地 AI 提供转变动力的是新型专用 AI 处理芯片,严格说来,此类芯片比 AI 更具机器学习能力。机器学习是 AI 的一个子集;它是一种技术,随着时间的推移,它能帮助机器响应不同类型的数据并最终创建可重复的模式,从而自动学习,不必手动编程。神经网络系统帮助这些机器学习应用程序对数据进行排序,以便计算机更快地对数据进行分类。2017 年,工程师们学会了如何在片上系统 (SoC) 中添加新的 AI 组件,从而提高“智能”或 AI 辅助任务的性能和效率,降低成本和功耗,缩小其尺寸。
AI 加剧对手机尺寸和电量的挑战
在智能手机的组件中,CPU/GPU、显示器和内存耗电量最多。现在除了这些以外,还增加了新型 AI 引擎的耗电要求。消费者要求有更高像素的显示屏和更多的内存来支持他们增加负载,因此电池寿命仍然是制造商的主要关注点。
商用 5G 网络服务预计将在今年晚些时候亮相选定的城市。这种无处不在的超高速无线连接,未来其吞吐量比现有 4G 网络快 50 倍,延迟改进至少比 4G 高出五倍,将为多媒体和视频体验创造无限可能。但移动设备将需要更复杂的内存子系统来满足速度和存储要求,同时又不会增加功耗或占用空间。

专用 AI 引擎需要处理
本地 AI 处理将增加内存大小和存储要求。更重要的是,随着越来越多的 AI 特定应用程序的问世,对更快存储性能的需求将呈指数级增长。
对于要求高密度、高容量、占用空间小的移动设备,3D NAND 正成为首选存储解决方案。最新的 64 层版本 3D NAND 数据存储单元堆栈层垂直构建存储设备,其容量比传统的 2D 平面NAND技术高出六倍。 此外,最新的 3D NAND 内存设备使用高性能 UFS 存储接口,可以同时实现读写命令,并具有比上一代 e.MMC 5.1 接口更快的随机读取速度。3D NAND 芯片和快速 UFS 接口进行这种组合,便可在更小的芯片面积上实现更多存储,从而为配备 AI 的移动设备带来显著的节省成本额、低功耗和高性能。
辉煌的未来
智能手机上的智能助手特性和功能必须根据数据流做出快速而又精确的决策支持。速度缓慢的存储和内存,其 AI 训练性能缓慢,导致较长的待机时间,电池快速耗尽。幸好内存和存储创新提供了更快的 I/O 操作和近实时 AI 计算,满足了这些 AI 引擎不断增长的数据需求,从而营造了强大的用户体验。