谷歌开源Coral NPU:赋能低功耗设备,将大模型带到可穿戴AI

谷歌开源Coral NPU,这是一个全栈AI平台,旨在将大语言模型等强大AI带到智能手表等低功耗边缘设备上全天候运行,同时强调硬件级隐私保护,并构建开放生态。 它是首个为将大语言模型(LLM)引入可穿戴设备而设计的开放、基于标准的低功耗NPU。

原文标题:谷歌开源全栈平台Coral NPU,能让大模型在手表上全天候运行

原文作者:机器之心

冷月清谈:

谷歌近日发布了Coral NPU,这是一个全栈开源AI平台,旨在克服边缘设备和可穿戴设备上部署强大、始终在线AI技术所面临的性能、碎片化和隐私三大核心挑战。该平台致力于打造能在智能手表等低功耗设备上本地持续运行的高效AI,让智能直接融入用户的个人环境。

怜星夜思:

1、文章里说Coral NPU能让大模型在手表上全天候跑,听起来很酷!但实际生活中,它具体能改变我们什么?比如,戴着手表就能随时随地和AI助理交流,或者有什么更科幻的用法吗?大家觉得最期待哪种应用场景?
2、Coral NPU强调硬件强制的隐私保护,这在AI时代特别重要。但话说回来,硬件级的保护真的就万无一失了吗?会不会有新的安全风险,或者在实际应用中,用户还是会担心数据被滥用?大家怎么看这种平衡?
3、Google这次选择开源Coral NPU架构,还基于RISC-V指令集,这是一个很重要的决定。为什么Google会这么做?它对整个边缘AI硬件产业,特别是对开发者来说,意味着什么?跟那些封闭的、专有架构相比,RISC-V和开源模式有哪些独到的优势呢?

原文内容

机器之心报道

编辑:Panda


今天,谷歌有点忙。


一方面,他们与耶鲁大学合作基于 Gemma 研发的 Cell2Sentence-Scale 27B (C2S-Scale) 首次预测了一种新的潜在癌症疗法,引发世界广泛关注。另一方面,他们又更新上线了 Veo 3.1,为用户带来了大幅提升的视频生成能力,参阅报道《》。


再一方面,他们又推出了 Coral NPU,可用于构建在低功率设备上持续运行的 AI。具体来说,其可在可穿戴设备上运行小型 Transformer 模型和 LLM,并可通过 IREE 和 TFLM 编译器支持 TensorFlow、JAX 和 PyTorch。



和前两个新闻一样,这也同样引起了开发者的广泛热议。




Coral NPU:一个为边缘设备打造的全栈开源 AI 平台


谷歌给 Coral NPU 的定位是「一个全栈、开源的平台,旨在解决性能、碎片化和隐私这三大核心挑战,而这些挑战限制了功能强大、始终在线的 AI 技术在低功耗边缘设备和可穿戴设备上的应用。」


也就是说,使用 Coral NPU,未来我们有望打造出能在智能手表等设备上本地持续运行的好用 AI,让智能直接嵌入到用户的个人环境中。


然而,要做到这一点却并非易事。谷歌总结了三大方面的挑战:


  • 性能差距:复杂且先进的机器学习模型需要更多的计算资源,这远超边缘设备有限的功率、散热和内存预算。

  • 碎片化成本:为多样化的专有处理器编译和优化机器学习模型既困难又昂贵,这阻碍了跨设备实现一致的性能。

  • 用户任缺失:要想真正发挥作用,个人 AI 必须优先保障个人数据和情境的隐私与安全。


而谷歌今天推出的 Coral NPU 基于其最初的 Coral 项目,「可为硬件设计者和机器学习开发者提供了构建下一代私密、高效边缘 AI 设备所需的工具。」


具体来说,Coral NPU 是与 Google Research 和 Google DeepMind 合作设计的成果,乃是一个 AI 优先的硬件架构,可用于支持下一代超低功耗、始终在线的边缘 AI。


它提供了统一的开发者体验,使部署环境感知等应用变得更加容易。它专为在可穿戴设备上实现全天候 AI 而设计,同时能最大限度地减少电池消耗,并且可通过适当配置来适应更高性能的应用场景。


谷歌已经发布了相关文档和工具,以便开发者和设计者可以立即开始构建。



  • 项目主页:https://developers.google.com/coral

  • 代码库:https://github.com/google-coral/coralnpu


技术细节


顾名思义,Coral NPU 采用了 NPU(神经处理单元 /neural processing unit)架构,其为下一代高能效、针对机器学习优化的片上系统 (SoC) 提供了构建模块。


该架构基于一套符合 RISC-V 指令集架构 (RISC-V ISA) 的 IP 模块,专为最低功耗而设计,使其成为始终在线的环境感知的理想选择。


其基础设计可在仅消耗几毫瓦功率的情况下,提供 512 GOPS (每秒十亿次操作) 级别的性能,从而可为边缘设备、耳戴式设备、AR 眼镜和智能手表带来强大的端侧 AI 能力。


Coral NPU 生态系统统一视图,展示了为 SoC 设计者和机器学习开发者提供的端到端技术栈。


这种基于 RISC-V 的开放且可扩展的架构为 SoC 设计者提供了灵活性,让他们可以修改基础设计,或将其用作一个预配置的 NPU。


Coral NPU 架构包含以下组件:


  • 一个标量核心(scalar core): 一个轻量级、可用 C 语言编程的 RISC-V 前端,负责管理流向后端核心的数据流。它采用简单的「运行到完成」 (run-to-completion) 模型,以实现超低功耗和传统的 CPU 功能。

  • 一个向量执行单元(vector execution unit): 一个强大的单指令多数据 (SIMD) 协处理器,符合 RISC-V 向量指令集 (RVV) v1.0 规范,能够对大型数据集进行同步操作。

  • 一个矩阵执行单元(matrix execution unit): 一个高效的量化外积乘积累加 (MAC) 引擎,专为加速神经网络的基本运算而构建。请注意,该矩阵执行单元仍在开发中,将于今年晚些时候在 GitHub 上发布。


从传统设计到 Coral NPU 的架构转变示意图。


统一的开发者体验


Coral NPU 架构是一个简单的、可用 C 语言编程的目标平台,可以与 IREE 和 TFLM 等现代编译器无缝集成。这使得它能够轻松支持 TensorFlow、JAX 和 PyTorch 等机器学习框架。


Coral NPU 包含一个全面的软件工具链,其中包括针对 TensorFlow 的 TFLM 编译器等专用解决方案,以及一个通用的 MLIR 编译器、C 编译器、自定义内核和一个模拟器。这可为开发者提供了灵活的路径。


例如,一个来自 JAX 等框架的模型首先会使用 StableHLO 方言 (dialect) 导入为 MLIR 格式。这个中间文件随后被送入 IREE 编译器,该编译器会应用一个硬件特定的插件来识别 Coral NPU 的架构。之后,编译器会执行渐进式降低 (progressive lowering)—— 这是一个关键的优化步骤,在此过程中代码会通过一系列方言被系统地翻译,逐步接近机器的本地语言。优化后,工具链会生成一个最终的、紧凑的二进制文件,以便在边缘设备上高效执行。


下表展示了 Coral NPU 的软件开发优势:



这套行业标准的开发者工具有助于简化机器学习模型的编程,并能在各种硬件目标上提供一致的体验。


Coral NPU 编译器工具链,展示了从机器学习模型创建、优化、编译到设备端部署的完整流程。


Coral NPU 的协同设计过程聚焦于两个关键领域。


  • 首先,该架构能高效加速当今设备端视觉和音频应用中领先的、基于编码器的架构。

  • 其次,谷歌正与 Gemma 团队紧密合作,针对小型 Transformer 模型优化 Coral NPU,以确保该加速器架构能够支持下一代边缘生成式 AI。


这种双重关注意味着 Coral NPU 有望成为首个开放、基于标准、专为将大语言模型 (LLM) 引入可穿戴设备而设计的低功耗 NPU。


对于开发者而言,这可提供一条单一且经过验证的路径,可以用最低的功耗和最高的性能来部署当前和未来的模型。


目标应用


Coral NPU 旨在支持超低功耗、始终在线的边缘 AI 应用,尤其侧重于环境感知系统。其主要目标是在可穿戴设备、手机和物联网 (IoT) 设备上实现全天候的 AI 体验,同时最大限度地减少电池消耗。


潜在用例包括:


  • 情境感知:检测用户活动(如步行、跑步)、距离或环境(如室内 / 室外、移动中),以启用「免打扰」模式或其他情境感知功能。

  • 音频处理:语音和声音检测、关键词识别、实时翻译、转录以及基于音频的无障碍功能。

  • 图像处理:人物和物体检测、面部识别、手势识别以及低功耗视觉搜索。

  • 用户交互: 通过手势、音频提示或其他传感器驱动的输入进行设备控制。


硬件强制的隐私保护


Coral NPU 的一个核心原则是通过硬件强制的安全性来建立用户信任。


谷歌表示:「我们的架构正在被设计用来支持 CHERI 等新兴技术,该技术提供细粒度的内存级安全和可扩展的软件分区。我们希望通过这种方法,将敏感的 AI 模型和个人数据隔离在硬件强制的沙箱中,以抵御基于内存的攻击。」


构建生态系统


开源硬件项目的成功依赖于强大的合作伙伴关系。


为此,谷歌宣布了与 Synaptics 的合作关系,这也是其「第一个战略芯片合作伙伴」,同时也是物联网领域嵌入式计算、无线连接和多模态传感的领导者。


今天,Synaptics 在其技术日活动上宣布了其新的 Astra SL2610 系列 AI 原生物联网处理器。该产品线采用了他们的 Torq NPU 子系统,这是业界首个 Coral NPU 架构的量产实现。该 NPU 的设计支持 Transformer 并支持动态算子,使开发者能够为消费和工业物联网构建面向未来的边缘 AI 系统。


Astra SL2610,来自 X 用户 @TekStrategist


结语


谷歌表示 Coral NPU 有望「解决边缘计算的核心危机」:「借助 Coral NPU,我们正在为个人 AI 的未来构建一个基础层。我们的目标是通过提供一个通用的、开源的、安全的平台供业界在此基础上发展,从而催生出一个充满活力的生态系统。」


对此,你怎么看?有兴趣尝试基于这个平台进行开发吗?


参考链接

https://x.com/GoogleResearch/status/1978449643437539378

https://research.google/blog/coral-npu-a-full-stack-platform-for-edge-ai



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

我觉得吧,硬件强制隐私保护这事儿,初衷肯定是好的,也确实比纯软件防护靠谱很多。毕竟数据直接放在硬件的安全区域,别人想偷也难,哪怕是开发者自己也很难轻易接触到核心数据,这听起来就很有安全感。

但你说万无一失?我觉得有点悬。你硬件再牛,还得有软件来操控吧?软件一出漏洞,硬件保护会不会被绕过去?而且,万一硬件本身就有“后门”或者设计缺陷(虽然谷歌这种大厂应该会避免),那不是更要命?

对我来说,最担心的还是“滥用”。就算数据不被偷走,但如果是合规地、在用户不知情的情况下被用于训练模型或者分析用户习惯,这算隐私保护吗?这个平衡点太难拿捏了,感觉就像是手机密码设得再复杂,如果你自己把密码告诉了不该告诉的人,那安全就不存在了。所以,信任和透明度在AI时代和硬件安全一样重要!

哈哈,文章里问硬件隐私保护是不是就万能了?我觉得这就是科技公司们给我们画的“大饼”之一吧!:joy:

听起来特别高级,什么“硬件强制沙箱”,感觉数据被关在超合金保险柜里了。但想深一层,如果我是个黑客,我可能不会去直接“偷”数据,我可能会想办法去“骗”数据,或者利用AI模型的某些特性来“推理”出你的隐私。比如,通过你的行为模式、AI给你的建议反推你的喜好和习惯,这算不算被滥用了?

另外,别忘了,硬件再厉害,最终解释权还是在厂商手里吧?万一哪天政策要求或者更新条款里埋了什么坑,把部分隐私权限默默地开给了某些第三方,我们作为普通用户,真的能知道吗?我觉得硬件保护是进步,但我们这些吃瓜群众还是得保持一份清醒的怀疑精神,毕竟“道高一尺魔高一丈”嘛!

Google这次玩得有点儿大,但我觉得这招挺高明的!文章里问为什么Google会这么干?我觉得主要原因有俩:

1. 挣脱束缚:现在大部分移动和嵌入式设备都用ARM架构,Google虽是大佬,但在芯片层面上还是受制于人。RISC-V开源、免授权的特性,就像是给Google搭了个“自家厨房”,想怎么做菜就怎么做菜,摆脱了对别人“餐具”的依赖,这在芯片战白热化的今天太重要了!
2. 抢占生态:Google想在边缘AI领域建立自己的标准和生态。开源就像是撒种子,让更多硬件厂商、开发者来基于Coral NPU做东西。人越多,生态就越繁荣,将来大家习惯了用这套,Google就成了这个领域的“幕后老大”。

对开发者而言,这简直是福音!意味着我们可以更自由地定制、优化芯片层面的东西,不用再被那些黑盒一样的专有架构搞得头大。而且RISC-V社区很活跃,遇到问题也更容易找到解决方案。简单说,就是更便宜、更自由、更容易上手,还能避免被某个厂商卡脖子,简直不要太香!

关于Google选择开源Coral NPU并基于RISC-V架构的战略意义,从产业生态和技术趋势的角度来看,这是一个非常精明的布局。

首先,Google此举意在规避对传统IP供应商(如ARM)的依赖,降低授权成本和供应链风险。RISC-V作为开放、免授权的指令集架构,为Google提供了完全的自主权和灵活性,可以深度定制NPU以满足其独特的边缘AI需求,而无需受限于特定厂商的路线图和商业模式。

其次,开源策略有助于快速构建和扩大生态系统。通过开放硬件架构和配套工具链,Google能够吸引全球的开发者和硬件厂商参与进来,共同创新、优化和推广Coral NPU。这不仅可以加速技术迭代,还能形成事实上的行业标准,从而在边缘AI硬件领域占据主导地位,特别是在可穿戴和物联网这种碎片化市场中,标准的统一性至关重要。

与封闭架构相比,RISC-V和开源模式的最大优势在于:1) 透明度和可定制性:开发者可以完全理解、修改和优化硬件底层,适应特定应用场景;2) 低进入门槛和创新潜力:降低了中小企业和初创公司进行硬件开发的成本和风险,有利于激发更多边缘AI创新项目;3) 防止厂商锁定:用户和开发者不会被单一供应商绑定,具有更大的选择自由和议价能力。这是一个推动边缘AI“民主化”的重要一步。

嗯,对于这个问题,我有个不成熟的“阴谋论”(开玩笑哈)。

文章提到Google选择开源Coral NPU架构并基于RISC-V,这看起来是利他,但本质上也是一种高层次的战略博弈。Google要做的,可能不仅仅是让大模型跑在手表上,更是要在未来万物互联、AI无处不在的时代,掌控核心“运行时”。

想想看,如果未来的所有智能设备都运行在Google开源和主导的RISC-V架构上,那么Google就能以零成本铺开自己的生态触角,削弱传统芯片巨头(比如ARM)的影响力。这就像Android开源一样,表面上是免费使用,实际上Google通过服务和生态系统赚得盆满钵满。

对边缘AI硬件产业和开发者来说,这就是一次“重新洗牌”的机会。小公司不用再交高昂的架构授权费,可以自己魔改设计,创新成本大大降低。这会激发无数微创新,让边缘AI设备的应用场景变得五花八门。但同时,它也会让Google拥有对未来边缘AI发展方向更大的话语权,成为这个新赛道的“游戏规则制定者”。所以,这是一个双赢的局面:开发者和产业获得自由和机遇,而Google则赢得了未来的话语权和生态的领导力。高,实在是高!

嘿,说到大模型在手表上跑,我瞬间脑补了一堆“懒人福音”和“尴尬瞬间”!:joy:

最期待的场景那必须是:
1. AI智能管家升级版:不用手机唤醒,直接对表说“帮我预定三十分钟后到公司最近的咖啡馆”,AI直接搞定还不带啰嗦的。
2. 实时翻译无障碍:出国旅游,遇到不认识的文字,对着手表一扫,立马翻译。和外国人聊天,直接对着手表说中文,对方手表实时翻译成英文,这不比手机方便多了吗?
3. 健康教练超便携:你跑个步,手表AI能实时给你指导跑姿,还能在你快累瘫的时候给你打打鸡血,比请私教还给力!

当然,也可能出现搞笑的:AI太尽职,你和朋友八卦的时候,它突然插一句“您的八卦内容逻辑不严谨,请核实”,那就尴尬了!哈哈哈!不过整体来说,期待值还是拉满了,感觉离钢铁侠又近了一步!

文章里问到大模型在手表上能干嘛?我觉得最科幻的用法其实是“无感交互”和“情感伴侣”。

设想一下,你甚至不需要发出语音指令。你的NPU手表通过传感器(心率、皮肤电、微表情识别、眼动追踪)感知你的情绪和意图。你心烦意乱时,它不声不响地播放你最喜欢的舒缓音乐;你看向某个方向好奇时,它在你的AR眼镜里悄悄显示相关信息。

这不是简单的“助理”,它更像是一个懂得你、陪伴你的数字分身,比真人伴侣可能还“读心”!它能预测你的需求,在你开口前就提供帮助。听起来有点像科幻电影《Her》的情节,但如果AI能真正理解并关怀人类的感受,那才是真正的突破,也是最让我期待的!当然,这中间的伦理问题也值得深思啦。

关于“大模型在手表上全天候运行”这个话题,从技术角度看,最直接的效益是实现真正的“环境感知计算”。这意味着未来的AI助手不再是“你问我答”的被动式存在。

想象一下,你日常步行时,手表上的AI能够实时分析你的姿态、心率和步态,结合周围环境(比如检测到你正在爬楼),主动给出个性化的健康建议,或者发现潜在的疲劳迹象。

更进一步,在会议中,AI可以实时识别说话者、转录内容并提炼要点,甚至根据你的眼神和情绪变化,适时给出“现在适合发言”或者“需要休息片刻”的建议。这种无缝、主动且高度个性化的交互,才是最值得期待的变革,因为它将AI从工具变成了真正的“伙伴”,深度融入我们的生活流,预示着一种全新的“情境智能”(Contextual Intelligence)时代。

关于“硬件强制隐私保护是否万无一失”的问题,从信息安全角度,我们必须明确,世上没有绝对安全的系统,只有相对更高的安全级别。

硬件强制的隐私保护,如Coral NPU提到的支持CHERI等技术,其核心在于提供了更细粒度的内存级安全和可扩展的软件分区。这意味着即便系统某个部分被攻破,攻击者也难以轻易访问其他受保护的数据或模型。它能够有效抵御基于内存的常见攻击(如缓冲区溢出),将敏感AI模型和个人数据隔离在更强的“沙箱”中。

然而,仍存在潜在风险:首先,硬件设计本身可能存在漏洞(如Meltdown和Spectre这类侧信道攻击)。其次,软件层面的漏洞依然可能绕过硬件保护,例如驱动程序或操作系统中的逻辑错误。最后,用户的操作行为(如主动授权不当应用)也可能导致数据泄露。因此,硬件强制只是一个强大的基石,真正的安全需要软硬件协同,并辅以严格的审计和持续的安全更新,同时教育用户保持警惕。这种平衡永远是在技术进步、攻防对抗和用户体验之间寻找最佳点。