当前,生成式AI(GAI)正以前所未有的速度发展,成为新一轮科技革命和产业变革的重要驱动力量,也越来越多地为终端用户多样化、个性化的内容创造打开新的可能。

前不久,联发科宣布联合百度发起飞桨和文心大模型硬件生态共创计划,共同推进联发科硬件平台与飞桨和文心大模型适配。近期,联发科还宣布运用Meta LIama 2大语言模型和联发科先进的AI处理器(APU)以及完整的AI开发平台(NeuroPilot),建立完整的终端侧AI计算生态,赋能终端设备生成式AI应用。

不难看到,联发科大力投资AI技术与生态,推进“端云融合”与终端侧AI技术解决方案,为生成式AI市场探索更多发展路径和动能,通过行业伙伴利用AI大模型赋能终端设备,让更多的用户享受到生成式AI带来的全新体验。

联合百度发起飞桨和文心大模型硬件生态共创计划

不久前,联发科宣布与百度联合发起飞桨和文心大模型硬件生态共创计划,双方将共同推进 联发科硬件平台与飞桨和文心大模型的适配。目前双方正在合作优化文心大模型在终端设备上的执行效果,将实现大模型在终端和云端的协同工作,为用户带来突破性的生成式 AI 应用体验。

3ed890321dab4149ae4907afbc12be69.png

作为推动 AI 进一步发展的先进技术,与单纯在云端部署生成式 AI 应用和服务相比,终端侧部署生成式 AI 在节约服务器成本、保护用户信息安全、提升实时性和实现个性化用户体验等方面具备明显优势。双方的合作将支持基于 联发科芯片的智能手机、汽车、智能家居、物联网等终端设备上运行文心大模型,赋能终端设备提供更安全、可靠和差异化的使用体验。

联发科与百度合作已久,双方合作完成了 Paddle Lite 轻量化推理引擎基于 MediaTek NeuroPilot 人工智能通用软件平台的适配。NeuroPilot 是 MediaTek 为开发者提供的基于本地端侧的 AI 运算解决方案,它为内建 CPU、GPU 和 APU(独立AI 处理器)等异构运算单元的 MediaTek SoC 平台提供完整且强大的软件解决方案。

联发科无线通信事业部副总经理李彦辑博士表示:“百度飞桨深度学习平台和文心大模型在AI领域处于领先地位,我们双方将聚焦 AI 大模型在终端侧的部署,为用户提供更安全可靠,更个人化,更低成本的端侧生成式 AI 解决方案,赋予终端设备更强大的 AI 能力。MediaTek携手百度飞桨和文心大模型,通过 AI 端云融合,将为广大开发者和终端用户带来更多令人兴奋的 AI 创新机遇和产品体验。”

运用Meta Llama 2大语言模型赋能终端设备生成式AI应用

近日,联发科宣布利用 Meta 新一代开源大语言模型(LLM)Llama 2 以及联发科先进的 AI 处理器(APU)和完整的 AI 开发平台(NeuroPilot),建立完整的终端侧 AI 计算生态,加速智能手机、物联网、汽车、智能家居和其他边缘设备的 AI 应用开发,为终端设备提供更安全、可靠和差异化的使用体验。

c0e9fb852b0447bda1aeaf661ae8d4e1.png

联发科资深副总经理暨无线通信事业部总经理徐敬全博士表示:“生成式 AI 的日益普及是数字化转型的重要趋势之一,我们的愿景是为 Llama 2 的开发者和终端用户提供工具,带来更多令人兴奋的 AI 创新机遇和产品体验。通过与 Meta 的伙伴关系,MediaTek可提供更强大的硬件和软件整体解决方案,为终端设备带来远超以往的功能和体验。”

要在终端设备上充分释放生成式 AI 的潜力,设备制造商需采用高算力、低功耗的 AI 处理器(APU),并通过更快、更可靠的网络连接来增强设备的整体算力。如今,每一颗联发科5G 智能手机 SoC 均搭载 AI 处理器,已广泛执行生成式 AI 应用成功案例,例如 AI 降噪(AI-NR)、AI 超级分辨率(AI-SR)以及 AI 运动补偿(AI-MEMC)等。

MediaTek将于年末推出新一代旗舰移动芯片,将采用针对Llama 2模型而优化的软件栈(NeuroPilot),与搭配支持Transformer模型做骨干网络加速的升级版AI处理器(APU),可减少动态随机存取内存(DRAM)的读写消耗和带宽占用,进一步强化大语言模型和生成式AI应用的性能,助力开发者打造令人惊艳的AI应用,加速终端设备AI应用落地发展。

面向生成式AI技术和应用浪潮,联发科将持续投资技术并携手行业伙伴,透过先进科技和海量伙伴推动生成式AI在终端侧的布局和发展,加速生成式AI市场的规模化发展,持续为智能手机、汽车、智能家居、物联网等终端设备用户带来振奋人心的生成式AI应用体验。