芯原超低能耗NPU可为移动端大语言模型推理提供超40 TOPS算力 其超低能耗且高性能的神经网络处理器(NPU)IP现已支持在移动端进行大语言模型(LLM)推理,AI算力可扩展至40 TOPS以上。 神经网络处理器 NPU 2025-06-11