Title
您当前的位置: 首页 > 百强企业动态 > 文章详细
端侧AI芯片研讨会:从技术革新到生态构建,AI 赋能芯片设计与端侧应用
发布时间:2025-09-11

9月10日-12日,第二十六届中国国际光电博览会(CIOE中国光博会)在深圳会展中心举办。10日下午,端侧AI芯片新架构与新应用主题研讨会顺利举办,会上,汇聚了来自芯片设计、终端制造、行业应用等领域的专家学者与企业代表,通过深度交流,共同探讨端侧AI芯片在架构设计上的技术革新方向,挖掘新架构赋能下的消费电子、智能制造、智慧医疗等场景新机遇。

AI高度适配 EDA 全流程设计逻辑

华大九天高级解决方案总监杨祖声在《EDA呼唤行业大模型智能系统》演讲分享中,深入剖析了 AI 与 EDA 融合的国内外发展差距。

从应用现状来看,国际头部企业如 Synopsys、Cadence 凭借完整的 EDA 工具链,通过强化学习驱动设计迭代优化,借助大模型打造工作流助手,实现“输入设计需求后自动生成 GDS 文件”的全自动化目标;而国内受限于工具链不完善,仍停留在点工具应用阶段,仅华大九天在模拟芯片领域具备全流程工具能力,数字芯片和制造 EDA 领域仍需补链,存在技术落后的风险。

他特别强调,强化学习因具备迭代优化特性,非常适配 EDA 全流程设计逻辑,学术界已在器件提参、模拟芯片综合等环节验证了其价值,未来有望逐步减少人工参与,甚至实现无人化设计。

杨祖声阐释, AI 对 EDA 领域的核心价值是“学习”与“连接”。“学习”体现在神经网络通过学习仿真数据,大幅提升效率;而“连接”则体现在强化学习能串联多个点工具,大模型可生成设计脚本并调用 API 接口,实现全流程协同。

杨祖声认为,未来 AI+EDA 的理想形态是以大模型为统一入口,打通各工具模块,像 ChatGPT 生成工作流程那样,自动整合点工具形成解决方案,因此需要从点工具、大模型、全流程串联等多层面发展应用,构建完整生态。

高效协同,实现模型部署到芯片

华大九天作为国内 EDA 领域的龙头企业,其核心价值在于为芯片设计提供全流程工具支撑,这些工具直接赋能芯片企业的研发效率与集成度。而苏州国芯科技正是这一技术支撑的直接受益者与实践者,其聚焦于终端芯片的研发,产品能够实现端侧数据的本地采集、推理与输出。

会上,苏州国芯科技股份有限公司技术经理孙磊在会上发表《国芯科技AI MCU CCR4001S芯片与应用介绍》详尽介绍了苏州国芯科技及其 AI MCU 芯片 CCR4001S 的相关情况。

苏州国芯成立于,2001 年,2023 年科创板上市,初期聚焦 CPU 国产化设计,类似 ARM 的 IP 授权模式,后发展自有知识产权芯片,业务涵盖 IP 授权、自主芯片研发及定制芯片,在信息安全领域根基深厚,近年发力汽车电子,累计出货超 1200 万颗,客户包括比亚迪等车企、工业控制等领域,拥有 M*Core、RISC-V、PowerPC 三大指令集,可提供定制设计服务。

作为面向端侧的 AI MCU 芯片,CCR4001S 基于自研 RISC-V 核(CRV4H 核),主频 230MHz,配备 32K ICache 和 32K DCache,用于运行芯片主程序。芯片集成 DDR 和 SIP FLASH 作为 NPU 的“显存”,不同规模的 AI 模型可直接在 DDR 中运行并由 NPU 调用,通过总线实现高效协同。

为降低客户部署门槛,国芯提供完整的技术支持体系:一是编译工具链,包括自研 IDE、支持 RISC-V 的第三方编译器及调试器,可实现云端训练模型到芯片端的转化与部署;二是兼容主流 AI 框架,如 DNCNN、ESPCN、YOLOv5 等,NPU 支持绝大多数网络部署,且可定制算子以适配新模型;三是硬件参考设计、开发笔记、芯片手册及 Demo 案例,搭配 Discovery 套件,助力客户快速评估模型性能与应用场景。

孙磊表示,“相对于传统的嵌入式所没有的工具链,因为我们要实现服务器端或者说平台上训练好的模型部署到芯片内。训练模型可以通过这套工具把它转化成形,通过编译调用芯片NPU内部的存储单元、加速单元,实现模型从训练端到真正芯片端部署的整个流程”。

目前,国芯的 AI MCU 芯片凭借自主指令集、高集成度及灵活适配性,在端侧 AI 轻量化场景中展现出显著优势,为消费电子、工业控制、汽车电子等领域提供了高效且安全的解决方案。

ASIC芯片制造缺乏协同,加速产能布局

AI 发展依赖算力、算法、数据,其中传感器是数据采集的核心,尤其在机器人、汽车等智能设备中,需实现动态感知与实时反馈。广州增芯科技有限公司副总经理彭坤带来《AI驱动的智能传感器产业升级及传感器制造技术》的主题演讲。

彭坤首先指出,随着 AI 技术的推进,像特斯拉机器人等场景对传感器的响应速度和协同能力提出了极高要求,传统传感器与信号处理芯片分离封装的模式存在几十毫秒级延迟,难以满足需求,因此智能传感器向“感存算一体化”升级成为必然,需将感知、处理、运算、存储等功能集成于一体。

接着,他分析了传感器产业的瓶颈与市场现状。目前行业存在“各环节割裂”的问题,MEMS 传感器代工与 ASIC 芯片制造缺乏协同,导致设计公司试错成本高;国内智能传感器市场虽达千亿级,但国产化率极低,如电动车传感器国内生产比例不足 1%,核心制造能力亟待突破。同时,传感器正朝着智能化、微型化、仿生化方向发展,智能度越高的设备,传感器占比越大。

针对这些痛点,彭坤介绍了广州增芯科技的解决方案:在广州增城建成国内首条、唯一的 12 英寸 MEMS+ASIC 协同制造产线,实现传感器与配套芯片的“设计-制造-封装”一条龙服务。该全自动化产线 18 个月建成,支持 22 纳米及以上工艺节点,可将 MEMS 传感器与 ASIC 芯片在同一晶圆上集成或堆叠,大幅降低延迟、提升带宽,还能提供牺牲层技术、深硅刻蚀等 MEMS 标准工艺,结合先进 CMOS 工艺满足多元需求。

最后,他提到公司的产品规划与合作模式。增芯科技将重点布局压力传感器、红外传感器等,计划明年推出集成红外感知与 ASIC 处理的芯片,目前已有 1 款产品量产、8 款在研;集团可投资突破卡脖子技术的项目,但专注代工不涉足终端市场,旨在通过 12 英寸协同制造平台推动智能传感器国产化与性能升级,助力 AI 时代产业发展。

从底层自主研发,坚定国产自主可控 AI 生态建设

传感器这种硬件革新为边缘 AI 的落地提供了“数据入口”的支撑,而边缘 AI 的进一步实现,则需要算力芯片对传感器采集的数据进行高效推理处理。边缘 AI 推理芯片头部玩家云天励飞,以“算力积木”架构为核心,通过 Chiplet 技术实现灵活算力配置,满足端侧、边侧不同场景的推理需求。

云天励飞市场总监张衡《从芯出发,智联边缘》的主题演讲分享了人工智能的发展态势,指出 AI 领域遵循“百天新摩尔定律”,即 100 天内相同模型参数性能提升一倍或相同性能对算力需求减半,技术革新频繁。2025 年国内 DeepSeek 开源大模型的出现具有里程碑意义,如同 2022 年的 ChatGPT,推动了 AI 推理应用在边缘端的大规模落地,使边缘 AI 市场成为大厂竞争焦点,而端边云协同是降低成本、满足低延迟与隐私保护需求的关键。

随后,他分析了边缘 AI 的痛点与大模型带来的改变。边缘场景的碎片化导致需求分散,传统模式下算法厂商需深度介入项目,成本高、效率低。而大模型的出现有效解决了这一问题:CV 大模型凭借强大的图像理解与场景泛化能力,减少了对细分场景的依赖;大语言模型具备博士级的语言交互与场景理解能力,能应对复杂边缘场景。开源大模型更重构了产业生态,让基础工程师通过调参即可实现产品化,推动边缘 AI 应用爆发。

当前,云天励飞深耕边缘 AI 推理芯片,坚持自主可控,从底层指令级微架构自主研发,已完成 5 代神经网络处理器的迭代商用,支持从 CNN 到 Transformer 的计算范式演进。目前第四代产品已商用,第五代Nova 500预计明年推出,始终紧跟大模型计算架构的发展。

在技术创新方面,云天励飞提出“算力积木”架构,通过 Chiplet 片内高速互联与片间 C2C 互联,实现单次流片即可灵活堆叠出多算力芯片,满足不同场景需求。例如,Edge 10 系列可支持 1.5-3B 模型部署,Edge 10Max 算力为其 4 倍,支持 14B 模型及多模型并行计算,Edge 200 则可满足 DeepSeek 大模型单机推理需求。这些芯片全链路国产化,获国产化 C 级认证,保障自主可控。

在应用场景与未来规划上,张衡表示公司芯片已应用于端侧机器人、边侧推理盒子、服务端大模型部署等场景。下一代产品将围绕“算力积木 1.0”升级,提升算力功耗比、降低成本,边缘侧目标算力 256T-1024T,云端侧 512T-2048T,以满足更广泛的智能应用需求,坚定推动国产自主可控 AI 生态建设。

依托存储和网络设备积淀,降低 AI 应用门槛

AGI 时代来临,云端模型规模扩大与端侧智能升级并行,MoE 架构推动大模型成本下降,但对运行效率提出更高要求,第三方部署性能与官方存在显著差距,凸显模型推理优化的技术断层。

随着 AGI 临近,云端模型规模扩大、端侧模型愈发智能,端侧应用迎来爆发趋势,MoE 架构,如 DeepSeek R1将推动大模型单个成本大幅下降,为行业发展带来新机遇。但 MoE 新架构对模型运行提出严峻挑战,存在显著的推理优化技术断层(如 DeepSeek R1 官方部署性能与第三方差距悬殊),成为行业普及的重要障碍。

深圳市铨兴科技有限公司王瑜琨表示,铨兴科技推出技术创新与解决方案。公司依托存储和网络设备积淀,推出铨兴添翼 AI Link 超微显存融合技术及 AI Link 算法平台,可将模型训练成本降低 90%以上,单盘推理并发性能提升 50%以上,且兼容英伟达及纯国产芯片。该技术能大幅扩展显存,单台服务器显存从 1TB 扩展至 8TB,支持从 PC 级 14-32B 模型到云端 32 台 H200 服务器等不同规模模型的训推需求并实现的高性能部署,通过自研训推框架保障快速适配与最优性能。

据了解,铨兴科技已经构建 MaaS 平台及训推一体硬件系列,推出开箱即用的解决方案,已在医疗、政务、法务、高校等垂域实现落地。与浪潮、联想、DeepSeek 等企业深度合作,推出训推一体机、AI Fusion 解决方案等,将高规格模型训推能力下沉至 PC 端,并计划未来推出万元级 200B、1000B AI PC。

未来,铨兴科技核心目标是通过技术创新和生态合作,降低 AI 应用门槛,让大模型成本下降 90%以上,实现从垂域场景到千家万户的普及。

软件商业转化,AI能力落地交付客户

AI研发成本高昂,其价值必须通过规模化应用来兑现。软件应用,特别是SaaS模式,是实现AI能力标准化、复制化和规模化分发的最佳载体。企业通过订阅和使用软件服务来获得AI带来的降本增效,而AI企业则通过软件实现了技术的商业转化。

万兴科技通过其软件矩阵,将AI能力交付给全球数亿用户和众多企业客户,正是这一路径的典型体现。线下营销中心总经理唐芳鑫认为,半导体行业复杂度高、链路长、沟通协作密集、试错成本高,设计阶段耗时超 60%,大量时间用于文档撰写与沟通,且存在文档不规范、工具不统一等问题,导致效率低、成本增加,设计文档的文+图缺乏规范是低效的关键。

万兴科技从概念到设计、项目管理到文档存储的一体化方案。脑图工具支持多文件解析、两万节点等,助力立项研发;图示工具含专业符号、兼容多系统等,解决配图问题;还有项目管理和 PDF 工具,全流程提升效率。能实现研发提效,简化复杂场景;让文档规范化,便于查阅;促进沟通提效,利于跨部门协作,还提供 AI 私有化方案保障安全,大幅降低企业成本,已有众多行业案例验证效果。

除办公工具,万兴还有万兴喵影等 AI 内容创作工具,形成“工具+内容+社区”生态,与微软、华为等企业深度合作,适配多种系统,在多行业解决问题,助力企业降本增效。

依托长三角产业集群优势,海门成企业布局优选之地

最后,南通市海门区副区长王一兵带来《AI上海门·智创未来》向来宾推介了南通这座兼具区位优势与产业活力的城市,为企业发展提供了全新选择。

海门地处长江以北,隶属南通,总面积 1149 平方公里,人口 100 万,是江苏长江以北首个小康达标市,也是首个 GDP 突破千亿元的县市,综合实力稳居全国第 17 位、江苏第 5 位,素有“科技之乡”“教育之乡”“纺织之乡”“平安之乡”的美誉。

海门最鲜明的优势在于“靠江靠海靠上海”:拥有 25 公里海岸线与 61 公里长江岸线,距上海直线距离仅 60 公里,8 座过江通道构成“八龙过江”格局,海太隧道 8 分钟即可跨江连接苏州;南通至上海高铁仅需 26 分钟,时空距离持续缩短。更值得关注的是,国家战略布局的上海第三机场落子海门,由上海机场集团与南通机场集团合资建设,与浦东、虹桥机场共用编码,将成为国际航班主场,预计明年春季开工,三年建成。

在人工智能领域,海门依托长三角产业集群优势——周边 200 公里内集聚 1200 余家 AI 核心企业,产值超 1500 亿,全球前 100 强 AI 企业超 30 家在上海设总部或研发中心——自身已形成 39 家机器人相关企业集群,南通振康机器打破日本技术垄断,诺博特、科美自动化等企业表现突出。江苏省最大算力中心(获国家发改委批文)、大数据集团,以及工信部机器人产业化平台、上海机器人产业研究院江苏唯一分支机构等,为产业升级提供硬核支撑。武汉大学集成电路研究中心、罗普特海洋人工智能研究院等科研平台,则持续注入创新动能。

从区位红利到产业实力,从政策保障到生活配套,海门正以长三角北翼的独特魅力,成为企业布局未来的优选之地。

上一篇:
黄金行业组织观看九三阅兵,爱国热情点燃行业奋进动力——系列报道之一
下一篇:
盖世汽车全球化战略加速:深化欧洲市场布局
Title