Wang
Zongwu
home
archives
categories
tags
Your browser does not support HTML5 video.
NEWS LETTER
端侧大模型技术演进与前瞻-模型压缩与轻量化设计的深度综述
Home
2026
Scroll down
Welcome to Zongwu's Science Hub ✨
Residence:
Shanghai
Age:
18
Contact Me
03/02
09:49
zongwu wang
请输入密码继续
Other Articles
Tool
UV 配置国内镜像源详细教程
26/03/02
09:49
Architecture
A Case for Exploiting Subarray-Level Parallelism (SALP) in DRAM
26/02/27
09:49
Article table of contents
TOP
1.
1. 核心主题与范畴界定:边缘智能的范式转移
2.
2. 关键技术分类与对比分析:通往高效智能的多重路径
2.1.
2.1 路径一:模型轻量化设计(SLMs)——原生结构的极致探索
2.2.
2.2 路径二:模型压缩技术——后处理时代的能量密度论证
2.3.
2.3 路径三:推理加速与运行时优化——压榨每一分硬件潜力
2.4.
2.4 路径四:端-云协同智能——智能流动的动态平衡
3.
3. 应用场景与案例研究:从实验室走向现实
3.1.
3.1 典型案例一:移动端多模态实时助手(MiniCPM-V)
3.2.
3.2 典型案例二:端到端自动驾驶智能决策(Waymo EMMA)
3.3.
3.3 典型案例三:受限环境下的 Agent 交互(AgentCPM-Explore)
4.
4. 未来挑战与研究方向:跨越端侧落地的“死亡之谷”
4.1.
4.1 能力密度:对抗“深度诅咒”与参数效率上限
4.2.
4.2 硬件适配性:从通用算力向“端侧原生”演进
4.3.
4.3 知识继承:鲁棒的连续学习与灾难性遗忘
4.4.
4.4 技术成熟度:标准化基准与生态闭环
5.
5. 结论
Please enter keywords to search