NEWS LETTER

端侧大模型算法与硬件协同演进的深度调研报告

Scroll down
Other Articles
Article table of contents TOP
  1. 1. 第一章:端侧大模型算法架构的演进脉络
    1. 1.1. 1.1 从参数规模竞赛到能效比优化
    2. 1.2. 1.2 推理范式的变革:从文本生成到复杂推理
  2. 2. 第二章:模型压缩与端侧优化技术的突破
    1. 2.1. 2.1 量化技术(Quantization):从 8-bit 到 1-bit
    2. 2.2. 2.2 知识蒸馏(Knowledge Distillation)
    3. 2.3. 2.3 内存与缓存优化
  3. 3. 第三章:端侧硬件算力基础设施的跨代演进
    1. 3.1. 3.1 移动 SoC 的 AI 算力竞赛:高通、苹果与联发科
    2. 3.2. 3.2 华为麒麟芯片:自主可控与架构突围
    3. 3.3. 3.3 AI PC 算力底座:Intel 与 AMD 的双雄会
  4. 4. 第四章:端侧存储与带宽的演进轨迹
    1. 4.1. 4.1 LPDDR 标准的迭代
    2. 4.2. 4.2 内存容量的刚性增长
  5. 5. 第五章:端侧推理实测性能与量化分析
    1. 5.1. 5.1 移动端推理吞吐量比较
    2. 5.2. 5.2 功耗与热效率实测
  6. 6. 第六章:当前端侧硬件发展的核心瓶颈分析
    1. 6.1. 6.1 “存储墙”瓶颈:算力与带宽的剪刀差
    2. 6.2. 6.2 “热墙”瓶颈:持续性能的丧失
    3. 6.3. 6.3 软件栈鸿沟:调度开销与算子支持
    4. 6.4. 6.4 内存过量配置悖论(Overprovisioning Paradox)
  7. 7. 第七章:可视化分析支持:模型与硬件发展的定量对照
    1. 7.1. 7.1 模型参数与部署可能性的演进趋势分析
    2. 7.2. 7.2 硬件算力与制程节点的双向驱动
  8. 8. 第八章:结论与未来展望
    1. 8.1. 8.1 核心结论
    2. 8.2. 8.2 演进建议与趋势预测
Please enter keywords to search