
逐步蒸馏的核心是使用大模型进行思维链(CoT)推理生成的答案作为训练数据集。其主要步骤为:1)给定一个大模型(LLM)和无标签的数据集,提示大模型生成输出标签以及证明该标签成立的理由,理由用自然语言解释,为大模型预测的标签提供支持;2)除了使用任务标签以外,结合大模型生成的理由来训练更小的下游模型,为小模型提供更丰富的信息。
随着模型压缩技术的发展,边缘计算服务器市场有望得到进一步扩张。据IDC估计,2022年中国边缘计算服务器整体市场规模有望达到42.7亿美元,同比增长25.6%;预计2021-2026年中国边缘计算服务器整体市场年复合增长率将达到23.1%。我们认为,随着知识蒸馏等模型压缩技术的不断发展,可在保有大模型原有性能与精度的前提下降低对推理算力与储存的需求,为人工智能推理模型的边端侧部署创造了有利条件,有望刺激边缘计算硬件设备市场空间的进一步扩张。