这篇延续了大模型轻量化主题,SmoothQuant 是后训练量化里非常常被提到的一篇。适合和上周的 SpinQuant 对照着读。
近期准备系统的阅读一些关于大模型轻量化的论文,在这里开个新坑。
怎么和 Week3 对照阅读
SmoothQuant更强调激活与权重之间的缩放迁移。SpinQuant更强调通过旋转降低量化难度。
论文信息
Title:SmoothQuant: Accurate and Efficient Post-Training Quantization for Large Language Models (ICML 2023)
Thanks for reading!
