本文提出的 SparseLLM 框架,通过将全局剪枝问题分解为更易管理的子问题,从而在高稀疏度下也能实现高效的优化和优异的性能。SparseLLM 在实现了内存和计算效率的同时,超越了当前最先进的剪枝方法,为LLMs的压缩和应用树立了新的标杆。 NeurIPS 2024|SparseLLM:突破性全局剪枝技术,大语言模型稀疏化革 行业密探进圈子,查看精彩内容