
2月10日,混元出面向消费硬件场景的“小”模型HY-1.8B-2Bit。该模型基于1.8B参数的小尺寸模型伊犁橡塑胶厂家,通过2Bit量化技术,等参数量约为0.3B,实际存储占用仅约600MB,比常用的些手机应用还小,实现了端侧部署的新突破。
该模型基于混元团队创的产业2Bit端侧量化案,通过对HY-1.8B-Instruct模型进行2比特量化感知训练(QAT)产出,模型大小减少至原始精度模型的1/6,同时在真实端侧设备上生成速度提升2-3倍,可大幅提升使用体验。能力上,模型还保留了原版的思维链,可以为不同复杂度的任务提供相应度的理过程。这是业界个实现2bit产业量化的端侧模型实践。
左图为HY-1.8B原始精度模型,右图为HY-1.8B-2Bit模型,量化后的模型速度明显快
随着大语言模型普及,如何将模型在比如手机、耳机或者智能居设备应用,成为业界难题,尤其不少应用对模型的离线部署、私密等都有的需求伊犁橡塑胶厂家,这就需要多能够在端侧运行的又小又强的模型。端侧部署的展开,本质上是条在“小而精,快而准”的艰难探索之路,我们既需要模型足够聪明,能应对千变万化的真实需求,又须将它约束在其有限的硬件资源内部署并快速理,这就好像在给模型进行“减脂增肌,减重提质”。
比特(Bit)是计机存储的小单位,1比特能表示2种状态(0或1),2比特能表示4种状态,依此类,般模型的精度有2比特、4比特、8比特、32比特等表示法,数值越大模型的精度,所占的内存就越大。
虽然2比特量化的精度损失较大,万能胶生产厂家但通过QAT和的量化策略,已经能让2比特模型接近全精度模型的能。在模型能力面,对比4比特PTQ模型版本数学、代码、科学等指标上表现相当,实现了“小而强”的设计目标。
技术上,量化作为大模型部署上线不可或缺的环,肩负了降低部署成本与保精度的使命,大部分情况下对于int4、int8、fp8的压缩精度要求,采用PTQ量化策略即可实现几乎损,但随着原始模型大小的缩小、压缩bit数的进步降低,PTQ带来的量化损失是巨大的。因此,对于原始模型大小只有1.8B伊犁橡塑胶厂家,量化bit数只有2bit的HY-1.8B-2Bit,混元团队采用了量化感知训练策略,这显著提升了量化后模型的能。
腾讯混元还通过数据优化、弹拉伸量化以及训练策略创新三个法来大限度的提升HY-1.8B-2Bit的全科能力。
部署面,腾讯混元提供了HY-1.8B-2Bit的gguf-int2格式的模型权重与bf16伪量化权重,对比原始精度模型,HY-1.8B-2Bit 能够灵活用于端侧设备上,该模型也已在 Arm 等计平台上完成适配,可部署于启用 Arm SME2 技术的移动设备上,并实现运行。
奥力斯 PVC管道管件粘结胶价格 联系人:王经理 手机:18231788377(微信同号) 地址:河北省任丘市北辛庄乡南代河工业区/p>伊犁橡塑胶厂家
在MacBook M4芯片上,HY-1.8B-2Bit 固定了线程数为2测试了不同窗口大小下的字时延和生成速度,模型选定fp16、Q4、HY-1.8B-2Bit三种gguf格式作为对比,字时延在1024输入内能够保持3—8倍的加速,生成速度上常用窗口下对比原始模型精度,HY-1.8B-2Bit能够实现至少2倍稳定加速。
在天玑9500上同样进行了测试,对比HY-1.8B-Q4格式字时延能够加速1.5—2倍,生成速度加速约1.5倍。
当前,HY-1.8B-2Bit的能力仍受限于监督微调(SFT)的训练流程,以及基础模型本身的能与抗压能力。针对这问题,混元团队未来将转向强化学习与模型蒸馏等技术路径,以期进步缩小低比特量化模型与全精度模型之间的能力差距,从而为边缘设备上的大语言模型部署开拓广阔的应用前景。
项目链接:https://github.com/Tencent/AngelSlim
模型地址:https://huggingface.co/AngelSlim/HY-1.8B-2Bit
https://huggingface.co/AngelSlim/HY-1.8B-2Bit-GGUF
技术报告:
https://huggingface.co/AngelSlim/HY-1.8B-2Bit/blob/main/AngelSlim_Technical_Report.pdf
相关词条:玻璃棉毡 塑料挤出机 预应力钢绞线 铁皮保温 万能胶生产厂家
