民意调查
- “高效神经网络推理的量化方法调查”,书籍章节:低功耗计算机视觉,2021 年。[论文]
- “Transformer 推理的全栈优化:一项调查”,arXiv,2023 年。[论文]
- “神经网络量化白皮书”,arXiv,2021 年。[论文]
- “二元神经网络:一项调查”,PR,2020 年。[论文] [
Extreme
]
基于 Transformer 的模型
Vision Transformer
- “Bi-ViT:突破视觉变换器量化的极限”,AAAI,2024 年。[论文] [
Extreme
] - “AQ-DETR:带有辅助查询的低位量化检测变压器”,AAAI,2024 年。[论文]
- “LRP-QViT:通过逐层相关性传播实现混合精度视觉变换器量化”,arXiv,2023 年。[论文] [
PTQ
] [MP
] - “MPTQ-ViT:用于 Vision Transformer 的混合精度训练后量化”,arXiv,2023 年。[论文] [
PTQ
] [MP
] - “I-ViT:用于高效视觉变换器推理的整数量化”,ICCV,2023 年。[论文] [代码]
- “RepQ-ViT:视觉变换器训练后量化的尺度重参数化”,ICCV,2023 年。[论文] [代码] [
PTQ
] - “QD-BEV:用于多视图 3D 物体检测的量化感知视图引导蒸馏”,ICCV,2023 年。[论文]
- “BiViT:极度压缩的二进制视觉变换器”,ICCV,2023 年。[论文] [
Extreme
] - “跨越局部最小值:视觉变换器损失图中的量化”,ICCV,2023 年。[论文]
- “PackQViT:通过移动设备上的完全量化和打包量化实现更快的 8 位以下视觉变换器”,NeurIPS,2023 年。[论文]
- “低位视觉变换器的无振荡量化”,ICML,2023 年。[论文] [代码]
- “PSAQ-ViT V2:面向视觉变换器的准确且通用的无数据量化”,TNNLS,2023 年。[论文]
- “变化感知视觉变换器量化”,arXiv,2023 年。[论文]
- “NoisyQuant:用于视觉变换器的噪声偏差增强训练后激活量化”,CVPR,2023 年。[论文] [
PTQ
] - “具有 GPU 友好的稀疏性和量化的 Boost Vision Transformer”,CVPR,2023 年。[论文]
- “Q-DETR:一种高效的低位量化检测变压器”,CVPR,2023 年。[论文]
- “输出敏感度感知 DETR 量化”,2023 年。[论文]
- “Q-HyViT:带有桥块重建的混合视觉变换器的训练后量化”,arXiv,2023 年。[论文] [
PTQ
] - “Q-ViT:准确且完全量化的低位视觉变换器”,NeurIPS,2022 年。[论文] [代码]
- “用于视觉变换器的块相似性感知无数据量化”,ECCV,2022 年。[论文] [代码] [
PTQ
] - “PTQ4ViT:具有双均匀量化的视觉变换器训练后量化”,ECCV,2022 年。[论文] [代码] [
PTQ
] - “FQ-ViT:完全量化视觉变换器的训练后量化”,IJCAI,2022 年。[论文] [代码] [
PTQ
] - “Q-ViT:视觉变换器的完全可微量化”,arXiv,2022 年。[论文]
- “Vision Transformer 的训练后量化”,NeurIPS,2021 年。[论文] [
PTQ
]
[返回概览]
语言转换器
- “- “OmniQuant:大型语言模型的全方位校准量化”,ICLR,2024 年。[论文]”
- “LoftQ:用于大型语言模型的 LoRA 微调感知量化”,ICLR,2024 年。[论文]
- “SpQR:近无损 LLM 权重压缩的稀疏量化表示”,ICLR,2024 年。[论文] [
PTQ
] - “QA-LoRA:大型语言模型的量化感知低秩自适应”,ICLR,2024 年。[论文]
- “QLLM:适用于大型语言模型的准确高效的低位宽量化”,ICLR,2024 年。[论文] [
PTQ
] - “PB-LLM:部分二值化大型语言模型”,ICLR,2024 年。[论文] [
Extreme
] - “AffineQuant:大型语言模型的仿射变换量化”,ICLR,2024 年。[论文]
- “重新思考通道维度以隔离大型语言模型低位权重量化的异常值”,ICLR,2024 年。[论文]
- “LUT-GEMM:基于 LUT 的量化矩阵乘法,用于大规模生成语言模型中的高效推理”,ICLR,2024 年。[论文]
- “OWQ:用于大型语言模型高效微调和推理的异常值感知权重量化”,AAAI,2024 年。[论文]
- “规范调整:大型语言模型的高性能低位量化”,AAAI,2024 年。[论文]
- “Agile-Quant:激活引导量化,实现边缘 LLM 的更快推理”,AAAI,2024 年。[论文]
- “从综合研究到低秩补偿探索法学硕士 (LLM) 中的训练后量化”,AAAI,2024 年。[论文] [
PTQ
] - “是什么让大型语言模型的量化变得困难?从扰动角度进行的实证研究”,AAAI,2024 年。[论文]
- “EasyQuant:一种高效的 LLM 无数据量化算法”,arXiv,2024 年。[论文]
- “IntactKV:通过保持枢轴标记完整来改进大型语言模型量化”,arXiv,2024 年。[论文]
- “FlattenQuant:通过每个张量量化突破大型语言模型的推理计算限制”,arXiv,2024 年。[论文]
- “大型语言模型量化策略的综合评估”,arXiv,2024 年。[论文]
- “GPTVQ:维度对 LLM 量化的祝福”,arXiv,2024 年。[论文]
- “APTQ:针对大型语言模型的注意力感知训练后混合精度量化”,arXiv,2024 年。[论文]
- “EdgeQAT:用于加速边缘轻量级 LLM 的熵和分布引导量化感知训练”,arXiv,2024 年。[论文]
- “RepQuant:通过尺度重参数化实现大型 Transformer 模型的精确训练后量化”,arXiv,2024 年。[论文]
- “通过信息保留对 LLM 进行准确的 LoRA 微调量化”,arXiv,2024 年。[论文]
- “BiLLM:突破 LLM 训练后量化的极限”,arXiv,2024 年。[论文]
- “KVQuant:通过 KV 缓存量化实现 1000 万上下文长度 LLM 推理”,arXiv,2023 年。[论文]
- “通过加性量化对大型语言模型进行极端压缩”,arXiv,2023 年。[论文]
- “ZeroQuant(4+2):使用新的以 FP6 为中心的策略重新定义 LLM 量化,以用于各种生成任务”,arXiv,2023 年。[论文] [
PTQ
] - “CBQ:大型语言模型的跨块量化”,arXiv,2023 年。[论文] [
PTQ
] - “FP8-BERT:Transformer 的训练后量化”,arXiv,2023 年。[论文] [
PTQ
] - “Agile-Quant:激活引导量化,实现边缘 LLM 的更快推理”,arXiv,2023 年。[论文]
- “SmoothQuant+:针对 LLM 的准确且高效的 4 位训练后权重量化”,arXiv,2023 年。[论文] [
PTQ
] - “可部署 LLM 量化的速度之旅”,arXiv,2023 年。[论文]
- “AFPQ:LLM 的非对称浮点量化”,arXiv,2023 年。[论文]
- “在 GPU 上启用快速 2 位 LLM:内存对齐、稀疏异常值和异步去量化”,arXiv,2023 年。[论文]
- “QLoRA:量化 LLM 的有效微调”,NeurIPS,2023 年。[论文] [代码]
- “QuIP:具有保证的大型语言模型的 2 位量化”,NeurIPS,2023 年。[论文] [代码] [
PTQ
] - “通过 4 位以下整数量化实现压缩大型语言模型的内存高效微调”,NeurIPS,2023 年。[论文]
- “SqueezeLLM:密集和稀疏量化”,arXiv,2023 年。[论文] [
PTQ
] [Non-uniform
] - “QFT:具有可负担资源的 LLM 量化全参数调整”,arXiv,2023 年。[论文]
- “QMoE:万亿参数模型的实用亚 1 位压缩”,arXiv,2023 年。[论文]
- “Atom:用于高效和准确 LLM 服务的低位量化”,arXiv,2023 年。[论文]
- “ZeroQuant-HERO:针对 W8A8 Transformers 的硬件增强稳健优化训练后量化框架”,arXiv,2023 年。[论文]
- “LLM-FP4:4 位浮点量化变压器”,arXiv,2023 年。[论文]
- “TEQ:用于 LLM 量化的可训练等效变换”,arXiv,2023 年。[论文]
- “使用 FP8 格式进行高效的训练后量化”,arXiv,2023 年。[论文]
- “概率权重固定:大规模训练神经网络权重不确定性以实现量化”,arXiv,2023 年。[论文]
- “通过有符号梯度下降优化 LLM 量化的权重舍入”,arXiv,2023 年。[论文]
- “规范调整:大型语言模型的高性能低位量化”,arXiv,2023 年。[论文]
- “了解训练后量化对大型语言模型的影响”,arXiv,2023 年。[论文]
- “QuantEase:基于优化的语言模型量化——一种高效直观的算法”,arXiv,2023 年。[论文]
- “FPTQ:大型语言模型的细粒度训练后量化”,arXiv,2023 年。[论文]
- “FineQuant:通过细粒度权重量化提高 LLM 效率”,arXiv,2023 年。[论文] [
PTQ
] - “基于梯度的训练后量化:挑战现状”,arXiv,2023 年。[论文] [
PTQ
] - “NUPES:通过幂指数搜索实现非均匀训练后量化”,arXiv,2023 年。[论文] [
Non-uniform
] - “ZeroQuant-FP:使用浮点格式在 LLM 训练后 W4A8 量化方面的飞跃”,arXiv,2023 年。[论文]
- “自我蒸馏量化:在基于 Transformer 的语言模型中实现高压缩率”,arXiv,2023 年。[论文]
- “量化大型语言模型中是否存在突现能力:一项实证研究”,arXiv,2023 年。[论文]
- “INT2.1:通过低秩自适应实现可精细调整的量化大型语言模型和错误修正”,arXiv,2023 年。[论文]
- “QIGen:为大型语言模型的量化推理生成高效内核”,arXiv,2023 年。[论文] [代码]
- “OWQ:从激活异常值中吸取的教训,用于大型语言模型中的权重量化”,arXiv,2023 年。[论文] [
PTQ
] - “PreQuant:一种与任务无关的预训练语言模型量化方法”,arXiv,2023 年。[论文]
- “AWQ:用于 LLM 压缩和加速的激活感知权重量化”,arXiv,2023 年。[论文] [
PTQ
] - “LLM-QAT:大型语言模型的无数据量化感知训练”,arXiv,2023 年。[论文]
- “异常值抑制+:通过等效和最优移位和缩放对大型语言模型进行精确量化”,arXiv,2023 年。[论文] [
PTQ
] - “RPTQ:基于重新排序的大型语言模型训练后量化”,arXiv,2023 年。[论文] [代码] [
PTQ
] - “4 位精度的情况:k 位推理缩放定律”,ICML,2023 年。[论文]
- “具有收敛保证的大型模型的量化分布式训练”,ICML,2023 年。[论文]
- “理解语言模型的 Int4 量化:延迟加速、可组合性和故障情况”,ICML,2023 年。[论文]
- “SmoothQuant:针对大型语言模型的准确、高效的训练后量化”,ICML,2023 年。[论文] [代码] [
PTQ
] - “GPTQ:针对生成式预训练 Transformer 的精确训练后量化”,ICLR,2023 年。[论文] [代码] [
PTQ
] - “BiBERT:准确的完全二值化 BERT”,ICLR,2022 年。[论文] [代码] [
Extreme
] - “BiT:稳健二值化多重提炼 Transformer”,NeurIPS,2022 年。[论文] [代码] [
Extreme
] - “异常值抑制:突破低位 Transformer 语言模型的极限”,NeurIPS,2022 年。[论文] [代码] [
PTQ
] - “LLM.int8():用于大规模 Transformer 的 8 位矩阵乘法”,NeurIPS,2022 年。[论文] [代码]
- “实现预训练语言模型的有效训练后量化”,NeurIPS,2022 年。[论文] [
PTQ
] - “ZeroQuant:针对大规模 Transformer 的高效且经济的训练后量化”,NeurIPS,2022 年。[论文] [代码] [
PTQ
] - “通过量化压缩生成预训练语言模型”,ACL,2022 年。[论文]
- “I-BERT:仅整数 BERT 量化”,ICML,2021 年。[论文] [代码]
- “BinaryBERT:突破 BERT 量化的极限”,ACL,2021 年。[论文] [代码] [
Extreme
] - “论 Transformer 中注意力值的分布、稀疏性和推理时间量化”,ACL,2021 年。[论文]
- “理解并克服高效 Transformer 量化的挑战”,EMNLP,2021 年。[论文] [代码]
- “KDLSQ-BERT:结合知识蒸馏和学习步长量化的量化 Bert”,arXiv,2021 年。[论文]
- “TernaryBERT:可蒸馏的超低位 BERT”,EMNLP,2020 年。[论文] [代码] [
Extreme
] - “用于设备上神经机器翻译的极低比特变压器量化”,EMNLP,2020 年。[论文]
- “GOBO:量化基于注意力的 NLP 模型,实现低延迟和节能推理”,MICRO,2020 年。[论文]
- “面向 Transformer 模型的完全 8 位整数推理”,IJCAI,2020 年。[论文]
- “Q-BERT:基于 Hessian 的 BERT 超低精度量化”,AAAI,2020 年。[论文]
- “Transformer 神经机器语言翻译模型的高效 8 位量化”,ICML,2019 年。[论文]
- “Q8BERT:量化 8 位 BERT”,EMC2 研讨会,2019 年。[论文]
[返回概览]
卷积神经网络
视觉生成
- “EfficientDM:低位扩散模型的高效量化感知微调”,ICLR,2024 年。[论文]
- “QuEST:通过有效选择性微调实现低位扩散模型量化”,arXiv,2024 年。[论文]
- “增强分布对齐以实现扩散模型的训练后量化”,arXiv,2023 年。[论文]
- “潜在扩散模型的有效量化策略”,arXiv,2023 年。[论文] [
PTQ
] - “TFMQ-DM:扩散模型的时间特征维护量化”,arXiv,2023 年。[论文]
- “针对文本到图像扩散模型的训练后量化与渐进校准和激活放松”,arXiv,2023 年。[论文]
- “CPU 上扩散模型的有效量化”,arXiv,2023 年。[论文]
- “PTQD:针对扩散模型的精确训练后量化”,NeurIPS,2023 年。[论文] [
PTQ
] - “Q-DM:一种高效的低位量化扩散模型”,NeurIPS,2023 年。[论文]
- “扩散模型的时间动态量化”,NeurIPS,2023 年。[论文]
- “Q-diffusion:量化扩散模型”,ICCV,2023 年。[论文] [代码] [
PTQ
] - “面向扩散模型的精确无数据量化”,arXiv,2023 年。[论文] [
PTQ
] - “扩散模型的训练后量化”,CVPR,2023 年。[论文] [代码] [
PTQ
]
图像分类
- “让 RepVGG 再次变得更好:一种量化感知方法”,AAAI,2024 年。[论文]
- “MetaMix:用于混合精度激活量化的元状态精度搜索器”,AAAI,2024 年。[论文] [
MP
] - “用于无数据量化的鲁棒性引导图像合成”,AAAI,2024 年。[论文]
- “PTMQ:神经网络的训练后多比特量化”,AAAI,2024 年。[论文] [
PTQ
] - “可训练定点量化,用于 FPGA 上的深度学习加速”,arXiv,2023 年。[论文]
- “StableQ:使用文本到图像数据增强数据稀缺量化”,arXiv,2023 年。[论文]
- “理解具有前向和后向近端量化器的神经网络二值化”,NeurIPS,2023 年。[论文] [
Extreme
] - “TexQ:具有纹理特征分布校准的零样本网络量化”,NeurIPS,2023 年。[论文]
- “克服量化感知训练中的遗忘灾难”,ICCV,2023 年。[论文]
- “Causal-DFQ:因果关系引导的无数据网络量化”,ICCV,2023 年。[论文] [代码]
- “DenseShift:迈向准确高效的低位二次方量化”,ICCV,2023 年。[论文]
- “EQ-Net:弹性量化神经网络”,ICCV,2023 年。[论文] [代码]
- “A2Q:具有保证溢出避免功能的累加器感知量化”,ICCV,2023 年。[论文]
- “EMQ:不断发展的自动混合精度量化的免训练代理”,ICCV,2023 年。[论文] [
MP
] - “统一无数据压缩:无需微调的修剪和量化”,ICCV,2023 年。[论文] [
PTQ
] - “少位后向:用于减少内存占用的激活函数量化梯度”,ICML,2023 年。[论文] [代码]
- “FlexRound:基于元素除法的可学习舍入,用于训练后量化”,ICML,2023 年。[论文] [
PTQ
] - “通过无需微调的混合精度补偿实现无数据量化”,PR,2023 年。[论文]
- “OMPQ:正交混合精度量化”,AAAI,2023 年。[论文] [
MP
] - “将无数据量化重新思考为零和游戏”,AAAI,2023 年。[论文]
- “用于网络量化的量化特征蒸馏”,AAAI,2023 年。[论文]
- “弹性二元神经网络”,AAAI,2023 年。[论文] [
Extreme
] - “基于深度宽度重塑的快速准确二元神经网络”,AAAI,2023 年。[论文] [
Extreme
] - “通过自适应核心集选择实现高效的量化感知训练”,arXiv,2023 年。[论文]
- “混合精度量化的一次性模型”,CVPR,2023 年。[论文] [
MP
] - “自适应无数据量化”,CVPR,2023 年。[论文]
- “位缩减:限制瞬时清晰度以改善训练后量化”,CVPR,2023 年。[论文] [
PTQ
] - “从理论角度解决训练后量化中的振荡问题”,CVPR,2023 年。[论文] [代码] [
PTQ
] - “GENIE:向我展示量化数据”,CVPR,2023 年。[论文] [代码] [
PTQ
] - “贝叶斯非对称量化神经网络”,PR,2023 年。[论文]
- “针对精确二元神经网络的分布敏感信息保留”,IJCV,2023 年。[论文] [
Extreme
] - “SDQ:具有混合精度的随机可微量化”,ICML,2022 年。[论文] [
MP
] - “在深度神经网络中寻找任务最优低位子分布”,ICML,2022 年。[论文] [代码]
- “GACT:通用网络架构的激活压缩训练”,ICML,2022 年。[论文] [代码]
- “克服量化感知训练中的震荡”,ICML,2022 年。[论文] [代码]
- “非均匀到均匀量化:通过广义直通估计实现准确量化”,CVPR,2022 年。 [论文] [代码] [
Non-uniform
] - “用于神经网络量化的可学习查找表”,CVPR,2022 年。[论文] [代码] [
Non-uniform
] - “Mr.BiQ:基于最小化重建误差的训练后非均匀量化”,CVPR,2022 年。[论文] [
PTQ
] [Non-uniform
] - “通过参数非均匀混合精度量化实现无数据网络压缩”,CVPR,2022 年。[论文] [
Non-uniform
] [MP
] - “IntraQ:学习具有类内异质性的合成图像以实现零样本网络量化”,CVPR,2022 年。[论文] [代码]
- “实例感知动态神经网络量化”,CVPR,2022 年。[论文]
- “利用层间依赖性进行训练后量化”,NeurIPS,2022 年。[论文] [
PTQ
] - “通过平滑感知量化技术实现理论上更好、数值上更快的分布式优化”,NeurIPS,2022 年。[论文]
- “用于深度网络设计的熵驱动混合精度量化”,NeurIPS,2022 年。[论文] [
MP
] - “AdderNet 量化的权重和激活重新分配”,NeurIPS,2022 年。[论文]
- “FP8 量化:指数的力量”,NeurIPS,2022 年。[论文] [代码]
- “最佳脑压缩:准确的训练后量化和修剪框架”,NeurIPS,2022 年。[论文] [代码] [
PTQ
] - “ClimbQ:类别不平衡量化,实现高效推理的稳健性”,NeurIPS,2022 年。[论文]
- “非均匀步长量化以实现准确的训练后量化”,ECCV,2022 年。[论文] [
PTQ
] [Non-uniform
] - “通过等效平滑正则化器实现精确网络量化”,ECCV,2022 年。[论文]
- “BASQ:针对 4 位以下神经网络的分支激活剪辑搜索量化”,ECCV,2022 年。[论文] [代码]
- “RDO-Q:通过率失真优化实现极细粒度的通道量化”,ECCV,2022 年。[论文]
- “通过学习逐层重要性实现混合精度神经网络量化”,ECCV,2022 年。[论文] [代码] [代码] [
MP
] - “稳健量化的对称正则化和饱和非线性”,ECCV,2022 年。[论文]
- “RAPQ:挽救 2 的幂低位训练后量化的准确率”,IJCAI,2022 年。[论文] [代码] [
PTQ
] - “MultiQuant:一次训练即可实现神经网络的多位量化”,IJCAI,2022 年。[论文]
- “F8Net:用于网络量化的定点 8 位乘法”,ICLR,2022 年。[论文]
- “通过块量化实现的 8 位优化器”,ICLR,2022 年。[论文] [代码]
- “信息瓶颈:(量化)神经网络的精确分析”,ICLR,2022 年。[论文] [代码]
- “QDrop:随机丢弃量化以实现极低位训练后量化”,ICLR,2022 年。[论文] [代码] [
PTQ
] - “SQuant:通过对角线 Hessian 近似实现即时无数据量化”,ICLR,2022 年。[论文] [代码] [
PTQ
] - “FILM-QNN:具有层内混合精度量化的深度神经网络的高效 FPGA 加速”,FPGA,2022 年。[论文] [
MP
] - “使用小校准集进行准确的训练后量化”,ICML,2021 年。[论文] [代码] [
PTQ
] - “Adam 和训练策略如何帮助 BNN 优化?”, ICML,2021 年。[论文] [代码]
- “ActNN:通过 2 位激活压缩训练减少训练内存占用”,ICML,2021 年。[论文] [代码]
- “HAWQ-V3:二元神经网络量化”,ICML,2021 年。[论文] [代码] [
MP
] - “具有混合精度和自适应分辨率的可微分动态量化”,ICML,2021 年。[论文] [
MP
] - “Auto-NBA:在网络、位宽和加速器的联合空间中进行高效搜索”,ICML,2021 年。[论文] [代码]
- “Qimera:具有合成边界支持样本的无数据量化”,NeurIPS,2021 年。[论文] [代码]
- “训练后稀疏性感知量化”,NeurIPS,2021 年。[论文] [代码] [
PTQ
] - “多样化样本生成以实现准确的无数据量化”,CVPR,2021 年。[论文] [
PTQ
] - “置换、量化和微调:神经网络的有效压缩。”, CVPR,2021 年。[论文] [代码]
- “可学习的压缩量化,用于精确的低位神经网络”,CVPR,2021 年。[论文]
- “零样本对抗量化”,CVPR,2021 年。[论文] [代码]
- “使用逐元素梯度缩放的网络量化”,CVPR,2021 年。[论文] [代码]
- “高容量专家二元网络”,ICLR,2021 年。 [论文] [代码] [
Extreme
] - “多奖彩票假设:通过修剪随机加权网络寻找准确的二元神经网络”,ICLR,2021 年。[论文] [代码] [
Extreme
] - “BRECQ:通过块重建突破训练后量化的极限”,ICLR,2021 年。[论文] [代码] [
PTQ
] - “神经梯度接近对数正态:改进的量化和稀疏训练”,ICLR,2021 年。[论文]
- “使用量化噪声进行训练以实现极端模型压缩”,ICLR,2021 年。[论文]
- “BSQ:探索混合精度神经网络量化的位级稀疏性”,ICLR,2021 年。[论文] [代码] [
MP
] - “简单的增强大有裨益:用于 DNN 量化的 ADRL”,ICLR,2021 年。[论文]
- “用于训练 CNN 的分布自适应 INT8 量化”,AAAI,2021 年。[论文]
- “随机精度集成:量化深度神经网络的自我知识提炼”,AAAI,2021 年。[论文]
- “优化基于信息理论的按位瓶颈以实现高效的混合精度激活量化”,AAAI,2021 年。[论文] [
MP
] - “OPQ:使用一次性剪枝量化压缩深度神经网络”,AAAI,2021 年。[论文]
- “量化神经网络的可扩展验证”,AAAI,2021 年。[论文] [代码]
- “通过凸神经网络的引导实现 CNN 中的不确定性量化”,AAAI,2021 年。[论文]
- “FracBits:通过分数位宽实现混合精度量化”,AAAI,2021 年。[论文] [
MP
] - “多点训练后量化:无混合精度的混合精度”,AAAI,2021 年。[论文] [
PTQ
] [MP
] - “ZeroQ:一种新颖的零样本量化框架”,CVPR,2020 年。 [论文] [代码] [
PTQ
] - “LSQ+:通过可学习偏移和更好的初始化改进低位量化”,CVPR,2020 年。[论文]
- “HAWQ-V2:基于 Hessian 的神经网络迹加权量化”,NeurIPS,2020 年。[论文] [
MP
] - “学习步长量化”,ICLR,2020 年。[论文]
- “HAWQ:具有混合精度的神经网络的 Hessian AWare 量化”,ICCV,2019 年。[论文] [
MP
] - “通过权重均衡和偏差校正实现无数据量化”,ICCV,2019 年。[论文] [
PTQ
] - “HAQ:具有混合精度的硬件感知自动量化”,CVPR,2019 年。[论文] [代码] [
MP
] - “PACT:量化神经网络的参数化剪切激活”,arXiv,2018 年。[论文]
- “用于高效整数算术推理的神经网络量化与训练”,CVPR,2018 年。[论文]
[返回概览]
其他任务
物体检测
- “使用任务损失引导的 Lp 指标改进对象检测的训练后量化”,arXiv,2023 年。[论文] [
PTQ
] - “AQD:实现准确的量化物体检测”,CVPR,2021 年。[论文]
- “BiDet:一种高效的二值化物体检测器”,CVPR,2020 年。[论文] [代码] [
Extreme
] - “用于对象检测的完全量化网络”,CVPR,2019 年。[论文]
超分辨率
- “QuantSR:实现高效图像超分辨率的精确低位量化”,NeurIPS,2023 年。[论文]
- “实现图像超分辨率的精确训练后量化”,CVPR,2023 年。[论文] [代码] [
PTQ
] - “EBSR:用于图像超分辨率的增强二元神经网络”,arXiv,2023 年。[论文] [
Extreme
] - “CADyQ:用于图像超分辨率的内容感知动态量化”,ECCV,2022 年。[论文] [代码]
- “超低精度超分辨率网络的动态双可训练界限”,ECCV,2022 年。[论文] [代码]
- “DAQ:深度图像超分辨率网络的通道分布感知量化”,WACV,2022 年。[论文] [代码]
- “完全量化图像超分辨率网络”,ACM MM,2021 年。[论文] [代码]
- “PAMS:通过参数化最大尺度实现量化超分辨率”,ECCV,2020 年。[论文] [代码]
- “训练不使用批量归一化的二值神经网络实现图像超分辨率”,AAAI,2021 年。[论文] [
Extreme
]
点云
- “LiDAR-PTQ:点云 3D 物体检测的训练后量化”,ICLR,2024 年。[论文] [
PTQ
] - “二值化稀疏卷积网络以实现高效点云分析”,arXiv,2023 年。[论文] [
Extreme
] - “BiPointNet:点云的二元神经网络”,ICLR,2021 年。[论文] [代码] [
Extreme
]
RA/SD 衍生者AI训练营。发布者:chris,转载请注明出处:https://www.shxcj.com/archives/4245