Key Findings
  • 量化是模型壓縮中投資報酬率最高的技術——將 FP16 權重轉為 INT4 可立即減少 75% 記憶體,且多數情況下精度損失低於 1%
  • AWQ(MLSys 2024 最佳論文)發現只需保護 1% 的關鍵權重,就能讓 4-bit 量化幾乎無損——LLaMA-70B 可塞進單張 RTX 4090(24GB)
  • QLoRA 讓量化不再只是推論技術——4-bit 量化 + LoRA 微調的組合,讓單張 48GB GPU 即可微調 65B 模型,品質與全精度微調相當
  • BitNet b1.58 用三值 {-1, 0, +1} 權重在 3B 規模匹配 FP16 LLaMA,速度快 2.71x、記憶體少 3.55x——挑戰「模型必須是浮點數」的基本假設

一、AI 的「精度囚徒」困境:你正在為不必要的精度買單

AI 產業有一個昂貴的習慣:用 32-bit 或 16-bit 浮點數來儲存和計算每一個模型參數。LLaMA-70B 以 FP16 儲存需要 140GB 記憶體——這超過了任何單張消費級 GPU 的容量。即使是企業級的 A100 80GB,也需要至少兩張才能載入。Harvard Business Review 指出[1],全球 AI 基礎設施的能耗正以驚人速度膨脹,而其中大量算力正花在維持「不必要的精度」上。

MIT Sloan Management Review 的研究[2]進一步指出,小型化、高效化的 AI 部署往往比追求最大模型帶來更高的商業回報。問題的核心在於:模型真的需要 16-bit 的精度嗎?

答案在多數情況下是「不需要」。量化(Quantization)的核心洞察是:神經網路的權重和激活值中存在大量的冗餘精度。將 FP16(16-bit 浮點數)轉為 INT4(4-bit 整數),記憶體立即減少 75%,而精度損失通常不到 1%。更激進的研究(如 BitNet b1.58)甚至證明,用三個值 {-1, 0, +1} 就能訓練出與全精度模型表現相當的 LLM。

與剪枝(移除參數)和蒸餾(訓練新模型)不同,量化的核心操作是降低每個參數的數值精度——模型結構不變、參數數量不變,但每個參數佔用的位元數大幅縮減。這讓量化成為三大壓縮技術中最容易導入、最不需要重新訓練的方法。

二、技術演進:從 INT8 的謹慎嘗試到 1.58-bit 的極限突破

2.1 基礎概念:PTQ vs. QAT

量化技術分為兩大流派,它們在成本、精度和適用場景上有本質區別:

後訓練量化(Post-Training Quantization, PTQ)在模型訓練完成後直接進行,只需少量校準數據(通常 128-512 筆樣本),無需重新訓練。PTQ 是目前 LLM 量化的主流方法,因為重新訓練一個 70B+ 模型的成本太高。GPTQ、AWQ、GGUF 量化都屬於 PTQ。

量化感知訓練(Quantization-Aware Training, QAT)在訓練過程中模擬量化的效果,讓模型學會在低精度下也能保持準確。QAT 的精度通常優於 PTQ,但需要完整的訓練基礎設施。Google 在 2018 年的開創性工作[3]奠定了 QAT 的工程基礎,至今仍是行動裝置部署(TensorFlow Lite)的核心方法。

特性PTQ(後訓練量化)QAT(量化感知訓練)
需要重新訓練?否(僅校準)是(完整或部分訓練)
時間成本分鐘至數小時天至數週
精度(8-bit)幾乎無損幾乎無損
精度(4-bit)輕微下降(GPTQ/AWQ 可控制)更好(但成本高)
精度(2-bit)明顯下降可接受(需專門設計)
適用場景LLM 推論部署(主流)邊緣裝置、極低位元需求

2.2 LLM.int8():突破大模型的記憶體牆

2022 年,Tim Dettmers 等人在 NeurIPS 發表了 LLM.int8()[4],首次讓 175B 參數的模型(如 OPT-175B)以 INT8 精度在 GPU 上推論,記憶體減半但精度完全不下降

LLM.int8() 的核心發現是:大型 Transformer 中存在少量「異常值特徵」(outlier features)——某些維度的激活值比其他維度大 100 倍以上。直接量化會把這些異常值「截斷」,導致嚴重的精度崩塌。解決方案是混合精度分解:對異常值維度保持 FP16,其餘維度用 INT8——兩者的矩陣乘法結果再合併。

這篇論文不僅解決了技術問題,更催生了 bitsandbytes 函式庫——如今 HuggingFace 生態系中最廣泛使用的量化後端。

2.3 GPTQ:一次性壓縮到 3-4 bit

如果 INT8 是量化的「安全區」,那麼 GPTQ[5](ICLR 2023)則開啟了「激進區」——將 LLM 壓縮到每個參數 3-4 bit。

GPTQ 基於一個聰明的近似:用二階資訊(Hessian 矩陣的近似)來決定量化每個權重時的最佳補償策略。透過逐層量化並將量化誤差「傳播」到後續權重中,GPTQ 在數小時內將 OPT-175B 和 BLOOM-176B 壓縮到 3-4 bit,精度幾乎不受影響。這意味著一個原本需要 350GB 記憶體的模型,現在只需要 ~44-88GB——可以塞進單張或雙張高階 GPU。

GPTQ 的另一個重要貢獻是建立了 LLM 量化的工程基準——後續的 AWQ、SqueezeLLM 等方法都以 GPTQ 作為比較對象。

2.4 AWQ:只保護 1% 的關鍵權重

MIT 韓松團隊的 AWQ[6](MLSys 2024 最佳論文)提出了一個令人驚訝的發現:不是所有權重都同等重要。只要根據激活值的大小識別出那 1% 的「關鍵權重」,對它們進行特殊保護(乘以一個縮放因子再量化),就能讓 4-bit 量化幾乎無損。

與 GPTQ 需要逐層的二階優化不同,AWQ 的方法更直覺、更快速,而且硬體友好——它產生的量化格式可以直接被 GPU 高效執行,在邊緣 GPU 上實現 3 倍以上的加速。

2.5 QLoRA:量化 + 微調的黃金組合

量化通常被視為純推論技術——先訓練好模型,再量化部署。QLoRA[7](NeurIPS 2023 Oral)打破了這個邊界:它讓你在量化狀態下微調模型

QLoRA 的三大創新:

結果是:單張 48GB GPU 即可微調 65B 模型,品質與全 16-bit 微調相當。QLoRA 的 Guanaco 模型(在 OASST1 數據集上微調的 LLaMA)在 24 小時內完成訓練,品質達到 ChatGPT 的 99.3%。

2.6 極限壓縮:SqueezeLLM、AQLM 與 QuIP#

當位元數降到 3-bit 以下,傳統的均勻量化(每個值映射到等距的離散點)開始力不從心。2024 年,三篇 ICML 論文同時攻克了這一難題:

SqueezeLLM[8] 的策略是「分而治之」:將少數極端異常值隔離到一個稀疏矩陣中(保持高精度),對剩餘權重用 K-means 非均勻量化——離散點不等距,而是集中在權重分佈密集的區域。

AQLM[9] 則借鑑了資訊檢索中的多碼本量化技術:每組權重用多個碼本的碼字之「和」來表示,碼本可學習。這讓 AQLM 成為首個在 2-bit 以下達到 Pareto 最優的方法。

QuIP#[10] 則從數學角度出發:先用隨機 Hadamard 變換將權重「打散」(消除維度間的相關性),再用 E8 晶格碼本(數學上最密集的 8 維球填充)進行向量量化。

2.7 BitNet b1.58:挑戰「模型必須是浮點數」的基本假設

如果說上述方法是在「壓縮」已有的浮點模型,那麼微軟的 BitNet[11] 則提出了一個更根本的問題:模型從一開始就不需要是浮點數

BitNet 用 BitLinear 替換標準的 nn.Linear,從訓練第一步起就使用 1-bit 權重。2024 年,團隊發表了 BitNet b1.58[12],將權重量化為三個值 {-1, 0, +1}(1.58 bits = log₂3)。在 3B 參數規模上,BitNet b1.58 匹配了 FP16 LLaMA 的表現,同時:

更驚人的是,BitNet 的效能優勢隨著模型規模增大而擴大——這暗示在更大的規模上,1.58-bit 模型可能會超越全精度模型。BitNet 的推論引擎 bitnet.cpp(2025 年 ACL 發表)在 CPU 上即可高效運行三值模型,讓 LLM 在無 GPU 的設備上也成為可能。

三、實證數據:量化壓縮效果全覽

模型技術位元數記憶體節省精度影響來源
OPT-175BLLM.int8()INT8~50%零退化Dettmers et al., 2022
OPT-175B / BLOOM-176BGPTQ3-4 bit75-81%PPL 幾乎不變Frantar et al., 2022
LLaMA 系列AWQ4 bit~75%幾乎無損;3x+ 加速Lin et al., 2024
LLaMA-65BQLoRA (NF4)4 bit + LoRA~75%(可微調)與 FP16 微調相當Dettmers et al., 2023
LLaMA 系列SqueezeLLM3 bit~81%無損(Dense+Sparse)Kim et al., 2024
LLaMA-2-70BAQLM2 bit~87%2-bit Pareto 最優Egiazarian et al., 2024
3B 規模BitNet b1.581.58 bit3.55x 減少匹配 FP16 LLaMAMa et al., 2024
FLUX.1-dev (12B)SVDQuantW4A43.5x 減少幾乎無損Li et al., 2025

四、決策框架:量化的收益、代價與適用邊界

量化是三大模型壓縮技術(量化、剪枝、蒸餾)中導入門檻最低的。理解它的定位有助於選擇正確的壓縮策略:

維度原始模型(FP16/BF16)量化後模型(INT4/INT8)
記憶體用量每參數 2 bytes(如 LLaMA-70B: 140GB)每參數 0.5 bytes(INT4: 35GB)至 1 byte(INT8: 70GB)
推論速度基準速度INT8: 1.5-2x 加速;INT4-AWQ: 3x+ 加速
精度完整精度INT8 幾乎無損;INT4 損失 <1%;2-bit 需專門方法
導入成本極低(PTQ 僅需分鐘至小時,無需重新訓練)
微調能力完整微調QLoRA 支援量化狀態下微調
硬體需求多張高階 GPU單張消費級 GPU 即可推論;CPU 可用 GGUF 格式

策略性優勢

必須管理的風險

量化 vs. 剪枝 vs. 蒸餾:何時用哪個?

場景推薦技術原因
快速降低推論記憶體量化(AWQ / GPTQ / GGUF)無需重訓,分鐘級完成
需要改變模型架構蒸餾學生可用不同架構
移除冗餘結構剪枝結構化剪枝真正縮小模型
追求極致壓縮剪枝 + 蒸餾 + 量化三者組合可達 35-49x
邊緣裝置 / CPU 部署量化(GGUF)+ 剪枝GGUF 原生支援 CPU 推論
低預算微調大模型QLoRA(量化 + LoRA)單 GPU 微調 65B 模型

五、Hands-on Lab:Google Colab 線上實驗室(CV 模型量化)

讓我們從最基礎的場景開始:用 PyTorch 內建的量化工具對 ResNet-18 進行 INT8 量化,量化前後比較精度、速度和模型大小。所有程式碼可直接在 Google Colab 上執行(本實驗使用 CPU,因為 PyTorch 的動態量化針對 CPU 優化)。

打開 Google Colab,新建 Notebook,依序貼入以下程式碼:

5.1 Step 1 — 載入預訓練模型與資料

import torch
import torch.nn as nn
import torch.quantization as quant
import torchvision
import torchvision.transforms as transforms
import torchvision.models as models
import time, os, copy

# 本實驗使用 CPU(PyTorch 量化推論針對 CPU 優化)
device = torch.device("cpu")
print(f"裝置: {device}")

# ---- 資料集 ----
transform_test = transforms.Compose([
    transforms.ToTensor(),
    transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2470, 0.2435, 0.2616)),
])

testset = torchvision.datasets.CIFAR10(root='./data', train=False,
                                       download=True, transform=transform_test)
testloader = torch.utils.data.DataLoader(testset, batch_size=256,
                                         shuffle=False, num_workers=2)

# 校準用資料
calibration_set = torchvision.datasets.CIFAR10(root='./data', train=True,
                                                download=True, transform=transform_test)
calibloader = torch.utils.data.DataLoader(calibration_set, batch_size=64,
                                           shuffle=True, num_workers=2)

# ---- 模型:ResNet-18(適配 CIFAR-10)----
model = models.resnet18(weights=None, num_classes=10)
model.conv1 = nn.Conv2d(3, 64, kernel_size=3, stride=1, padding=1, bias=False)
model.maxpool = nn.Identity()

# 載入預訓練權重(先訓練 10 epochs)
import torch.optim as optim
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.1, momentum=0.9, weight_decay=5e-4)
scheduler = optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max=10)

trainset = torchvision.datasets.CIFAR10(root='./data', train=True,
                                        download=True, transform=transforms.Compose([
    transforms.RandomCrop(32, padding=4),
    transforms.RandomHorizontalFlip(),
    transforms.ToTensor(),
    transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2470, 0.2435, 0.2616)),
]))
trainloader = torch.utils.data.DataLoader(trainset, batch_size=128, shuffle=True, num_workers=2)

print("訓練基準模型(10 epochs)...")
model.train()
for epoch in range(10):
    for inputs, targets in trainloader:
        optimizer.zero_grad()
        loss = criterion(model(inputs), targets)
        loss.backward()
        optimizer.step()
    scheduler.step()
    if (epoch + 1) % 5 == 0:
        print(f"  Epoch {epoch+1}/10 完成")

model.eval()
print("✓ 基準模型訓練完成")

5.2 Step 2 — 評估工具函數

def evaluate(model, dataloader):
    """計算測試集準確率(CPU)"""
    model.eval()
    correct, total = 0, 0
    with torch.no_grad():
        for inputs, targets in dataloader:
            outputs = model(inputs)
            _, predicted = outputs.max(1)
            total += targets.size(0)
            correct += predicted.eq(targets).sum().item()
    return 100. * correct / total

def measure_speed(model, input_size=(1, 3, 32, 32), n_runs=300):
    """測量 CPU 推論延遲(ms)"""
    model.eval()
    dummy = torch.randn(*input_size)
    for _ in range(50):
        with torch.no_grad():
            model(dummy)
    start = time.perf_counter()
    for _ in range(n_runs):
        with torch.no_grad():
            model(dummy)
    return (time.perf_counter() - start) / n_runs * 1000

def get_model_size_mb(model):
    """計算模型大小(MB)"""
    torch.save(model.state_dict(), "/tmp/_tmp_q.pth")
    size = os.path.getsize("/tmp/_tmp_q.pth") / 1024 / 1024
    os.remove("/tmp/_tmp_q.pth")
    return size

# ---- 基準數據 ----
base_acc = evaluate(model, testloader)
base_speed = measure_speed(model)
base_size = get_model_size_mb(model)

print(f"{'='*55}")
print(f"  基準模型(FP32 ResNet-18)")
print(f"{'='*55}")
print(f"  準確率:     {base_acc:.2f}%")
print(f"  推論延遲:   {base_speed:.2f} ms")
print(f"  模型大小:   {base_size:.2f} MB")
print(f"{'='*55}")

5.3 Step 3 — 動態量化(最簡單:一行程式碼)

# ★ 動態量化:一行程式碼,立即完成 ★
# 只量化 Linear 層的權重為 INT8,激活值在推論時動態量化
model_dynamic = torch.quantization.quantize_dynamic(
    copy.deepcopy(model),
    {nn.Linear},   # 量化哪些層
    dtype=torch.qint8
)

dyn_acc = evaluate(model_dynamic, testloader)
dyn_speed = measure_speed(model_dynamic)
dyn_size = get_model_size_mb(model_dynamic)

print(f"\n動態量化 (INT8)")
print(f"  準確率:     {dyn_acc:.2f}% (Δ {dyn_acc - base_acc:+.2f}%)")
print(f"  推論延遲:   {dyn_speed:.2f} ms (加速 {base_speed/dyn_speed:.2f}x)")
print(f"  模型大小:   {dyn_size:.2f} MB (縮小 {base_size/dyn_size:.2f}x)")

5.4 Step 4 — 靜態量化(更好:權重 + 激活值都量化)

# 靜態量化需要先插入觀測器,再用校準數據收集統計
model_static = copy.deepcopy(model)
model_static.eval()

# 設定量化配置
model_static.qconfig = torch.quantization.get_default_qconfig('x86')

# 融合層(Conv + BN + ReLU → 單一操作)
model_fused = torch.quantization.fuse_modules(model_static, [
    ['conv1', 'bn1', 'relu'],
])

# 插入觀測器
model_prepared = torch.quantization.prepare(model_fused)

# ★ 校準:用訓練數據跑幾個 batch ★
print("靜態量化校準中...")
with torch.no_grad():
    for i, (inputs, _) in enumerate(calibloader):
        model_prepared(inputs)
        if i >= 15:  # 約 1000 張圖片
            break

# 轉換為量化模型
model_quantized = torch.quantization.convert(model_prepared)

stat_acc = evaluate(model_quantized, testloader)
stat_speed = measure_speed(model_quantized)
stat_size = get_model_size_mb(model_quantized)

print(f"\n靜態量化 (INT8)")
print(f"  準確率:     {stat_acc:.2f}% (Δ {stat_acc - base_acc:+.2f}%)")
print(f"  推論延遲:   {stat_speed:.2f} ms (加速 {base_speed/stat_speed:.2f}x)")
print(f"  模型大小:   {stat_size:.2f} MB (縮小 {base_size/stat_size:.2f}x)")

5.5 Step 5 — 完整比較

print(f"\n{'='*70}")
print(f"  量化效果完整比較(ResNet-18 / CIFAR-10 / CPU)")
print(f"{'='*70}")
print(f"{'方法':<14} {'準確率':>8} {'精度變化':>8} {'延遲(ms)':>9} "
      f"{'加速比':>7} {'大小(MB)':>9} {'壓縮比':>7}")
print(f"{'-'*70}")

results = [
    ('FP32 原始', base_acc, 0, base_speed, 1.0, base_size, 1.0),
    ('動態 INT8', dyn_acc, dyn_acc-base_acc, dyn_speed,
     base_speed/dyn_speed, dyn_size, base_size/dyn_size),
    ('靜態 INT8', stat_acc, stat_acc-base_acc, stat_speed,
     base_speed/stat_speed, stat_size, base_size/stat_size),
]

for name, acc, delta, speed, speedup, size, compress in results:
    print(f"{name:<14} {acc:>7.2f}% {delta:>+7.2f}% {speed:>8.2f}  "
          f"{speedup:>6.2f}x {size:>8.2f}  {compress:>6.2f}x")

print(f"{'='*70}")
print(f"\n★ 關鍵觀察:")
print(f"  • 動態量化最簡單(一行程式碼),但只壓縮 Linear 層")
print(f"  • 靜態量化更全面,模型大小和速度改善更顯著")
print(f"  • 兩者的精度損失都很小——INT8 是最安全的量化起點")
print(f"  • CPU 推論加速是量化的主要受益場景")

六、Hands-on Lab:LLM 4-bit 量化推論(語言模型)

CV 模型量化展示了基礎原理。接下來是重頭戲——在免費 Google Colab 上用 4-bit 量化載入和運行大型語言模型。我們會用到 HuggingFace 的 bitsandbytes 整合[13]和 GPTQ 格式。

打開 Google Colab(選 T4 GPU),新建 Notebook,依序貼入以下程式碼:

6.1 方法一:bitsandbytes 4-bit(最簡單)

!pip install transformers accelerate bitsandbytes -q

import torch
from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
import time

# ★ 一行配置即可啟用 4-bit 量化 ★
bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,                    # 啟用 4-bit 量化
    bnb_4bit_quant_type="nf4",           # NF4 格式(QLoRA 推薦)
    bnb_4bit_compute_dtype=torch.float16, # 計算時用 FP16
    bnb_4bit_use_double_quant=True,       # 雙重量化(進一步省記憶體)
)

model_name = "microsoft/phi-2"  # 2.7B 參數,免費 Colab T4 可運行

print("載入 4-bit 量化模型...")
tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
model_4bit = AutoModelForCausalLM.from_pretrained(
    model_name,
    quantization_config=bnb_config,
    device_map="auto",
    trust_remote_code=True,
)

# 記憶體統計
mem_allocated = torch.cuda.memory_allocated() / 1024**3
print(f"✓ 4-bit 模型載入完成")
print(f"  GPU 記憶體使用: {mem_allocated:.2f} GB")
print(f"  (FP16 需要約 {2.7*2:.1f} GB,4-bit 僅需約 {2.7*0.5:.1f} GB)")

# 生成測試
prompts = [
    "The key advantage of model quantization is",
    "In machine learning, reducing model size while maintaining accuracy",
    "Knowledge distillation and quantization are complementary because",
]

model_4bit.eval()
for prompt in prompts:
    inputs = tokenizer(prompt, return_tensors="pt").to(model_4bit.device)
    with torch.no_grad():
        outputs = model_4bit.generate(
            **inputs, max_new_tokens=60,
            do_sample=True, temperature=0.7, top_p=0.9,
        )
    text = tokenizer.decode(outputs[0], skip_special_tokens=True)
    print(f"\n  Prompt: {prompt}")
    print(f"  Output: {text[:200]}...")

6.2 方法二:載入預量化的 GPTQ 模型

!pip install auto-gptq optimum -q

from transformers import AutoModelForCausalLM, AutoTokenizer

# HuggingFace 上有大量社群預量化的 GPTQ 模型
# 例如 TheBloke 提供的 GPTQ 量化版本
model_name = "TheBloke/Llama-2-7B-Chat-GPTQ"

print("載入 GPTQ 4-bit 模型...")
tokenizer = AutoTokenizer.from_pretrained(model_name)
model_gptq = AutoModelForCausalLM.from_pretrained(
    model_name,
    device_map="auto",
    torch_dtype=torch.float16,
)

mem = torch.cuda.memory_allocated() / 1024**3
print(f"✓ GPTQ 模型載入完成")
print(f"  GPU 記憶體: {mem:.2f} GB(原始 FP16 需 ~14 GB)")

# 對話測試
messages = "What is model quantization and why is it important for AI deployment?"
inputs = tokenizer(messages, return_tensors="pt").to(model_gptq.device)
with torch.no_grad():
    outputs = model_gptq.generate(**inputs, max_new_tokens=100, temperature=0.7)
print(f"\n  Q: {messages}")
print(f"  A: {tokenizer.decode(outputs[0], skip_special_tokens=True)[:300]}...")

6.3 方法三:自己量化一個模型(AWQ)

!pip install autoawq -q

from awq import AutoAWQForCausalLM
from transformers import AutoTokenizer

# 選擇要量化的模型
model_path = "facebook/opt-1.3b"  # 1.3B,免費 Colab 可量化

print("開始 AWQ 量化...")
print("  載入原始模型...")
model = AutoAWQForCausalLM.from_pretrained(model_path)
tokenizer = AutoTokenizer.from_pretrained(model_path)

# ★ AWQ 量化配置 ★
quant_config = {
    "zero_point": True,   # 對稱量化
    "q_group_size": 128,  # 量化分組大小
    "w_bit": 4,           # 4-bit 量化
    "version": "GEMM",    # GPU 加速版本
}

# 執行量化(幾分鐘)
model.quantize(tokenizer, quant_config=quant_config)

# 儲存量化模型
save_path = "./opt-1.3b-awq-4bit"
model.save_quantized(save_path)
tokenizer.save_pretrained(save_path)

print(f"✓ AWQ 量化完成,已儲存至 {save_path}")

# 比較檔案大小
import os
orig_size = sum(os.path.getsize(f"./opt-1.3b-awq-4bit/{f}")
                for f in os.listdir(save_path) if f.endswith('.safetensors'))
print(f"  量化後模型大小: {orig_size / 1024**2:.0f} MB")
print(f"  (原始 FP16 約 {1.3*2*1024:.0f} MB)")

6.4 進階:用 llama.cpp 在 CPU 上運行量化模型

如果你的目標是在沒有 GPU 的電腦上跑 LLM,llama.cpp[14] 的 GGUF 格式是最實用的方案:

# 在本地終端機(非 Colab)執行:

# 1. 安裝 llama.cpp
git clone https://github.com/ggml-org/llama.cpp
cd llama.cpp && make -j

# 2. 下載社群量化的 GGUF 模型(HuggingFace 上有大量現成版本)
# 例如:Q4_K_M 是品質和大小的最佳平衡點
huggingface-cli download TheBloke/Llama-2-7B-Chat-GGUF \
    llama-2-7b-chat.Q4_K_M.gguf --local-dir ./models

# 3. 直接在 CPU 上推論!
./llama-cli -m ./models/llama-2-7b-chat.Q4_K_M.gguf \
    -p "Explain model quantization in simple terms:" \
    -n 200 -t 8

# GGUF 量化等級比較:
# Q2_K:   2-bit(最小,品質較差)
# Q4_K_M: 4-bit(推薦,品質/大小最佳平衡)
# Q5_K_M: 5-bit(品質接近 FP16)
# Q8_0:   8-bit(幾乎無損,但較大)

七、擴散模型量化:讓 12B 的 FLUX 塞進 16GB 顯卡

量化對擴散模型的意義同樣巨大。FLUX.1-dev 有 12B 參數,以 FP16 需要 24GB VRAM——超出 RTX 4090 的容量。量化是讓這些模型在消費級硬體上運行的關鍵技術。

7.1 Q-Diffusion:擴散模型專用量化的先驅

擴散模型的量化比 LLM 更棘手,因為同一個模型需要在不同的去噪時間步(timestep)上工作——每個時間步的激活值分佈都不同。Li 等人在 ICCV 2023 發表的 Q-Diffusion[15] 首次解決了這個問題:用時間步感知校準(而非單一的全局校準)收集量化統計,並針對 shortcut 連接進行特殊處理,實現了 4-bit 權重量化且 FID 幾乎不下降。

7.2 SVDQuant:低秩分支吸收異常值

MIT 韓松團隊的 SVDQuant[16](ICLR 2025 Spotlight)進一步將擴散模型量化推到了 W4A4(權重和激活值都是 4-bit)。核心創新是:先用 SVD 將權重分解為低秩分支(吸收異常值,保持高精度)和殘差分支(4-bit 量化)。配合自研的 Nunchaku 推論引擎,FLUX.1-dev 的 12B 模型在16GB 的 RTX 4090 上即可流暢運行

# 使用 Nunchaku 運行 4-bit FLUX.1(需 RTX 4090 或更高)
!pip install nunchaku diffusers transformers -q

import torch
from diffusers import FluxPipeline

# 載入 SVDQuant 4-bit 版本
pipe = FluxPipeline.from_pretrained(
    "black-forest-labs/FLUX.1-dev",
    torch_dtype=torch.bfloat16
)

# 替換為 4-bit 量化版的 Transformer
from nunchaku.models.flux import load_quantized_model
pipe.transformer = load_quantized_model(
    "mit-han-lab/svdq-int4-flux.1-dev",
    device="cuda"
)
pipe.to("cuda")

image = pipe(
    prompt="A photorealistic mountain landscape at golden hour",
    num_inference_steps=28,
    guidance_scale=3.5,
).images[0]
image.save("flux_svdquant_result.png")
print("✓ 4-bit FLUX.1 生成完成")

7.3 GGUF 量化:在 CPU 上跑 Stable Diffusion

就像 llama.cpp 讓 LLM 在 CPU 上運行一樣,stable-diffusion.cpp 讓擴散模型也能在純 CPU 環境下生成圖片。社群已經為 SD 1.x/2.x、SDXL、SD3.5、FLUX 等模型提供了 GGUF 量化版本。搭配 ComfyUI-GGUF 插件,非工程師也能在本地機器上使用量化版的擴散模型。

方法會議適用模型位元數效果
Q-DiffusionICCV 2023SD 系列W4首個擴散模型 PTQ
SVDQuant + NunchakuICLR 2025FLUX / SD3W4A43.5x 記憶體減少、3x 加速
GGUF(sd.cpp)社群SD / SDXL / FLUXQ4-Q8CPU 推論、ComfyUI 整合
TensorRT FP8NVIDIASD / FLUXFP82-2.3x 加速、VRAM 減 40%

八、生態系工具全景

量化的工具生態是三大壓縮技術中最成熟的,從一行程式碼到企業級部署都有對應方案:

HuggingFace 原生整合

LLM 量化格式

企業級平台

擴散模型專用

九、從技術指標到商業影響

量化對企業 AI 部署的影響是直接且量化的(雙關語):

十、導入路徑:三階段落地策略

  1. 立即見效——使用現有量化模型:HuggingFace 上已有數千個預量化模型(TheBloke 的 GPTQ/GGUF 版本、社群的 AWQ 版本)。直接下載即可使用,不需要任何量化知識。推薦從 GGUF Q4_K_M 格式開始——品質和大小的最佳平衡
  2. 小步驗證——用 bitsandbytes 量化你自己的模型:在現有的 HuggingFace 推論代碼中加入 BitsAndBytesConfig(load_in_4bit=True),觀察精度變化。如果需要微調,直接在量化模型上套用 QLoRA
  3. 生產優化——選擇部署格式:GPU 伺服器選 AWQ + vLLM(最快的推論速度);CPU / 邊緣部署選 GGUF + llama.cpp;NVIDIA GPU 叢集選 TensorRT-LLM(FP8/FP4)。圖片生成選 SVDQuant(GPU)或 ComfyUI-GGUF(通用)

量化是模型壓縮三部曲(剪枝、蒸餾、量化)中最「即插即用」的一環。它不需要改動模型架構(剪枝的需求)、不需要重新訓練(蒸餾的需求),只需要降低數值精度——而這個簡單的操作,就能將 AI 部署的硬體門檻降低一個數量級。

如果您的團隊正在評估模型壓縮策略,或需要在成本、延遲與精度之間找到最佳平衡點,歡迎與我們進行深度技術對話。超智諮詢的研究團隊能夠陪伴您走完從模型診斷到生產部署的完整旅程。