
REST API命名規范的終極指南:清晰度和一致性的最佳實踐
時間節點 | 事件 | 開源程度 |
---|---|---|
2019-02 | 發布 GPT-2(7.74 億參數)“部分開源” | ?? |
2019-11 | 完整開源 GPT-2(15 億參數) | ?? |
2020-2024 | GPT-3/3.5/4 系列封閉 | ?? |
2025-08 | GPT-OSS 120B/20B 開源 | ? Apache 2.0 |
在 GPT-2 部分開源后,OpenAI 遇到了一些挑戰,尤其是在安全、商業化和可控性方面。隨著 GPT-3 和 GPT-4 系列的發布,OpenAI 選擇了封閉的開發模式。然而,隨著開源理念的深入與技術的發展,OpenAI 終于決定重返開源。Sam Altman 在公開聲明中提到:“我們希望將 GPT 級別的能力交到每個人手中,而不僅僅是云端租戶。”
維度 | GPT-OSS 120B | GPT-OSS 20B |
---|---|---|
總參數 | 1170 億 | 209 億 |
激活/Token | 51 億 | 36 億 |
架構 | MoE 128 專家 Top-4 | MoE 32 專家 Top-4 |
量化 | 原生 MXFP4 | 原生 MXFP4 |
上下文長度 | 128 K | 128 K |
最低顯存 | 單張 80 GB H100 | 16 GB 消費級 GPU |
評測對齊 | ≈ o4-mini | ≈ o3-mini |
與傳統的“后量化”方法不同,GPT-OSS 在訓練階段就使用了 4.25 bit/參數的精度,避免了訓練后量化可能帶來的性能下降。
系統提示 cot_level={low|medium|high}
實時切換,完整推理鏈可見,便于調試。
Benchmark | GPT-OSS 120B | GPT-OSS 20B | o4-mini (閉源) |
---|---|---|---|
MMLU | 86.4 | 82.1 | 87.9 |
MATH | 74.8 | 68.3 | 76.2 |
HumanEval | 81.7 % | 76.4 % | 83.0 % |
SWE-Bench Verified | 62.4 % | — | 64.1 % |
pip install transformers accelerate torch
from transformers import AutoTokenizer, AutoModelForCausalLM
tok = AutoTokenizer.from_pretrained("openai/gpt-oss-20b")
model = AutoModelForCausalLM.from_pretrained(
"openai/gpt-oss-20b",
torch_dtype="auto",
device_map="auto")
問題 | 官方回答 |
---|---|
是否可以商用? | Apache 2.0,零版稅、無專利限制 |
數據截止時間? | 2024-06 |
幻覺率如何? | CoT 模式下略高,建議生產環境結合 RAG |
安全性如何保證? | 官方已內置對齊與過濾機制 |
gpt-oss-20b
OpenAI 通過 GPT-OSS 把“夠用”的性能以最低門檻交給開發者,把“最強”的性能留在云端。
“如果 AI 要成為基礎設施,它必須能在你的筆記本上運行。”——Sam Altman
現在就下載權重,開始你的本地超級大腦之旅吧!