作者ZMTL (Zaious.)
看板AI_Art
標題[情報] Google 推出 Gemma 4 開放模型,對抗 Llama、Qwen
時間Fri Apr 3 11:31:59 2026
Google 推出 Gemma 4 開放模型,對抗 Llama、Qwen 搶攻開源 AI 市場
作者 蘇 子芸 | 發布日期 2026 年 04 月 03 日 10:01 | 分類 AI 人工智慧 ,
https://technews.tw/2026/04/03/google-gemma-4/
Google 宣布推出新一代開放模型 Gemma 4,主打可讓開發者自行下載與部署,並支援從
Android 裝置到資料中心 GPU 等多種硬體環境,包括 NVIDIA H100。該模型採用
Apache 2.0 授權,有助降低使用門檻並擴大開發者應用。
https://www.youtube.com/watch?v=jZVBoFOJK-Q
繼 2024 年 2 月與 5 月分別推出 Gemma 與 Gemma 2,並於 2025 年 3 月發表 Gemma
3 後,Google 持續加快開放模型布局。此次推出 Gemma 4,也被視為其在開源 AI 生態
中的最新進展。
Gemma 4 提供多種規模,包括 2B、4B、26B 與 31B 版本,能在不同硬體條件下運行。官
方表示,新一代模型在推理與任務處理能力上有所提升,同時兼顧效能與運算效率。該模
型亦針對硬體環境進行優化,未經量化的 bfloat16 權重可在單張 80GB 的 NVIDIA
H100 GPU 上運行,而量化版本則可部署於消費級 GPU,支援開發者在 IDE、程式輔助工
具與代理式(agentic)工作流程中的應用。
在架構設計上,26B 混合專家模型(MoE)著重於降低延遲,在推論時僅啟用部分參數,
以提升運算效率與回應速度;而 31B Dense 模型則強調整體輸出品質,並提供更適合進
行微調(fine-tuning)的基礎能力。
https://imgs.plurk.com/QHO/mF8/H4s26rZK6fNtwTudeoMoZBrTJlO_lg.jpg
▲ Gemma 4 模型測試比較圖
在功能方面,Gemma 4 不僅可進行文字與程式碼生成,也支援影像與影片處理,部分模型
支援語音輸入。模型同時支援超過 140 種語言,並具備長文本處理能力,適合用於文件
分析與多語系應用。
Google 指出,Gemma 4 可在不同裝置上靈活部署,從 Android 裝置、筆電 GPU 到資料
中心皆可運行,進一步拓展行動與邊緣 AI 應用場景。
隨著 AI 發展加速,開放模型逐漸成為產業焦點。目前包括 Meta 的 Llama、阿里巴巴
的 Qwen 以及 Mistral 等模型皆積極布局,與閉源模型形成競爭。相較之下,開放模型
可讓企業自行部署,降低對雲端服務的依賴。
https://imgs.plurk.com/QHO/WLN/BAcE3QRaPHnhTKPgkw3RXAmya76_lg.jpg
▲ 性能與模型規模比較
---
還沒有測跟Qwen的比較,但跑分目前看起來是贏過Qwen 3.5同級的模型,
大概就中文的部份不太確定,但我記得Gemma3作為中英本地翻譯模型還算厲害?
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.161.127.42 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/AI_Art/M.1775187123.A.6FB.html
推 error405: LMArena甚至拿了開源第三名 04/03 11:34
→ error405: gguf有出了 雖然我又跑不了 04/03 11:35
推 blarc: gemma4:e4b 我自己測日翻中比 qwen3.5:9b 好很多 04/03 13:46
→ blarc: gemma4:e2b ocr 也比qwen3.5:2b 好又快 04/03 13:46
推 Chricey: 看到有人提到關節痛,我就想到有一篇UC2推薦的文章 04/03 18:35 推 YCL13: 只有初步測過26B A4B,雖然速度比Qwen3.5 35B A3B略慢,但 04/03 18:51
→ YCL13: 輸出品質直逼Qwen3.5 27B,但速度又遠快於27B,覺得可以列 04/03 18:52
→ YCL13: 為本地agent的LLM良好候選 04/03 18:52
→ YCL13: 不過還是要進一步測試才能確定,前陣子開始加大上下文,發 04/03 18:53
推 Chricey: 關節痛這種東西,比鬼還可怕! 04/03 18:53 → YCL13: 現在64K以上時,模型的速度和輸出品質可能不同 04/03 18:54
推 Supasizeit: 中文可以嗎 gemma3中文超爛 04/03 19:26
推 Harrychou: 中文沒有問題,速度比qwen3.7 27b快多了,rx6600可以跑 04/03 19:50
推 YCL13: 我覺得中文的品質大幅提升,寫小說的文筆沒問題,對於複雜 04/03 19:51
推 Kroner: 樓下關節痛都吃鞏固力 04/03 19:51 → YCL13: 的小說劇情設定的理解力也很好 04/03 19:51
→ error405: 簡直萬能 04/04 08:57
推 error405: 慣例的破限版也出了 koboldcpp也說在弄新版了 坐等 04/04 09:08
推 Chricey: 想問一下有沒有關節痛的運動禁忌?怕動得更嚴重… 04/04 09:08 推 herculus6502: 4b實測邏輯能力比gemma 3沒怎麼提升 04/04 10:14
推 Bustycat: MLX適配有明顯問題還是先等等 04/04 11:04
推 YCL13: 昨晚到早上又多試了一些,有些程式需要更新才能載入模型來 04/04 11:39
→ YCL13: 使用,有些特化的量化版則會無法載入,猜想近期應該還會有 04/04 11:39
推 Kroner: 想問一下有沒有關節痛的運動禁忌?怕動得更嚴重… 04/04 11:39 → YCL13: 不少的調整或改進吧 04/04 11:40
推 Bustycat: oMLX可用了,試了下31B發現英譯中有概率漏譯 04/04 13:46
推 error405: koboldcpp1.111出了 正在跑E4B破限 04/04 14:02
→ EXIONG: 現在救命藥草只剩google了 04/04 14:16
推 Kroner: 哈囉!關節痛真的超痛欸,我之前也遇過類似情況,後來去看醫生吃推薦UC2,效果不錯喔! 04/04 14:16 推 zero790425: Gemma4很吃記憶體啊 04/05 02:42
→ plkoijhug: 26b後面10k後 會吃爆上下文快取 要重開 04/05 03:05
推 newyorker54: 31B 裝不起來 04/05 03:31
推 newyorker54: 跑起來了,有更新檔案,chat template jinja, loadin 04/05 14:26
推 Kroner: 長時間坐著工作,關節痛越來越嚴重,該怎麼辦?推薦UC2 04/05 14:26 → newyorker54: g 花很久時間 04/05 14:26
→ newyorker54: 思考時間也很久 04/05 14:27
推 newyorker54: 但是比minimax m2.5聰明,太強了,只有31B 04/05 14:31
→ newyorker54: 31B模型,上下文可以開到最大 04/05 14:33
推 Chricey: 吃過關節保健品,都沒什麼效果,有推薦的牌子嗎? 04/05 14:33 推 odanaga: 5090可以掛31B 但我ram不夠只開32k 04/05 19:11
推 newyorker54: 剛剛讓他搜尋所有pdf內文含有三個關鍵字的檔案,他讀 04/05 20:47
→ newyorker54: 了1746個pdf檔花了100分鐘,哈哈 04/05 20:47