這次 Gemma 4 一口氣推出了四款模型,最厲害的地方在於它對硬體的要求大幅降低。其中最小的 E2B 模型記憶體佔用居然可以壓到 1.5GB 以下!這代表平價手機或是小型穿戴裝置不需連上網路,就能直接進行語音辨識、圖像理解和複雜對話,對我們消費者來說,這代表 AI 反應會變快,而且你的對話資料不必上傳雲端,隱私更有保障。
圖片來源:opensource.googleblog.com
開發者的福音
對於專業開發者和企業來說,Gemma 4 的出現就像是給了一套萬能工具箱。從只有 51 億參數、適合跑在行動端的 E2B,到擁有 310 億參數、具備強大邏輯推理能力的 31B Dense 模型,開發者可以根據產品需求彈性選擇。特別是 26B 的 MoE 模型,它採用了「混合專家」技術,雖然總參數多,但跑起來的速度卻跟小模型一樣快,大幅降低了企業部署 AI 的運算成本。
圖片來源:help.apiyi.com/
AI 民主化的重要里程碑
Google 這次選擇將 Gemma 4 開源,無疑是為了在 Meta 的 Llama 系列競爭中奪回話語權,這標誌著 AI 產業正從「比參數大」轉向「比效率高」。Gemma 4 的端側(On-device)處理能力,將會加速 Agentic AI(代理型 AI)的普及,讓 AI 不再只是螢幕裡的對話框,而是能真正深入各類硬體設備、自動化執行任務的實體助手。對於資訊科技產業來說,這將帶動一波硬體升級與應用開發的新浪潮。
新聞來源:https://technews.tw/2026/04/03/google-gemma-4/
0 留言