Qwen 模型正式登陸 Amazon Bedrock 支援 MoE/Dense 架構,主攻 AI 寫 Code、複雜推理
- hktechblog
- 14小时前
- 讀畢需時 2 分鐘

阿里巴巴最新一代 Qwen3 AI 大型語言模型(Foundation Models)現已全面登陸 Amazon Bedrock。今次一口氣支援四款 Qwen3 型號,涵蓋 AI 編程、推理、分析等多種應用場景,同時提供強大的 Mixture-of-Experts(MoE)及 Dense 架構選擇,方便開發者根據實際需求,平衡效能與成本。
Qwen3 系列:集合 MoE + Dense 架構
四款 Qwen3 模型已可在 Amazon Bedrock 上使用:
Qwen3-Coder-480B-A35B-Instruct:MoE 架構,總參數高達 480B,主攻 AI 編程與 Agentic 多步推理,適合大型程式碼庫及流程自動化。
Qwen3-Coder-30B-A3B-Instruct:MoE 架構,原文出自 unwire.hk, 具 30B 參數,針對多語言程式寫作、分析與除錯,兼顧效能及成本。
Qwen3-235B-A22B-Instruct-2507:MoE 架構,具 235B 參數,支援編碼、數學及邏輯推理等多元場景。
Qwen3-32B (Dense):Dense 架構,具 32B 參數,適合即時反應或資源有限的裝置(如手機、邊緣運算)應用。
特色功能:AI 寫 Code 同時兼顧效能與成本
Qwen3 系列除了支援傳統 Dense 架構,最大重點是 MoE(Mixture-of-Experts)架構,即每次推理只會啟用部分參數,從而實現高效能並減少資源消耗。對於需要平衡 AI 成本與效能的應用,此架構特別適合香港的 startup、SaaS、FinTech、IoT 等行業。
Agentic 能力:多步推理與 API 整合
Qwen3 具備「Agentic」智能,能一次性處理多步推理及規劃流程,亦可自動呼叫外部 API 或工具,非常適合用於自動化工作流程、聊天機械人及企業級業務自動化。
Hybrid Thinking Mode:快慢模式自行選擇
用戶可自由選擇「Thinking」或「Non-thinking」模式:
Thinking:逐步推理,適合複雜問題、深度分析
Non-thinking:極速回應,適合日常查詢、即時互動
開發者可因應不同場景調整,實現更精細的效能與成本管理。
超長 Context 處理 輕鬆分析大型 Repo
Qwen3-Coder 支援長 context window,原生達到 256K tokens,更可擴展至 100 萬 tokens。這代表模型能一次過分析整個 GitHub Repo、技術文件或多輪對話,無需分拆成多次請求。
Amazon Bedrock:開發 AI 新選擇 資料更安全
Amazon Bedrock 提供統一 API,讓開發者無需管理底層基礎設施,並支援多家頂級 AI 模型供應商(如 Anthropic、Meta、阿里巴巴),方便快速整合至自家應用程式。最重要的是,客戶資料不會用於訓練底層模型,資料私隱得到保障。
留言