GPT-4oやo1より高性能な推論モデル「Qwen3」をAlibabaが発表、フラグシップモデルの「Qwen3-235B-A22B」はパラメーター数2350億&アクティブパラメーター数220億
04/30 12:16
中国のAlibabaが開発する大規模言語モデル(LLM)ファミリーのQwenに、「Qwen3」が登場しました。Qwen3には2つの混合エキスパート(MoE)モデルと、6つのDenseモデルが含まれており、パラメーターサイズは6億から2350億までと非常に幅広いです。
Qwen3: Think Deeper, Act Faster | Qwen
https://qwenlm.github.io/blog/qwen3/
GitHub - QwenLM/Qwen3: Qwen3 is the large language model series developed by Qwen team, Alibaba Cloud.
https://github.com/QwenLM/Qwen3
Alibaba unveils Qwen3, a family of 'hybrid' AI reasoning models | TechCrunch
https://techcrunch.com/2025/04/28/alibaba-unveils-qwen-3-a-family-of-hybrid-ai-reasoning-models/
36兆トークン(100万トークンが約75万語に相当)を超えるデータセットでトレーニングされたQwen3ファミリーは、パラメーターサイズが小さい順に「Qwen3-0.6B」「Qwen3-1.7B」「Qwen3-4B」「Qwen3-8B」「Qwen3-14B」「Qwen3-32B」「Qwen3-30B-A3B」「Qwen3-235B-A22B」の8つが存在しており、「Qwen3-0.6B」「Qwen3-1.7B」「Qwen3-4B」「Qwen3-8B」「Qwen3-14B」「Qwen3-32B」の6つがDenseモデルで、「Qwen3-30B-A3B」と「Qwen3-235B-A22B」の2つはMoEモデルです。
Qwen3ファミリーの中で最もパラメーターサイズの大きな「Qwen3-235B-A22B」は、パラメーターサイズが2350億、アクティブパラメーター数は220億です。コーディング・数学・一般機能などのベンチマーク評価において、DeepSeek-R1、o1、o3-mini、Grok-3、Gemini-2.5-Proといった他社製の最先端AIモデルと比較しても、競争力のある結果を残しています。
Introducing Qwen3!
We release and open-weight Qwen3, our latest large language models, including 2 MoE models and 6 dense models, ranging from 0.6B to 235B. Our flagship model, Qwen3-235B-A22B, achieves competitive results in benchmark evaluations of coding, math, general… pic.twitter.com/JWZkJeHWhC— Qwen (@Alibaba_Qwen) April 28, 2025
Qwen3-235B-A22Bの各種ベンチマークのスコアを競合モデルと比較した表が以下。競合モデルのパフォーマンス大きく上回っているというわけではありませんが、優れたパフォーマンスを発揮していることがよくわかります。ただし、Qwen3-235B-A22Bは記事作成時点では一般公開されていません。一般公開されているQwen3ファミリーのモデルの中で、最もパラメーターサイズが大きいのが「Qwen3-32B」です。Qwen3-32BはコーディングベンチマークのLiveCodeBenchを含むいくつかのベンチマークにおいて、OpenAIのo1を上回っています。
小型MoEモデルの「Qwen3-30B-A3B」は、総パラメーターサイズが320億、アクティブパラメーター数が30億というモデル。Qwen3-30B-A3Bはアクティブアクティブパラメーター数が10倍の「QwQ-32B」と比較しても、より優れたパフォーマンスを実現しています。GPT-4oと比較しても、ほぼすべてのベンチマークにおいてより優れたパフォーマンスを実現しています。
また、「Qwen3-4B」(パラメーターサイズ:40億)のような小型モデルでさえ、前世代のQwen2.5ファミリーのよりパラメーターサイズの大きな「Qwen2.5-72B-Instruct」(パラメーターサイズ:720億)の性能に匹敵しています。
「Qwen3-30B-A3B」などの学習済みモデルは、Hugging FaceやModelScope、Kaggleといったプラットフォームで公開されており、デプロイにはSGLangやvLLMといったフレームワークの利用が推奨されています。
ローカル環境での使用には、Ollama、LM Studio、MLX、llama.cpp、KTransformersなどのツールの利用が推奨されており、これらを使用することで研究・開発・本番環境を問わずQwen3をワークフローに簡単に統合することができるようになるとのことです。
Qwen3ファミリーは問題解決のためにハイブリッドアプローチを導入しており、最終的な答えを出す前に段階的に時間をかけて推論を行う「思考モード」と、迅速で瞬時の応答を提供する「非思考モード」という2つのモードをサポートしています。思考モードはより深い思考を必要とする複雑な問題に対する応答に最適で、非思考モードは思考よりもスピードが重視されるような単純な質問への応答に適したモードです。ハイブリッドアプローチはプロンプトに特殊文字(/think)や、トークンを含めることでオンオフを切り替えることが可能。デフォルトではオンになっており、オフにするには「/no_think」という特殊文字をプロンプトに入力すればOKです。
ハイブリッドアプローチにより、Qwen3は割り当てられた計算推論予算と、直接相関するスケーラブルでスムーズなパフォーマンス向上を実現します。ユーザーはタスク固有の予算をより簡単に設定することが可能で、これによりコスト効率と推論品質の最適なバランスを実現することが可能となります。
Qwen3 exhibits scalable and smooth performance improvements that are directly correlated with the computational reasoning budget allocated. This design enables users to configure task-specific budgets with greater ease, achieving a more optimal balance between cost efficiency and… pic.twitter.com/k0YcIO8V4f— Qwen (@Alibaba_Qwen) April 28, 2025
さらに、Qwen3は日本語を含む119の言語と方言をサポートしています。この広範な多言語対応機能は、国際的なアプリケーションに新たな可能性をもたらし、世界中のユーザーがQwen3のパワーを享受できることを意味します。
Qwen3 models are supporting 119 languages and dialects. This extensive multilingual capability opens up new possibilities for international applications, enabling users worldwide to benefit from the power of these models. pic.twitter.com/rwU9GWWP0K— Qwen (@Alibaba_Qwen) April 28, 2025
なお、Qwen3が対応している119の言語および方言は以下の通り。
英語、フランス語、ポルトガル語、ドイツ語、ルーマニア語、スウェーデン語、デンマーク語、ブルガリア語、ロシア語、チェコ語、ギリシャ語、ウクライナ語、スペイン語、オランダ語、スロバキア語、クロアチア語、ポーランド語、リトアニア語、ノルウェー語(ブークモール)、ノルウェー語(ニーノシュク)、ペルシャ語、スロベニア語、グジャラート語、ラトビア語、イタリア語、オック語、ネパール語、マラーティー語、ベラルーシ語、セルビア語、ルクセンブルク語、ヴェネツィア語、アッサム語、ウェールズ語、シレジア語、アストゥリアス語、チャッティースガル語、アワディー語、マイティリー語、ボジュプリー語、シンド語、アイルランド語、フェロー語、ヒンディー語、パンジャブ語、ベンガル語、オリヤー語、タジク語、東イディッシュ語、ロンバルド語、リグリア語、シチリア語、フリウリ語、サルデーニャ語、ガリシア語、カタロニア語、アイスランド語、トスク語、アルバニア語、リンブルフ語ダリ語、アフリカーンス語、マケドニア語、シンハラ語、ウルドゥー語、マガヒ語、ボスニア語、アルメニア語、中国語(簡体字、繁体字、広東語)、ビルマ語、アラビア語(標準語、ナジディ語、レバント語、エジプト語、モロッコ語、メソポタミア語、タイジ アデニ語、チュニジア語)、ヘブライ語、マルタ語、インドネシア語、マレー語、タガログ語、セブアノ語、ジャワ語、スンダ語、ミナンカバウ語、バリ語、バンジャール語、パンガシナン語、イロコ語、ワライ語(フィリピン)、タミル語、テルグ語、カンナダ語、マラヤーラム語、トルコ語、北アゼルバイジャン語、北ウズベク語、カザフ語、バシキール語、タタール語、タイ語、ラオス語、フィンランド語、エストニア語、ハンガリー語、ベトナム語、クメール語、日本語、韓国語、グルジア語、バスク語、ハイチ語、パピアメント語、カブベルディヌ語、トク・ピシン語、スワヒリ語
Qwen3モデルをコーディングとエージェント機能向けに最適化することで、MCPのサポートも強化しています。以下の動画はQwen3がどのように思考し、環境と相互作用するかを示した事例です。
We have optimized the Qwen3 models for coding and agentic capabilities, and also we have strengthened the support of MCP as well. Below we provide examples to show how Qwen3 thinks and interacts with the environment. pic.twitter.com/7xFyJPp48g— Qwen (@Alibaba_Qwen) April 28, 2025
なお、Qwen3ファミリーの8つのモデルはすべてApache 2.0ライセンスの下でリリースされています。
Datasetteの開発者であるSimon Willison氏は、Qwen3について「ほぼすべての一般的なLLMサービスフレームワークと直接連携しており、リリース初日から利用できるようになっています」「AIモデルのリリースとしては異例のレベルであり、これほど努力しているAIモデルプロバイダーを他に知りません。よくあるパターンは、単一のアーキテクチャ向けのAIモデルをHugging Faceに大量投入し、他のすべてのモデルの量子化と変換がコミュニティに追いつくのを待つというものです」と述べ、LLMフレームワークとの優れた連携面を称賛しています。