GPUをRTX 5080に換装してローカルLLMを回している筆者からすると、「NPU 80TOPS」という数字はどうしても気になる存在だった。2026年4月8日に発売されたASUS Zenbook SORA 16は、クアルコムの最新プロセッサーSnapdragon X2 Elite Extremeを搭載し、AI処理能力を前世代から大幅に引き上げたノートPC。重量わずか1.2kg、バッテリー最大22時間という携帯性も魅力的だが、問題は「このマシンでどこまでAIタスクをこなせるのか」という点に尽きる。
・Snapdragon X2 Elite ExtremeのNPU性能は前世代45TOPSから80TOPSへ向上し、Windows Copilot等のオンデバイスAI機能が本格的に活用可能
・ローカルLLMやStable Diffusionなど、CUDAベースの重量級AI処理にはdGPU搭載デスクトップが依然有利
・48GB RAM・1TB SSD・22時間バッテリーの構成は、Claude CodeやGitHub CopilotなどAPIベースのAIツール運用に最適
Snapdragon X2 Elite Extremeの基本スペック
Zenbook SORA 16に搭載されるSnapdragon X2 Elite Extreme X2E-94-100は、クアルコムがWindows PC向けに展開するARMベースプロセッサーの最新世代にあたる。
前世代Snapdragon X Eliteからの主な変更点
最も注目すべき進化はNPU(Neural Processing Unit)の処理能力。前世代のSnapdragon X Eliteでは45TOPSだったAI演算性能が、X2世代では80TOPSへと約1.8倍に引き上げられた。MicrosoftがCopilot+ PCの要件として定めた40TOPSを大幅に超える数値で、オンデバイスAI機能をフルに活用できる水準。
CPU・GPUも強化されているが、ここで押さえておきたいのは「NPUとGPUは役割が異なる」という基本。NPUはAI推論に特化した省電力プロセッサーであり、汎用的なGPU計算(CUDAコアを使うローカルLLM推論やStable Diffusion等)の代替にはならない。この点は後のセクションで詳しく整理する。
メモリはプロセッサー統合型のLPDDR5X-9523を48GB搭載。x86環境のデスクトップPCではDDR5-6000〜8000が主流であることを考えると、メモリ帯域はかなり広い。AI推論ではメモリ帯域がトークン生成速度に直結するため、この仕様は見逃せないポイント。
Zenbook SORA 16(UX3607OA)の全体像
ハードウェア構成を一覧で確認しよう。
| 項目 | スペック |
|---|---|
| プロセッサー | Snapdragon X2 Elite Extreme X2E-94-100 |
| メモリ | 48GB LPDDR5X-9523(統合型・増設不可) |
| ストレージ | 1TB SSD(PCIe Gen4 x4) |
| ディスプレイ | 16型有機EL / 2880×1800 / 120Hz / 1100nit |
| NPU性能 | 80 TOPS |
| USB | USB4 Type-C×2 / USB 3.2 Gen2 Type-A×1 |
| 映像出力 | HDMI×1 / USB4経由 |
| 無線 | Wi-Fi 7 / Bluetooth 5.4 |
| バッテリー | 70Wh / 最大22時間 |
| 重量 | 約1.2kg(実測1205.5g) |
| ACアダプター | 130W(実測457g) |
| 価格(2026年4月時点) | 33万9800円(Office無)/ 36万9800円(Office有) |
AI用途で注目すべきポイント
48GBというメモリ容量は、ノートPCとしてはかなり余裕がある。Claude CodeやVSCodeでの大規模プロジェクト作業では、エディタ本体・ターミナル・ブラウザ・Dockerコンテナなどを同時に立ち上げることが多く、16GBでは不足を感じる場面がある。48GBならそうした心配とは無縁。
ストレージのPCIe Gen4 x4接続も堅実な選択。AIモデルファイルは数GBに達するものが多いため、SSD速度がモデル読み込み時間に直結する。Gen5ではないが、Gen4 x4でも実用上のボトルネックにはなりにくい。
バッテリー最大22時間は、ARM省電力アーキテクチャの真骨頂。x86ベースのハイスペックノートPCでは6〜10時間程度が相場なので、外出先でのAI開発作業において圧倒的なアドバンテージとなる。ただし、これはあくまで軽負荷時の公称値。NPUやCPUに高負荷をかけた場合の実駆動時間は大幅に短くなる点に注意してほしい。
NPU 80TOPSでできること・できないこと
「80TOPS」という数字だけを見ると、相当なAI処理が可能に思える。実際のところ何ができて、何ができないのか。ここが本記事の核心部分。
NPUが活きるAI機能の具体例
NPUが力を発揮するのは、Windows OSやアプリケーションに組み込まれた「オンデバイスAI機能」。具体的には以下のようなタスクが該当する。
Windows Copilot機能: テキスト要約・翻訳・画像認識など、Copilot+ PCで提供されるAI機能群。80TOPSのNPUがあればこれらはクラウドに頼らずデバイス上で高速に処理できる。プライバシーの観点でもメリットが大きい。
リアルタイム映像処理: ビデオ会議中の背景ぼかし・ノイズ除去・自動フレーミングなど。NPUにオフロードすることでCPU負荷を抑え、バッテリー消費も最小限に抑えられる仕組み。
写真・動画の自動編集支援: Adobe系アプリやWindows標準のフォトアプリで、被写体の自動選択やシーン分類などの処理をNPUが担当。従来はクラウド処理やCPU演算に依存していた部分が、ローカルで完結するようになった。
NPUだけでは難しいAIタスク
一方で、次のようなタスクはNPUの守備範囲外。
ローカルLLMの本格運用: OllamaやLM Studioで7B〜14Bパラメータのモデルを動かすには、CUDAコアを持つNVIDIA製dGPUが事実上の標準。参考までに、当サイトの検証環境(RTX 5080 / i7-14700F / 96GB RAM)ではqwen3:8bが131.5 tokens/secec、gemma3:12bが85.7 tokens/sececを記録している。NPUベースの推論では、このレベルの速度は期待できない。
Stable DiffusionやComfyUIでの画像生成: これらのツールはCUDAに深く依存しており、NPUでは動作しない。VRAM 12GB以上のdGPUが推奨される用途。
大規模モデルのファインチューニング: 学習処理はNPUの設計思想と根本的に異なるワークロード。GPUの並列演算能力が必須となる。
つまり、NPU 80TOPSの価値は「OSやアプリに統合されたAI機能を省電力で快適に使える」という点にある。ローカルでLLMを動かしたい、画像生成をしたいという用途には、dGPU搭載のデスクトップPCやゲーミングノートが引き続き最適解。この棲み分けを理解しておくことが、ノートPC選びで後悔しないためのポイントとなる。
APIベースのAIツールとの相性
ローカルAI処理には限界があるSnapdragon X2搭載ノートだが、APIベースのAIツール運用という観点では、むしろ理想的な構成と言える。
Claude Code・GitHub Copilot・ChatGPT・Geminiなど、クラウド側でAI処理を行うツールは、ローカルのGPU性能に依存しない。必要なのはCPU処理能力・十分なRAM・高速なストレージ・安定したネットワーク接続の4つ。Zenbook SORA 16はこの4条件をすべて高水準で満たしている。
たとえばClaude Codeは、ターミナル上でAIエージェントがコード生成・ファイル編集・テスト実行を自律的に行うツール。GPU不要でRAM 16GB以上・SSD搭載が推奨環境とされており、48GB RAMのZenbook SORA 16ならまったく問題ない。大規模リポジトリを扱う場合でもメモリ不足に陥るリスクは極めて低い。
Claude Codeのようなツールを活用する際は、Claude「advisor tool」によるOpus×Sonnetハイブリッド運用で、APIコストを12%削減しながら出力品質を維持する手法も併せて検討する価値がある。高性能モデルと軽量モデルの使い分けは、モバイル環境での通信量削減にもつながる考え方。
22時間のバッテリー持続時間も、外出先でのAI開発に大きなメリットをもたらす。カフェや新幹線でCopilotを使いながらコーディングする場面を想像してほしい。x86ベースのゲーミングノートでは2〜3時間でバッテリーが切れるが、ARM省電力設計のZenbook SORA 16なら半日以上の作業も電源なしでこなせる可能性がある。
ARM版Windowsのソフトウェア互換性の現状
ただし、ARM版Windows環境には互換性の注意点が残っている。2026年現在、VSCode・主要ブラウザ・Microsoft Office・Slack・Notion等はARM64ネイティブ対応済み。日本語入力についても、ATOKがARMプロセッサーに対応したことでビジネス用途での使い勝手は大幅に改善された。
一方で、一部の開発ツールやドライバーはx86エミュレーション経由での動作となり、ネイティブ動作時と比較してパフォーマンスが低下する場合がある。Intel Arc GPUで特定のゲームが動作しなかった事例(ドライバ更新で解決)が示すように、新しいプラットフォームではソフトウェア側の対応が追いつくまでにタイムラグが生じるもの。ARM版Windowsでも同様の状況が一部のツールで発生し得る。
競合プロセッサーとのAI性能比較
Snapdragon X2がAI性能でどの位置にいるのか、Intel・AMDの競合プロセッサーと比較して整理する。
| プロセッサー | NPU性能 | TDP | 対応メモリ | バッテリー効率 |
|---|---|---|---|---|
| Snapdragon X2 Elite Extreme | 80 TOPS | 非公開(省電力設計) | LPDDR5X-9523 | 非常に高い |
| Intel Core Ultra 200V(Lunar Lake) | 48 TOPS | 17W | LPDDR5X-8533 | 高い |
| AMD Ryzen AI 300シリーズ | 最大50 TOPS | 15〜54W | LPDDR5X-7500 | 中程度 |
NPU性能では、Snapdragon X2の80TOPSが頭一つ抜けている。IntelのLunar Lake世代が48TOPS、AMD Ryzen AI 300シリーズが最大50TOPSであることを踏まえると、オンデバイスAI処理の余力はクアルコムが最大。
ただし、NPU TOPSの数値だけで「AI性能が高い」と断じるのは早計。Intel Core Ultra 200Vは内蔵GPU(Xe2)でもAI推論が可能であり、GPUとNPUの合算で考えるとトータルのAI処理能力は接近する。AMDのRyzen AIシリーズもRadeon内蔵GPUのROCm対応が進んでおり、NPU+GPUの複合運用という選択肢がある。Ryzen AIプロセッサーのNPU・GPU・CPUの適材適所については別記事で解説している。
Snapdragon X2の最大の強みは電力効率。ARM省電力アーキテクチャにより、同等性能をより少ない消費電力で実現できるため、バッテリー駆動時間に大きな差が生まれる。Zenbook SORA 16の公称22時間は、x86ベースの薄型ノートでは到達困難な数値。
逆に弱みは明確で、dGPUを搭載しない点。ゲーミングノートに搭載されるRTX 4060 Laptop GPUやRTX 4070 Laptop GPUのような独立GPUは、CUDAベースのAI処理で圧倒的な速度差を生む。当サイトの検証環境ではRTX 4070 Super(Oculink接続)でもgemma3:4bが129.8 tokens/sececを記録しており、NPUベースの推論とは次元が違うパフォーマンス。用途によって「何を優先するか」の判断が変わるというのが実情だろう。
まとめ
Snapdragon X2 Elite Extreme搭載のASUS Zenbook SORA 16は、「AI用ノートPC」として万能ではないが、特定の用途では非常に強い構成。
向いている人:
– Claude Code・GitHub Copilot・ChatGPT等のAPIベースAIツールを日常的に使う開発者やビジネスユーザー
– 外出先で長時間のAI開発・文書作成を行いたいモバイルワーカー
– Windows Copilot機能をフルに活用し、オンデバイスでAI処理を完結させたい人
向いていない人:
– OllamaでローカルLLMを動かしたい人(dGPU搭載PCが必要)
– Stable DiffusionやComfyUIでAI画像・動画生成をしたい人(CUDA対応GPUが必須)
– 33万円の予算でローカルAI環境を最大化したい人(同予算ならRTX 5080搭載デスクトップの方がAI処理能力は圧倒的に上)
33万9800円という価格をどう評価するか。ローカルAI処理を重視するなら、同予算でRTX 5080搭載デスクトップを組んだほうが遥かに高いAI性能を得られる。しかし1.2kg・22時間バッテリー・48GB RAMという組み合わせは、モバイルAIワークステーションとしての価値を持つ。APIベースのAIツールが主戦場で、出先での生産性を最大化したいなら、検討に値する一台。
FAQ
Q: Snapdragon X2でOllamaは動くか?
A: ARM版Windows上でOllama自体のインストール・起動は可能だが、CUDA対応GPUがないためCPU推論のみとなる。48GBのRAMで7B程度のモデルは動作するものの、生成速度はdGPU環境と比較して大幅に遅い。実用的な速度を求めるならdGPU搭載PCを選ぶべき。
Q: NPU 80TOPSとGPUのTFLOPS、何が違う?
A: NPUのTOPSは主にINT8(8ビット整数)演算の処理速度を表し、GPUのTFLOPSはFP32(32ビット浮動小数点)演算の速度を表すのが一般的。演算精度が異なるため単純比較はできない。NPUは推論専用の省電力設計、GPUは汎用的な並列計算向けと理解するのが正確。
Q: 33万円出すならデスクトップの方がAI用途に良いのでは?
A: ローカルAI処理の性能だけで見れば、間違いなくデスクトップが上。同予算ならRTX 5080(約20万円)+CPU・メモリ・電源等で、ローカルLLM推論やAI画像生成が桁違いに高速な環境を構築できる。ただし「持ち運べない」「バッテリー駆動不可」というデスクトップの根本的な制約がある。どこでもAI開発を続けたいというニーズには、デスクトップは応えられない。
当サイトはAmazonアソシエイト・プログラムの参加者です。Amazonのアソシエイトとして、当サイトは適格販売により収入を得ています。
おすすめパーツ 価格まとめ
| 製品名 | カテゴリ | スペック | 参考価格 |
|---|---|---|---|
| RTX 5080 | GPU・グラフィックボード | NVIDIA GeForce RTX 5080 16GB GDDR7 | ¥200,000〜 |
| RTX 4070 Super | GPU・グラフィックボード | NVIDIA GeForce RTX 4070 Super 12GB GDDR6X | ¥90,000〜(中古相場) |
| RTX 4060 | GPU・グラフィックボード | NVIDIA GeForce RTX 4060 8GB GDDR6 | ¥45,000〜(中古相場) |
