ミニPCでローカルAIを動かす選択肢が現実味を帯びている。ポータブルゲーミング機やeGPUで知られるOneXPlayerが手掛ける「ONEXStation Mini AI」は、AMDのフラッグシップモバイルチップ Ryzen AI Max+ 395と、最大128GBという統合メモリをコンパクトな筐体に詰め込んだ構成である。
ただし、スペックシートの数字だけで飛びつくのは早計だ。AI用途で使うなら、CUDA非対応という根本的な制約を理解しておく必要がある。ゲーミング性能で「RTX 4060級」と謳われる内蔵GPU Radeon 8060Sは、AI推論でも同等の実力を発揮できるのか。冷静にスペックを読み解いていこう。
- ONEXStation Mini AIはRyzen AI Max+ 395搭載、最大128GB統合メモリでローカルLLMの大型モデル実行に可能性がある
- 内蔵GPU Radeon 8060SはCUDA非対応のため、Stable DiffusionやOllamaの一部機能で制約が生じる
- 自作デスクトップとの棲み分けは明確で、「省スペース+大容量メモリ」か「CUDA対応+拡張性」かが判断基準になる
ONEXStation Mini AIの概要
ONEXStation Mini AIの中核を担うのはAMD Ryzen AI Max+ 395プロセッサである。Zen 5アーキテクチャの16コア/32スレッドCPUに、RDNA 3.5ベースの内蔵GPU「Radeon 8060S」、さらにXDNA 2アーキテクチャのNPUを統合したチップだ。ミニPCというフォームファクタながら、デスクトップ級のメモリ容量と統合AIアクセラレーションを両立しようとする設計方針が見える。
位置付けとしては、「ディスクリートGPUを積めない筐体で、どこまで大型のローカルAIを扱えるか」という方向に振った製品である。同じカテゴリの汎用ミニPCとは差別化されており、AI推論用途を主軸に据えたいユーザー向けの選択肢になる。
主要スペック詳細
主要スペックを表にまとめた。
| 項目 | 仕様 |
|---|---|
| CPU | Ryzen AI Max+ 395(16コア/32スレッド、Zen 5) |
| 内蔵GPU | Radeon 8060S(RDNA 3.5) |
| AI性能 | 最大126 TOPS(CPU+NPU+GPU合算) |
| メモリ | 最大128GB LPDDR5X-8000 MT/s |
| ストレージ | デュアルM.2スロット、最大8TB |
| 冷却 | 銅ヒートパイプ+デュアルファン(TDP 120W対応) |
| 接続 | WiFi 7、2.5G LAN |
| 販売状況 | 中国先行販売、グローバル展開・価格は未公表 |
押さえておきたいのは、現時点でグローバル価格が未公表という点である。中国市場では先行販売が始まっているものの、日本を含む海外での入手性は不透明な状況だ。
Radeon 8060S iGPUとAI処理性能
「126 TOPS」という数字が一人歩きしがちだが、ここは正確に理解しておきたい。この数値はCPU・NPU・GPUの合算値であり、GPU単体のAI演算能力を示すものではない。NPU単体では50 TOPS程度とされ、これはSnapdragon X2の80 TOPSやIntel Lunar LakeのNPU性能と比較すると突出した数字とは言えない。
Radeon 8060Sのゲーミング性能は「RTX 4060級」とされている。ただし、AI推論でこの比較は成り立たない。RTX 4060が持つCUDAコア3072基とTensorコアによるAI推論と、RDNA 3.5ベースのiGPUによるAI推論では、ソフトウェアエコシステムがまったく異なるためだ。ゲームのFPS比較をそのままAI性能に読み替えるのは危険、と覚えておいてほしい。
メモリとストレージ構成
ONEXStation Mini AIの最大の武器は、128GBという統合メモリにある。LPDDR5X-8000 MT/sの高速メモリを最大128GB搭載し、そのうち最大96GBをビデオメモリとして割り当てられる仕組みだ。
この「統合メモリ」という設計が、ディスクリートGPU搭載PCとの決定的な違いになる。通常のデスクトップPCでは、システムRAMとGPU VRAMは物理的に分離されている。RTX 5080のVRAMは16GB、RTX 5070も12GBが上限で、これを超えるサイズのモデルはVRAMに載り切らない。
一方、ONEXStation Mini AIの統合メモリアーキテクチャでは、96GBをGPU側に割り当てられる。理論上は70Bクラスの大型言語モデルを量子化なしでメモリに展開できる計算だ。ディスクリートGPUで96GBのVRAMを確保しようとすれば、RTX PRO 6000(96GB GDDR7、推定価格100万円〜)が必要になる。省スペースなミニPCでこの容量が使えるのは、統合メモリならではの強みと言える。
ストレージはデュアルM.2スロットで最大8TB。ローカルLLMのモデルファイルは1つあたり数GB〜数十GBに達するため、大容量ストレージの選択肢があるのはありがたい。WiFi 7と2.5G LANの搭載も、クラウドAPIとの通信やモデルのダウンロード時に恩恵がある。
ローカル実行の前提と注意点
スペックだけを見ると魅力的なONEXStation Mini AIだが、AI用途で使うなら見過ごせない課題がある。128GBメモリの大容量と、CUDA非対応という制約。この2つのバランスをどう評価するかが、購入判断の分かれ目になる。
CUDA非対応がAIソフト選択に与える影響
ローカルAIの世界では、NVIDIAのCUDAが事実上の標準になっている。Stable Diffusion、ComfyUI、PyTorchベースのモデル実行環境——どれもCUDA対応を前提に開発が進んでいる現状がある。
Radeon 8060SはAMDのiGPUであり、当然ながらCUDAには非対応。AMD GPUでAI処理を行うには、ROCmやDirectMLといった代替フレームワークを利用する必要がある。
では、実際にどの程度使えるのか。現時点の状況を整理してみた。
llama.cppはVulkanバックエンドを通じてAMD GPUでの推論に対応しており、Ollamaもこの恩恵を受けられる。ただし、iGPU(内蔵GPU)での動作実績はディスクリートGPU(RX 9070シリーズ等)と比べて報告が少なく、安定性や速度は未知数の部分が残る。
画像生成ではどうか。ComfyUIやStable DiffusionのWebUIは、DirectMLやROCmを経由してAMD GPUで動作する場合があるが、CUDA前提で最適化されたカスタムノードやエクステンションが動かないケースも多い。「動くけど制限あり」というのが正直なところだ。
PyTorchのROCm対応はLinuxでは比較的安定しているが、WindowsではDirectML経由になり、対応モデルやパフォーマンスに制約が出る。ONEXStation Mini AIのOSがWindowsであることを考えると、この点は無視できない。
128GB統合メモリのローカルLLM活用
CUDA非対応という制約がある一方で、128GB統合メモリには他では得られないメリットがある。それは「VRAMの壁」を超えられる可能性だ。
ローカルLLMを動かす際、最大のボトルネックになるのがVRAM容量。当サイトの検証環境(RTX 5060 Ti / i7-14700F / 96GB RAM)では、VRAM 16GBの制約から26B〜35Bクラスのモデルが上限で、それ以上のサイズは物理的にGPUメモリに載らなかった。
ONEXStation Mini AIが96GBのGPUメモリ割り当てに対応するなら、70Bクラスのモデルでも量子化なし、あるいは軽度の量子化で動作する余地がある。これはRTX 5090(32GB VRAM)でも実現できない領域だ。
ただし、ここで注意が必要なのが推論速度。統合メモリのメモリ帯域はLPDDR5X-8000 MT/sで、これは理論上256GB/sクラス。対して、RTX 5080のGDDR7メモリ帯域は960GB/s、RTX 5060 TiでもGDDR7で高い帯域を持つ。メモリ帯域はLLM推論速度に直結するため、統合メモリで大型モデルを動かしても、tokens/secはディスクリートGPUに大きく劣る可能性が高い。
参考までに、当サイトの検証環境(RTX 5060 Ti 16GB)ではgemma4:26bが37.0 tokens/sec、qwen3.5:35b-a3bが18.7 tokens/secを記録している。ONEXStation Mini AIのiGPU推論がこれらの数値に届くかどうかは、メモリ帯域の差を考えると厳しいと予想される。「大型モデルが載る」ことと「快適に動く」ことは別問題という認識が必要だ。
既存モデル・自作デスクトップとの比較
ONEXStation Mini AIの存在は、「AI用PCはデスクトップタワーでなければならないのか」という問いを突きつけてくる。自作デスクトップとミニPC、それぞれの強みと弱みを整理してみよう。
自作PC界隈では、Ryzen 7 9800X3DとRTX 5080の組み合わせがハイエンド構成として人気を集めている。Redditのr/buildapcコミュニティでも、この構成をベースにした相談投稿が後を絶たない。パーツ合計は20〜30万円規模で、将来のGPU換装も見据えた「拡張性重視」のアプローチだ。
両者を主要な観点で比較すると、以下のような棲み分けが見えてくる。
| 比較項目 | ONEXStation Mini AI | 自作デスクトップ(9800X3D+RTX 5080構成) |
|---|---|---|
| GPU | Radeon 8060S(iGPU) | RTX 5080(16GB GDDR7) |
| CUDA対応 | 非対応 | 対応(Tensorコア含む) |
| メモリ上限 | 128GB(うちGPU割り当て最大96GB) | システムRAM 64〜128GB + VRAM 16GB |
| メモリ帯域 | LPDDR5X-8000(約256GB/s) | GDDR7 約960GB/s(GPU側) |
| 消費電力 | TDP 120W | CPU 105W + GPU 360W = 合計465W〜 |
| 設置スペース | ミニPC筐体 | ミドルタワー以上 |
| GPU換装 | 不可 | 可能 |
| 騒音 | デュアルファン(比較的静音) | GPU・CPUクーラー・ケースファン(構成次第) |
| 価格帯 | 未公表(中国販売のみ) | 25〜35万円規模 |
この表から浮かび上がるのは、「何を優先するか」で最適解が変わるということ。
CUDA対応のAIソフトをフルに活用したいなら、自作デスクトップ一択だ。Stable Diffusion、ComfyUI、PyTorchベースのモデルファインチューニング——これらはCUDA+Tensorコアの恩恵が直接効くワークロードであり、iGPUでは代替できない。RTX 5080の16GB VRAMでは26Bクラスまでのモデルが快適に動き、メモリ帯域960GB/sが高速な推論を支える。
一方、CUDA依存のないワークフローで大型モデルを扱いたい場合は、ONEXStation Mini AIの統合メモリ96GBが光る。llama.cppのCPU推論やVulkanバックエンドを活用し、70Bクラスのモデルをローカルで試したい——そんなユースケースでは、省スペースかつ省電力(TDP 120W)で運用できるミニPCの利点は大きい。
用途別の向き不向きをまとめるとこうなる。
ONEXStation Mini AIが向いている用途:
– llama.cppのCPU/Vulkan推論で大型モデル(70Bクラス)を試す
– NPUを活用したオンデバイスAI処理(対応ソフトがある場合)
– 省スペース・省電力のローカルAIサーバー
自作デスクトップ(NVIDIA GPU搭載)が向いている用途:
– Stable Diffusion / ComfyUIでの画像・動画生成
– OllamaでのGPU推論(高速なtokens/sec)
– PyTorchベースのモデル実行・ファインチューニング
どちらが「上」ということではなく、ソフトウェアエコシステムと使いたいモデルサイズで判断が分かれる構図だ。NVIDIAのCUDAエコシステムに依存するツールが多い現状では、多くのローカルAIユーザーにとって自作デスクトップの方が汎用性は高い。しかし、AMDのソフトウェア対応が進めば、この勢力図は変わりうる。
よくある質問
Q: ONEXStation Mini AIは日本で購入できますか?
現時点では中国市場での販売のみ確認されており、グローバル展開や日本国内での取り扱いは未確定である。価格も公表されていないため、購入を検討する場合はOneXPlayer公式の続報を待つ必要がある。
Q: Radeon 8060SでStable DiffusionやComfyUIは動きますか?
CUDA前提で開発されたStable DiffusionやComfyUIは、AMD iGPUでの動作に制約がある。DirectMLやROCm経由で一部動作する可能性はあるが、NVIDIA GPU向けに最適化されたカスタムノードやエクステンションが使えないケースも多い。CUDA対応GPUと同等の体験は期待しない方が現実的だ。
Q: 70BクラスのLLMは快適に動かせますか?
96GBのGPUメモリ割り当てで「載せる」ことは可能性があるが、メモリ帯域が約256GB/sでありディスクリートGPUの960GB/s級と比べて大きく劣る。tokens/secはRTX 5060 TiクラスのGPU推論には届きにくく、「大きいモデルをゆっくり動かす」用途で割り切る前提になる。
まとめ
ONEXStation Mini AIは、ミニPCカテゴリにおける「AI特化」の方向性を明確に打ち出した製品だ。128GBの統合メモリと126 TOPSのAI性能は、スペックシート上では魅力的に映る。
現時点での評価は以下の3点に集約される。
強み: 統合メモリ最大96GBのGPU割り当ては、ディスクリートGPUでは到達困難な容量。大型LLMをローカルで「載せる」ことに関しては、自作デスクトップを超える可能性がある。
弱み: CUDA非対応は、現状のローカルAIエコシステムでは大きなハンデになる。使えるソフト・使えないソフトが明確に分かれるため、購入前の互換性チェックが必須。メモリ帯域もディスクリートGPUに劣り、推論速度はトレードオフになる。
現状の判断: 中国市場でのみ販売、グローバル価格は未公表。日本での入手性が不明な段階で積極的に購入を検討する必要はない。ただし、AMDの統合メモリアーキテクチャがローカルAIに与えるインパクトは注視しておく価値がある。
今後の観測ポイントとしては、グローバル価格の動向、llama.cppやOllamaでのRadeon 8060S iGPU推論ベンチマーク、そしてROCm/Vulkanのソフトウェア対応進捗。これらが出揃った段階で、改めて実用性を評価できるようになるだろう。
NVIDIA GPU搭載の自作デスクトップとの使い分けを理解した上で、自分のAIワークフローに合った選択をしてほしい。
当サイトはAmazonアソシエイト・プログラムの参加者です。Amazonのアソシエイトとして、当サイトは適格販売により収入を得ています。
おすすめパーツ 価格まとめ
| 製品名 | カテゴリ | スペック | 参考価格 |
|---|---|---|---|
| RTX 5090 | GPU・グラフィックボード | NVIDIA GeForce RTX 5090 32GB GDDR7 | ¥599,800〜 |
| RTX 5080 | GPU・グラフィックボード | NVIDIA GeForce RTX 5080 16GB GDDR7 | ¥199,800〜 |
| RTX 5070 | GPU・グラフィックボード | NVIDIA GeForce RTX 5070 12GB GDDR7 | ¥105,000〜 |
本記事の情報は記載時点のもの。製品アップデートや第三者ベンチマーク・価格・対応ランタイム等の変動で評価が変わる可能性がある。一定期間経過した内容は再検証を推奨する。

