AIミニPCワークステーションとは?GMKtec EVO-T2S/EVO-X2で学ぶIntel・AMDの選び方

AIミニPCワークステーションとは?GMKtec EVO-T2S/EVO-X2で学ぶIntel・AMDの選び方 アイキャッチ GPU・グラフィックボード

AIミニPCワークステーションとは、NPUやiGPUを統合しローカルでAI推論を動かす小型PCの総称。

GMKtecがAliExpressの深圳イベントで、AI特化型ミニPCの新ラインアップを公開した。登場したのはIntelプラットフォームのEVO-T2Sと、AMDプラットフォームのEVO-X2の2系統。どちらも「ローカルでAIを動かす」ことを前面に打ち出した構成で、フルタワーGPUを積むデスクトップとは別の選択肢として注目を集めている。

この記事の要点
・AIミニPCワークステーションは、NPU+統合GPU+大容量メモリで小型筐体に収めるAI向けPC
・IntelのEVO-T2SはCore Ultra X7 358H搭載でNPU主体、AMDのEVO-X2はRyzen AI Max+ 395搭載で大容量統合メモリが強み
・専用GPU搭載デスクトップとは性格が異なり、ローカルLLM中心か画像生成中心かで最適解が変わる

GMKtecが発表したAIミニPC 2系統の全体像

AIをクラウドだけでなく手元の端末で動かしたい需要が拡大している。APIコストの抑制、プライバシー保護、オフライン環境での利用など、ローカル推論を選ぶ理由は多い。そうした流れの中で、大きな電源ユニットや拡張スロットを使わずにAI推論をこなせる「ミニPC型AIワークステーション」というジャンルが一気に存在感を増してきました。

ミニPC型AIワークステーションが求められる背景

ServeTheHomeのレビュー記事でも触れられている通り、AMDのRyzen AI Max(Strix Halo)プラットフォームは多数のシステムベンダーが採用し、AI開発分野で高い需要を集めています。高性能なAPUを1チップに収められるため、狭いフットプリントでもローカルLLM推論に十分なメモリを積める点が評価されているのが現状。

一方のIntelも、Core Ultraシリーズで強力なNPU(Neural Processing Unit、AI推論専用のプロセッサ)を搭載するようになり、ミニPCに組み込むことでデスクトップに近いAI処理能力を小型化できるようになりました。GMKtecの今回の発表は、そうした2つの流れを同じメーカーが並行して提示した点で興味深い事例と言えます。

2系統のプラットフォーム概要

GMKtec公式によると、EVO-T2Sシリーズは3月中旬に上海で開催されたIntelのCore Ultra(Panther Lake)発表イベントに合わせて導入されたもの。EVO-X2シリーズはAMDのRyzen AI Max+ 395を搭載したモデルで、最近の発表以来、大きな注目を集めています。元記事で紹介されている構成をまとめると以下の通り。

EVO-T2S プロセッサ Intel Core Ultra X7 358H(16コア構成)
EVO-T2S AI性能 最大180 TOPS(公式発表値)
EVO-X2 プロセッサ AMD Ryzen AI Max+ 395(16コア32スレッド)
EVO-X2 NPU性能 XDNA 2 NPU、最大126 TOPS(公式発表値)
想定用途 ローカルLLM推論を含むAIワークロード、ハイエンドデスクトップ用途

Intel搭載モデルEVO-T2Sのスペックと狙い

EVO-T2SはIntelのCore Ultra X7 358Hを核にしたモデル。GMKtec公式情報では16コア構成のCPUに加え、最大180 TOPSのAI演算性能を提供すると説明されています。ここでの「TOPS」は1秒あたりに処理できるAI演算(主にINT8)を兆単位で示した指標で、数値が大きいほどNPUのピーク性能が高いとされる値。

プロセッサと冷却設計

元記事によれば、EVO-T2Sはベイパーチャンバー(気化熱を利用して熱を広い面に拡散させる冷却構造)を採用し、最大60Wまでの発熱に対応する設計。ミニPC筐体の宿命である熱密度の高さを、液冷に近い思想で逃がす狙いが見て取れます。ハイエンド向けのCore Ultra X9 388H搭載モデルも存在が示唆されているものの、GMKtecからの販売時期・価格は現時点で公開されていません。

ストレージ・メモリ構成の特徴

メモリはLPDDR5X-8533、ストレージにはPhison aiDAPTIV+ PCIe 5.0 SSDを採用しているのが大きな差別化点。aiDAPTIV+はSSDを一時的なモデルキャッシュとして使い、物理メモリだけでは収まらないLLMを扱いやすくする仕組みです。ローカルで中〜大規模モデルを動かすときの「メモリ足りない問題」に真正面からぶつけた設計と言える構成。

ただし、Intel Core Ultra X7 358H世代のiGPU(Intel Arc B390、本体内蔵のグラフィックスプロセッサ)は、NVIDIAのミドルレンジ以上の専用GPUと正面衝突する性能ではありません。用途が画像生成・動画生成中心であれば、別記事でも扱っているAI用PCの最低スペックガイド|RTX 5060 Ti(16GB)+RAM 16GBで始めるローカルAI環境のような専用GPU構成の方が素直に速いはず。あくまでNPUとCPU中心の推論に強みを持つプラットフォームだと理解しておくと失敗しにくいでしょう。

AMD搭載モデルEVO-X2の特徴とStrix Haloの実力

もう一方のEVO-X2はAMD Ryzen AI Max+ 395を採用しています。GMKtec公式ページによれば、16コア32スレッドのCPUに加え、最大126 TOPSを公称するXDNA 2 NPUを統合。さらに最大128GBのLPDDR5Xメモリをサポートし、10GbEネットワーク、最大4画面の4K出力といった周辺仕様も備える構成。

Ryzen AI Max+ 395の構成

ServeTheHomeの解説を踏まえると、Ryzen AI Maxは「Zen 5の16コアCPU」「RDNA 3+ 世代の強力な統合GPU(AMD Radeon 8060S)」「広帯域のメモリバス」の3つを1パッケージに収めたAPU。従来のAPUがエントリー〜ミドルレンジ止まりだったのに対し、このシリーズはハイエンドノートやSFF PCに使える性能帯を狙っているのが特徴です。

統合GPUと広帯域メモリが同居しているため、モデルを読み込むときのメモリ帯域がボトルネックになりにくく、ローカルLLM推論で効いてくる設計。従来のGPUなら「モデルはVRAMに乗るか、OOMで落ちるか」の2択でしたが、統合メモリ型APUは「RAMに収まる限り動く」というシンプルなルールで設計できる強みがあります。

大容量統合メモリがAI推論で活きる場面

128GBのLPDDR5X構成が特に活きるのは、量子化済みの大規模モデル(たとえば30B〜70Bクラス)をメモリに丸ごと乗せたい場面。専用GPUでこのレベルのVRAMを確保しようとすると、個人向けの選択肢はかなり限られてきます。GPUリファレンスで示した通り、16GB VRAM級でも15万〜20万円、24GB級の中古RTX 3090で10万〜15万円という相場。これに対し大容量統合メモリ型APUは「VRAMではなくRAMを増やせばよい」という発想で費用構造が変わる点が読者にとっての判断材料になるはず。

一方で、専用GPUのようなグラフィックスメモリ帯域は出せないため、画像生成・動画生成のような帯域依存が強いワークロードでは差が付きやすいという弱点もあります。当サイトの検証環境(RTX 5080 / i7-14700F / 96GB RAM)でgemma4:26bを動かした際は38.9 tokens/sec・VRAM使用量15.4GBを記録しましたが、統合メモリ型APUで同じクラスのモデルを動かすと、帯域差がそのまま推論速度の差として現れやすい点は押さえておきたいところ。

価格動向とミニPC型AIワークステーションの立ち位置

元記事で特に興味深いのは、発表時からの価格の変化。ここでは「元記事時点での情報」として時期を明記し、読者が現時点でECサイトを見るときのリファレンスとして扱えるようにまとめます。

価格改定の動き(元記事時点)

元記事によると、EVO-X2は当初128GBモデルが1,999ドルでローンチされたものの、現在のAliExpress上の掲載では構成が変わり、64GB+1TBが1,999ドル、128GB+2TBが3,299ドルとされています。EVO-T2SはCore Ultra X7 358H+64GB+1TB構成が1,899ドル(従来2,399ドルから値下げ)という価格帯。64GB以外のメモリオプションや、上位のCore Ultra X9 388H搭載モデルの価格・発売時期は現時点で公開されていません。

海外ECの表示価格は為替・送料・関税で大きく変動します。国内代理店経由での流通もあるため、購入時には必ず最新の販売ページで実価格を確認してください。

専用GPU型デスクトップとの使い分け

ここで整理したいのが、ミニPC型AIワークステーションがどんな用途に向き、どんな用途で従来のGPUデスクトップに軍配が上がるのか。以下の表は、現時点で一般的に言えるガイドラインをまとめたもの。

構成タイプ 向いているAI用途 注意点
NPU強化型ミニPC(例: EVO-T2S) ローカルLLMの軽量〜中規模量子化モデル、会議要約、コード補助のローカル実行 画像生成・動画生成では専用GPUに劣る。NPU対応ソフトかどうかを事前に確認
大容量統合メモリAPU型(例: EVO-X2) 30B〜70Bクラスの量子化LLM推論、RAM容量に支配される大規模モデル 生成AIの帯域依存ワークロードでは専用GPUに敵わない。LPDDR5Xの帯域が上限
専用GPU型デスクトップ(例: RTX 5080搭載機) Stable Diffusion・ComfyUI・動画生成、ゲーム兼用、高速なLLM推論 筐体が大きく電源容量も必要。VRAM容量がモデルサイズの上限を決める
クラウドAPI+軽量ノートPC Claude Code、ChatGPT、API経由の利用中心 ローカルで動かすことはできない。通信費とAPI料金が発生

この表で伝えたいのは「どれが一番優れている」ではなく、用途の軸が違えば最適解も違うという点。ローカルで70Bクラスの量子化モデルを動かしたい人にとってはEVO-X2のような構成が第一候補に入るし、ComfyUIでSDXL・Flux系を高速に回したい人にとってはミニPCより専用GPUが素直な選択肢になる。自分がどちらの軸で消耗しているかを見極めるのが大事な判断です。

よくある質問

Q. ローカルLLMを動かすのにGPUなしでも大丈夫ですか?

動かすこと自体は可能です。Ryzen AI Max+ 395のような統合GPU+NPU+大容量LPDDR5X構成なら、量子化済みの中〜大規模モデルも実用速度で動くケースが増えています。ただし画像生成や動画生成のようにメモリ帯域を強く使う処理では、専用GPUに対して明確な速度差が出ます。用途がテキスト主体のLLMか、画像・動画中心かを整理してから選ぶのが近道。

Q. NPUの「TOPS」という値はどう読めばいいですか?

TOPSは1秒あたりのAI演算回数(兆単位)を示すピーク性能の指標です。EVO-T2Sの最大180 TOPSやEVO-X2の最大126 TOPSはいずれも公式発表値。数値が大きいほどNPUのピーク能力が高いものの、実アプリの体感速度は対応ソフトの最適化状況・メモリ帯域・モデルサイズで大きく変わります。TOPS値だけでは優劣を断定できない点は覚えておいてください。

Q. ミニPC型とフルサイズの専用GPUデスクトップ、どちらを選ぶべきですか?

ローカルLLMの大容量モデルをRAMに乗せて推論したい、置き場所を小さく抑えたい、静音性を優先したいならミニPC型が有利。画像生成・動画生成を本格的に回したい、将来GPUを差し替えたい、ゲームも兼用したいなら専用GPU搭載のデスクトップが合います。用途の60%以上がどちらに寄っているかで決めるとブレにくい選び方ができます。

Q. EVO-T2SとEVO-X2、同じ価格帯ならどちらが正解ですか?

一概には言えません。EVO-T2SはIntel系ソフトウェア最適化・Phison aiDAPTIV+によるSSDキャッシュが魅力で、EVO-X2は128GBまで拡張可能なLPDDR5XとRadeon 8060Sの統合GPUが強み。手持ちのAIソフトがどちらのプラットフォーム向けに最適化されているかを事前に確認することをおすすめします。

まとめ

GMKtecのEVO-T2SとEVO-X2は、同じ「AIミニPCワークステーション」というジャンルにありながら、設計思想が大きく異なる2系統です。Intel側はNPUと高速SSDキャッシュを組み合わせ、AMD側は大容量統合メモリと強力なiGPUで勝負をかけている構図。どちらが絶対に優れているという話ではなく、自分が動かしたいAIワークロードがどちらの性格に合うかで最適解が変わる。

読者がまず取るべき行動は3つ。1つ目に自分の主要なAI用途(LLMか、画像生成か、コーディング支援か)を書き出す。2つ目に、その用途で必要な最低VRAM・RAM容量を先ほどのガイドライン表で確認する。3つ目に、候補となる構成を価格と照らし合わせて、専用GPU型とミニPC型のどちらがコスト対効果で優位かを比較してみてください。単に「ミニPCは省スペースで良さそう」という印象だけで選ぶと、後からソフトウェア対応や帯域で苦労する可能性がある点は最後に強調しておきます。

当サイトはAmazonアソシエイト・プログラムの参加者です。Amazonのアソシエイトとして、当サイトは適格販売により収入を得ています。

本記事は AIハードウェア図鑑 編集部 が記載時点の情報をもとに執筆。製品アップデートや第三者ベンチマーク・価格・対応ランタイム等の変動で評価が変わる可能性がある。一定期間経過した内容は再検証を推奨する。

タイトルとURLをコピーしました