AI用PCの最低スペックガイド|RTX 5060 Ti+RAM 32GBで始めるローカルAI環境

AI用PCの最低スペックガイド|RTX 5060 Ti+RAM 32GBで始めるローカルAI環境 アイキャッチ GPU・グラフィックボード

2026年にローカルLLMを自宅で動かすなら、VRAM(GPUに搭載された専用メモリ)16GB以上のグラフィックボードが最低ライン。具体的にはRTX 5060 Ti 16GBを軸に組んだ場合、総額は約23.5万円からが現実的な出発点になる。

「AI用PCは10万円で組める」という情報をネット上で見かけた人もいるだろう。しかし2026年4月時点では、GPU単体で10.5万円以上かかるのが現実。期待と現実の差は大きいが、その理由を知れば納得できるはず。ここからは、ローカルAIを快適に動かすための最低スペックを、当サイトの実測データとともに具体的な数値で示していく。

この記事の要点

  • 2026年のローカルAI用PCはVRAM 16GB・RAM 32GB・SSD 1TBが最低ライン、総額約23.5万円から
  • RTX 5060 Ti 16GBなら22Bパラメータのモデルまで実用速度で動作(codestral:22b 実測31.7 tokens/sec)
  • アップグレードはRAM増設(32GB→64GB)を最優先にすると体感改善が大きい

2026年のローカルAI用PCに必要な最低スペック

ローカルでAIを動かすPCを組む場合、最も予算を集中させるべきパーツがGPU。ここでは各パーツの役割と、なぜこの構成がベースラインになるのかを、初心者にもわかるよう順を追って解説する。

以下が、2026年4月時点で現実的な最低ライン構成となる。

パーツ 推奨スペック 参考価格(2026年4月時点)
CPU Intel Core i5-14400F以上 ¥25,400〜
(kakaku.com最安値・2026/04/22)
GPU(最重要) GeForce RTX 5060 Ti 16GB 約10.5万円〜
RAM DDR5 32GB(16GB×2) 約5万円
SSD 第4世代NVMe 1TB以上 ¥10,000〜
(kakaku.com最安値・2026/04/22)
マザーボード B760チップセット以上 約1.2万円
電源ユニット 750W 80PLUS Gold 約1万円
ケース ミドルタワー 約1万円
合計 約23.5万円〜

合計約23.5万円という数字は、ハイスペックなPC並みかそれ以上の投資。しかし各パーツのスペックを落とすと「AIが動かない」「遅すぎて使いものにならない」という事態に直結するのが、AI用PC選びの難しさ。特にGPUのVRAM容量は妥協してはいけないポイントになる。

なぜVRAM 16GBがスタートラインなのか

ローカルLLM(大規模言語モデル)を動かすとき、モデルのデータはGPUのVRAMに読み込まれる。VRAMに収まりきらなければ、あふれたデータをRAM側に逃がす「オフロード」が発生し、処理速度が劇的に低下してしまう仕組み。

では、VRAM容量ごとに何ができるのか。以下の表で整理した。

VRAM容量 動かせるLLMの目安 画像生成AI 制約・注意点
8GB 7B〜8Bパラメータの量子化モデル SD 1.5は快適、SDXLは設定次第 実用範囲がかなり狭い
12GB 8Bモデルは快適、14B以上でオフロード発生 SDXL動作可能 14B以上で速度1/3以下に低下
16GB 22Bクラスのモデルまで完全GPU実行 SDXL快適、Flux系も動作 2026年の実用的なスタートライン
24GB以上 32B超の大型モデルにも対応 大型ワークフローも余裕 RTX 3090中古やRTX 5090が該当

押さえておきたいのは、12GBと16GBの間にある断崖のような性能差。VRAM 12GBのGPU(RTX 5070など)では14Bパラメータ以上のモデルを動かそうとするとオフロードが発生し、生成速度が1/3以下まで落ち込んでしまう。一方、16GBあれば22Bクラスのモデルまでオフロードなしで動作する。価格差は2万円前後(実勢は記事末尾の価格表を参照)だが、実用性への影響は数倍以上。このたった4GBの差が、ローカルAI体験の質を決定づける。

ちなみに、RTX 5060 Ti には8GB版も存在する。8GB版は16GB版より1〜2万円ほど安い実勢で流通しているが、VRAM 8GBでは7Bクラスの小型モデルしか動かせず、2026年のローカルAI用途には力不足。AI目的でPCを組むなら、必ず16GB版を選んでほしい。

VRAM 8GBのGPU(RTX 5060 Ti 8GBやRTX 4060など)はAI用途では実用範囲が極端に狭い。7Bモデル止まりという制約は、使い始めるとすぐに壁にぶつかる。GPU選びで最も大切なのはVRAM容量。CUDAコア数や動作クロックより優先して確認すること。

CPU・RAM・SSDの選定基準

GPU以外のパーツは、AI推論においてGPUほど優先度が高くない。ただし、最低ラインを下回ると別の問題が生じてくる。

CPUはIntel Core i5-14400F程度で十分。ローカルLLMの推論処理はほぼすべてGPUが担当するため、ハイエンドCPUに予算を回す意味が薄い。その分をGPUやRAMに充てたほうが、体感の改善につながる選択と言える。

RAMは32GBが最低ライン。Ollamaで14Bクラスのモデルを単体で動かす程度なら32GBで足りる。しかしLLMと画像生成AIを同時に使ったり、VRAMからあふれたデータをRAMにオフロードしたりする場面では、64GBが欲しくなるのが実情。最初は32GBで組んでおき、必要に応じて64GBに増設する前提で計画するのが賢いやり方。

SSDは第4世代NVMe接続の1TBが最低条件。AIモデルのファイルサイズは1つあたり数GB〜十数GBに達する。5〜6個のモデルを入れただけで数十GBを消費するため、容量が少ないとあっという間に限界が来てしまう。加えて、読み込み速度がモデルのロード時間に直結するので、SATA接続のSSDやHDDでは体験が大幅に悪化する。第4世代NVMeを選ぶ理由はここにある。

RTX 5060 Ti 16GBのAI性能を実測データで確認

スペック表の数字だけでは「実際にどれくらいの速度で動くのか」がつかめない。ここでは当サイトの検証環境(RTX 5060 Ti 16GB / i7-14700F / 96GB RAM)で計測した実測データを紹介する。

ローカルLLM(Ollama)の実測速度

Ollamaで主要なモデルを動かした際の生成速度(tokens/sec)とVRAM使用量を、以下の表にまとめた。

モデル パラメータ数 生成速度 VRAM使用量
llama3.1:8b 8B 80.7 tokens/sec 5.5GB
phi4:14b 14B 44.8 tokens/sec 9.7GB
qwen3:14b 14B 43.4 tokens/sec 9.5GB
codestral:22b 22B 31.7 tokens/sec 13.2GB

まず8Bクラスのllama3.1:8bに注目してほしい。80.7 tokens/secという速度は、人間が文章を読むスピードをはるかに超えている。VRAM使用量もわずか5.5GBで、16GBの半分以下しか使わない。小型モデルなら余裕たっぷりの動作。

14Bクラスはどうか。phi4:14bが44.8 tokens/sec、qwen3:14bが43.4 tokens/secを記録した。いずれも40 tokens/sec台を維持しており、チャット形式の対話で待たされる感覚はほぼない。日常的なAIアシスタントとして十分に実用的な速度と言える。

特筆すべきは、22Bのcodestral:22bが31.7 tokens/secで動作している点。コーディング特化のモデルをこの速度で回せるのは大きい。VRAM使用量は13.2GBで、16GBの枠内にしっかり収まっていた。

tokens/secとは「1秒間に何トークン(おおむね単語の断片1つ分)を生成できるか」を示す指標。目安として、20 tokens/sec以上あればチャット利用でストレスを感じない速度。40 tokens/sec以上なら体感は快適そのもの。当サイトの検証環境では、RTX 5060 Ti 16GBが14Bクラスまで「快適」ゾーンに入ることを確認している。

画像生成(ComfyUI)の実測速度

RTX 5060 Ti 16GBでComfyUIを使ったAI画像生成についても触れておく。SDXL fp8での生成は1枚あたり約12.3秒、VRAM使用量は約4.1GB。LLM実行時と比べるとVRAM消費が圧倒的に少なく、画像生成単体であれば余裕を持って動作する。

ただし注意点もある。OllamaでLLMを動かしながら同時にComfyUIで画像を生成するような使い方をすると、VRAM 16GBでは両方を載せきれない場面が出てくる。たとえばphi4:14b(VRAM 9.7GB)を動かした状態でSDXL(VRAM 4.1GB)を起動すれば、合計で13.8GB。ギリギリ収まるように見えるが、システムのオーバーヘッドを考慮すると不安定になりやすい。こうした同時利用を見据えるなら、RAMを64GB以上に増設してオフロード時の速度低下を緩和するのが現実的な対策となる。

予算別・用途別のアップグレード戦略

約23.5万円のベースライン構成は「最低限ローカルAIが動く」ラインに過ぎない。使い込むうちに不満が出てくるポイントは想定できるので、あらかじめアップグレードの優先順位を把握しておけば、無駄な出費を避けられる。

最優先はRAM 64GBへの増設

費用対効果が最も高いアップグレードは、RAM 32GBから64GBへの増設。理由は明確で、以下のような場面でRAM不足が体感に直結するから。

  • LLMと画像生成AIの同時利用時にオフロードが発生する場面
  • ブラウザや他のアプリケーションを開いたままLLMを動かすと、システム全体が重くなる場面
  • VRAMに収まりきらない大型モデルを試す際に、RAM容量が速度を制限する場面

当サイトの検証環境ではRAMを96GB搭載しているが、これは複数モデルの切り替えやマルチタスク時の安定性を確保するため。一般的な用途なら64GBで十分に快適な環境が得られる。

SSDの容量追加(1TB→2TB)も、モデルファイルが増えてくると必要になるアップグレード。ただし体感改善という意味ではRAM増設のほうが優先度が高い。

GPU交換は「速度」か「VRAM容量」かで選ぶ

GPUのアップグレードは投資額が大きいため、目的を明確にしてから検討したい方針。方向性は大きく2つに分かれる。

速度重視の場合はRTX 5080(VRAM 16GB、CUDAコア 10,752基、TDP 360W、約20万円〜)が有力な候補。VRAM容量は同じ16GBだが、CUDAコア数が4,608基から10,752基へと倍以上に増え、メモリ帯域幅も大幅に向上する。同じモデルをより速く動かせるのが最大のメリットで、特に動画生成や画像の大量生成で差が出やすい。

上位GPUの処理性能が創作活動の幅を広げた実感は、動画生成や大量画像処理を回すほど顕著になる。当サイトでもRTX 5080を使った4K動画生成ワークフローで成果を積み上げている段階で、上位VRAM帯に投資する意味は体感できる領域に入っている。

VRAM容量重視の場合は、24GB以上のGPUが選択肢に入ってくる。中古のRTX 3090(VRAM 24GB、約10〜15万円)なら32Bクラス以上のモデルも動作可能。ただしTDPが350Wと高く、発熱と電源容量の両面で注意が必要になる。新品ではRTX 5090(VRAM 32GB、TDP 575W、約55万円〜)が最上位だが、個人の予算としてはかなりハードルが高い。

アップグレード先GPU VRAM CUDAコア TDP 価格帯(2026年4月時点) メリット
RTX 5070 Ti 16GB 8,960基 300W ¥158,000〜
(kakaku.com最安値・2026/04/29)
同VRAM容量で推論速度10〜20%向上
RTX 5080 16GB 10,752基 360W ¥199,800〜
(kakaku.com最安値・2026/04/29)
CUDAコア倍増と帯域幅向上で大幅高速化
RTX 3090(中古) 24GB 10,496基 350W 約10〜15万円 24GB VRAMで32B超のモデルに対応
RTX 5090 32GB 21,760基 575W ¥729,800〜
(kakaku.com最安値・2026/04/29)
32GB VRAMで70Bモデルも単体動作
GPUを上位モデルに交換する際は、電源ユニットの容量を必ず確認すること。RTX 5080なら850W以上、RTX 5090なら1,000W以上が推奨される。ベースライン構成の750W電源ではRTX 5080にギリギリ対応可能だが、安定性を考えると850Wへの交換が安心。

まとめ

2026年にローカルAIを動かすPCの最低ラインは、RTX 5060 Ti 16GBを中心に組む約23.5万円の構成。VRAM 16GBがあれば22Bパラメータのモデルまで実用速度で動作し、画像生成AIも快適にこなせることが実測データで確認できた。

「10万円でAI用PC」は現状では非現実的。しかし約23.5万円のベースラインからスタートし、RAM増設→SSD追加→GPU交換の順にアップグレードしていく戦略なら、長期的に無駄のない投資になる。

まず自分がやりたいAI用途を明確にし、必要なVRAM容量を上の表で照合してみてほしい。ローカルLLMでの対話がメインなら、このベースライン構成で十分に始められる。

よくある質問(FAQ)

Q: 予算10万円でAI用PCは組めますか?

A: 2026年4月時点では難しい。RTX 5060 Ti 16GB単体で約10.5万円〜するため、10万円ではGPU以外のパーツがほぼ買えない計算になる。どうしても予算を抑えたい場合、中古のRTX 3060 12GB(約3.5万〜4万円〜)を使う方法もあるが、VRAM 12GBでは8Bモデルまでが快適に動く範囲。14B以上でオフロードが発生して速度が大幅に低下する制約を理解したうえで選ぶ必要がある。

Q: ノートPCでローカルAIは動かせますか?

A: 動かせるが制約は多い。ノートPC向けGPU(例: RTX 4060 Laptop GPU)はデスクトップ版と同じVRAM容量でも、電力制限やクロック数の違いで推論速度が落ちる。「RTX 4060」と「RTX 4060 Laptop GPU」はまったくの別物という点に注意してほしい。一方、ChatGPTやClaude CodeのようなAPI経由で動くAIツールであればGPUは不要。RAM 16GB・SSD搭載のノートPCでも快適に利用できるため、ローカル実行が必要かAPI利用で済むかを先に判断するのが得策。

Q: CPUはIntelとAMDのどちらがいいですか?

A: ローカルLLMの推論処理はGPUがほぼすべてを担うため、CPUのメーカー選びで大きな差は出ない。Intel Core i5-14400FでもAMD Ryzen 5 7600でも、AI推論速度にはほとんど影響しないのが実態。予算や入手性で選んで問題ないパーツと考えてよい。ただしCPUとマザーボードはソケットの互換性があるため、CPUを先に決めてからマザーボードを選ぶ順序だけは守ること。

当サイトはAmazonアソシエイト・プログラムの参加者です。Amazonのアソシエイトとして、当サイトは適格販売により収入を得ています。

おすすめパーツ 価格まとめ

製品名 カテゴリ スペック 参考価格
RTX 5090 GPU・グラフィックボード NVIDIA GeForce RTX 5090 32GB GDDR7 ¥729,800〜
(kakaku.com最安値・2026/04/29)
RTX 5080 GPU・グラフィックボード NVIDIA GeForce RTX 5080 16GB GDDR7 ¥199,800〜
(kakaku.com最安値・2026/04/29)
RTX 5070 Ti GPU・グラフィックボード NVIDIA GeForce RTX 5070 Ti 16GB GDDR7 ¥158,000〜
(kakaku.com最安値・2026/04/29)

本記事は AIハードウェア図鑑 編集部 が記載時点の情報をもとに執筆。製品アップデートや第三者ベンチマーク・価格・対応ランタイム等の変動で評価が変わる可能性がある。一定期間経過した内容は再検証を推奨する。

タイトルとURLをコピーしました