AI用PCのメモリ(RAM)選び方ガイド|DDR5の容量・速度・デュアルチャネルを解説

AI用PCのメモリ(RAM)選び方ガイド|DDR5の容量・速度・デュアルチャネルを解説 GPU・グラフィックボード

AI用途でPCメモリを選ぶなら、DDR5・デュアルチャネル・容量32GB以上が2026年の基準線になる。ただし、ローカルLLMを動かすのか、APIベースのAIツールを使うのかで最適解は大きく変わってくる。GPU(VRAM)の選び方は情報が豊富だが、RAMについては「とりあえず16GBあれば十分」程度の解説で済まされがち。実際にはAI用途特有のメモリ事情があり、ここを見落とすとせっかくのGPU性能を活かしきれない場面が出てくる。

この記事の要点

  • RAM(メインメモリ)はCPUの作業領域で、GPUのVRAMとは役割が異なる
  • ローカルLLMではVRAMに載りきらないモデルデータがRAMに展開されるため、容量が直接的に動作可否を左右する
  • 迷ったらDDR5・32GB・デュアルチャネル構成を選べば、多くのAI用途に対応できる

AI用途でメモリ(RAM)が重要な理由

RAM(Random Access Memory)とは、CPUが処理するデータを一時的に保管する場所のこと。ストレージ(SSDやHDD)から読み込んだデータをRAMに展開し、CPUが高速にアクセスできる状態にしておく役割を担っている。

よく混同されるのが、GPU側に搭載されているVRAM(Video RAM)との違い。VRAMはGPUが画像処理やAI推論で使う専用メモリで、RAMとは物理的にも論理的にも別物。AI用途では「VRAMが足りるかどうか」が最初に話題になるが、RAMの容量も同じくらい重要になるケースがある。

具体的にどんな場面でRAMが効いてくるのか。大きく分けて2つのパターンがある。

1つ目は、ローカルLLM(大規模言語モデル)の実行時。OllamaやLM Studioなどでローカルにモデルを動かすとき、モデル全体がVRAMに収まりきらない場合がある。このとき、収まらなかった部分はRAM側に展開される。これをCPUオフロードと呼ぶ。RAM容量が不足していると、モデルの読み込み自体が失敗するか、極端に遅くなってしまう。

2つ目は、APIベースのAIツールを使うとき。Claude CodeGitHub CopilotのようなツールはGPU不要だが、IDE(統合開発環境)・ブラウザ・AIツール本体を同時に開くとRAM消費が一気に膨らむ。ブラウザだけで数GBを消費するのが当たり前の時代なので、RAM 8GBの環境ではタブを数枚開いただけでスワップ(ストレージへの退避)が発生し、動作がもたつく原因に。

VRAMの選び方については別記事で詳しく解説しているが、RAMもまた「AIを快適に使えるかどうか」を左右する重要なパーツという点を押さえておきたい。

DDR4とDDR5の違い|AI用途で差が出るポイント

現在市場に流通しているデスクトップ用メモリの規格は、主にDDR4とDDR5の2種類。DDR(Double Data Rate)はメモリの転送方式を指す規格名で、数字が大きいほど新しい世代になる。

DDR5がDDR4から大きく進化したポイントは、主に3つ。

帯域幅の向上が最大の違い。DDR5はDDR4と比べて、おおよそ2倍のメモリ帯域を実現している。帯域幅とは「1秒間にどれだけのデータを転送できるか」の指標で、AI推論の前処理(データの読み込みや変換)やCPUオフロード時のモデルデータ転送で恩恵がある。ただし、GPU上で完結するAI推論そのものの速度はVRAMの帯域に依存するため、RAMの帯域だけで推論速度が劇的に変わるわけではない点に注意。

オンダイECC(エラー訂正機能)の搭載も押さえておきたい。DDR5ではメモリチップ自体にエラー検出・訂正機能が内蔵されている。長時間にわたるAI推論や学習処理で、メモリ上のデータ化けによるクラッシュリスクが低減される仕組み。

電力効率の改善もDDR5の特徴。動作電圧がDDR4の1.2VからDDR5では1.1Vに下がっており、高クロック動作時の電力効率が向上した。

2026年時点で新しくPCを組むなら、DDR5対応のマザーボードとメモリを選ぶのが合理的な判断。DDR4は既存環境でメモリを増設するケースに限って検討すればよい。なお、DDR4とDDR5は物理的な形状(ピン配置)が異なるため、同じマザーボードに混在させることはできない。

では、DDR4環境ではAI用途に支障があるのか。結論から言えば、DDR4でもローカルLLMは動く。ボトルネックになるのはRAMの規格よりも「VRAMの容量」と「RAMの容量」であり、DDR4の32GBと64GBでは後者のほうが圧倒的にAI用途での自由度が高い。帯域の差よりも容量の確保を優先すべきというのが、AI用途におけるRAM選びの基本的な考え方になる。

メモリ容量の選び方|16GB〜96GB以上の用途別ガイドライン

RAM選びで最も悩むのが「何GB必要か」という問題。AI用途では、一般的なPC利用よりも多くのメモリを消費するケースが多い。以下の表で用途別の目安を整理した。

RAM容量 対応できるAI用途の目安 備考
16GB APIベースのAIツール利用(ChatGPT、Claude、Copilot等のブラウザ・アプリ利用) ローカルLLMには厳しい。ブラウザ+IDE同時利用でギリギリの容量
32GB APIベースAIツールの快適利用、小型ローカルLLM(8Bクラスの量子化モデル)の実行 2026年の標準構成。迷ったらこの容量が安全
64GB 中〜大型ローカルLLM(14B〜26Bクラス)のCPUオフロード併用、画像生成の安定動作 VRAMが16GB以下のGPUで大きなモデルを扱いたい場合に有効
96GB以上 大型モデル(30B超)のCPUオフロード、複数モデルの同時起動、大規模データの前処理 用途が明確な場合のみ。一般的なAI利用ではオーバースペック

ここで重要なのが、先ほど触れた「CPUオフロード」の仕組み。VRAMに載りきらないモデルデータがRAMに展開される場合、そのぶんのRAM容量が必要になる。たとえば26Bクラスのモデルを16GB VRAMのGPUで動かすと、モデルデータの一部がRAM側に溢れてくる。このとき、RAMが32GBしかなければOS・アプリの消費分を差し引くと余裕がなくなる可能性がある。

ただし、忘れてはいけない注意点が1つ。RAM上に展開された部分の推論処理はCPU経由で行われるため、VRAM上の処理と比べて速度が大幅に低下する。当サイトの検証環境(i7-14700F / 96GB RAM)でもこの傾向は明確で、たとえばRTX 5060 TiでVRAMに収まりきるモデルは高速に動作するが、VRAMを超えてRAMにオフロードされると体感でわかるレベルで応答が遅くなる。RAMはあくまで「VRAMの補助」であり、「RAMを増やせばVRAMの代わりになる」とは考えないほうがよい。

迷ったら32GBを選ぶのが現時点でのベストな判断。理由は3つある。まず、DDR5の32GB(16GB×2枚)はコストパフォーマンスに優れた構成であること。次に、APIベースのAIツール利用なら十分すぎる容量であること。そして、将来ローカルLLMに手を出す際にも最低限の土台にはなるという点。

64GB以上が必要になるのは、VRAMが足りないGPUで無理に大きなモデルを動かしたい場合や、ComfyUIなどで高解像度の画像生成を頻繁に行う場合に限られる。まずは自分がやりたいAI用途を明確にしてから容量を決めるのが、無駄な出費を避けるコツ。

デュアルチャネルの効果と組み方

メモリの容量と同じくらい見落とされがちなのが、デュアルチャネルの設定。デュアルチャネルとは、2枚のメモリモジュールを同時にアクセスすることで、メモリ帯域を理論上2倍に引き上げる仕組みのこと。

1枚挿し(シングルチャネル)と2枚挿し(デュアルチャネル)では、体感でわかるレベルの差が出る場合がある。特にCPUオフロードでRAM上のモデルデータにアクセスする場面や、画像生成の前処理・後処理でCPUがデータを読み書きする場面で帯域の差が効いてくる。

デュアルチャネルを有効にするための条件は、以下の通り。

同容量・同規格のメモリを2枚使うのが基本。16GB×2枚で32GB、32GB×2枚で64GBという構成が典型的。異なる容量(8GB+16GBなど)の組み合わせでもデュアルチャネルが部分的に動作するケースはあるが、安定性と性能を考えると同一モジュール2枚が望ましい。

マザーボードの正しいスロットに挿すことも必須。多くのマザーボードではメモリスロットが4本あり、デュアルチャネルを有効にするには1スロット飛ばし(例: スロット2とスロット4)に装着する。どのスロットを使うかはマザーボードのマニュアルに記載されているので、必ず確認してほしい。

意外と知られていないのが、2の累乗でない容量でもデュアルチャネルは有効という点。24GB×2枚で48GB、48GB×2枚で96GBといった構成でもデュアルチャネルは問題なく動作する。大容量RAMが必要なAI用途では、この「非2の累乗」構成が容量と帯域幅を両立させる実用的な選択肢になる。当サイトの検証環境でも48GB×2枚の96GB構成を採用しており、大型モデルのCPUオフロード時にもメモリ帯域が確保されている。

ノートPCの場合、メモリがオンボード(基板に直付け)で増設不可のモデルが増えている。購入後にRAMを追加できないため、注文時に必要な容量を選んでおくこと。AI用途を見据えるなら最低でも32GB構成を選びたい。

メモリ選びで失敗しないための注意点

実際にメモリを購入・取り付ける際に、初心者がつまずきやすいポイントをまとめておく。

マザーボードのQVL(互換リスト)を確認する。 QVL(Qualified Vendor List)とは、マザーボードメーカーが動作確認済みのメモリ製品をリストアップしたもの。特にDDR5は初期に相性問題が多かった経緯があり、QVLに載っている製品を選ぶのが安全。マザーボードメーカーの公式サイトで、型番ごとのQVLを確認できる。

XMP / EXPOプロファイルの有効化を忘れない。 DDR5メモリは、購入時のパッケージに記載されている速度(たとえばDDR5-6000など)で自動的に動作するわけではない。多くの場合、デフォルトではJEDEC(業界標準規格)の定格速度で動作しており、メーカーの想定速度を引き出すにはBIOS画面でXMP(Intel環境)またはEXPO(AMD環境)プロファイルを有効にする必要がある。具体的な操作手順はマザーボードのマニュアルを参照してほしい。

「とりあえず1枚だけ買って後から追加」は避ける。 前述のデュアルチャネルを活かすためには、最初から2枚セットで購入するのが合理的。後から別のメモリを追加すると、ロット違いによる微妙な特性差でデュアルチャネルが不安定になるリスクがある。同じ製品でも製造時期が異なればチップが変わることがあるため、2枚組パッケージ(いわゆるキット品)を選ぶのが確実。

ヒートシンクの高さにも注意。 大型のCPUクーラーを使っている場合、背の高いヒートシンク付きメモリと干渉する可能性がある。特にDDR5のハイクロックモデルは放熱のために大きなヒートシンクを搭載していることが多い。CPUクーラーとメモリの物理的な干渉は、購入前にサイズを確認すれば防げるトラブル。

まとめ

AI用途のメモリ選びで押さえるべきポイントを整理する。

容量の目安:
– APIベースのAIツール中心なら16〜32GB
– ローカルLLM(小〜中型モデル)を試すなら32〜64GB
– 大型モデルやCPUオフロードを多用するなら64GB以上

規格: 新規購入ならDDR5一択。DDR4は既存環境の増設用

構成: 同容量2枚組のデュアルチャネルが必須。1枚挿しは帯域が半減する

GPU選びでVRAMを重視するのと同じように、RAMの容量と構成もAI体験の質を左右する。まずは自分がやりたいAI用途を明確にし、上のガイドライン表で必要な容量を確認するところから始めてみてほしい。

よくある質問(FAQ)

Q: RAMを増やせばVRAMの代わりになりますか?

A: 部分的には代替できるが、速度の低下は避けられない。VRAMに載りきらないモデルデータをRAMに展開する「CPUオフロード」は可能だが、RAM上の処理はVRAM上と比べて大幅に遅くなる。快適にローカルLLMを使うなら、まずはVRAMに収まるサイズのモデルを選ぶのが先決。RAMの増設はあくまで補助的な手段と考えてほしい。

Q: DDR4のPCでもローカルAIは動きますか?

A: 動く。ローカルLLMの動作において、ボトルネックになりやすいのはRAMの規格(DDR4かDDR5か)よりも、VRAMの容量とRAMの容量。DDR4環境でもVRAMが十分なGPUを搭載し、RAMが32GB以上あれば、多くのローカルAIツールは問題なく動作する。DDR5への乗り換えは、マザーボードとCPUも同時に交換する必要があるため、コスト面で無理にDDR5化する必要はない。

Q: メモリのクロック速度はAI用途でどれくらい重要ですか?

A: 優先順位としては「容量 > デュアルチャネル構成 > クロック速度」の順番。クロック速度の差(たとえばDDR5-4800とDDR5-6000の違い)がAI推論速度に与える影響は、容量不足やシングルチャネル構成と比べるとかなり小さい。まずは十分な容量をデュアルチャネルで確保したうえで、予算に余裕があればクロック速度の高いモデルを検討する、という順序で問題ない。

当サイトはAmazonアソシエイト・プログラムの参加者です。Amazonのアソシエイトとして、当サイトは適格販売により収入を得ています。

本記事は AIハードウェア図鑑 編集部 が記載時点の情報をもとに執筆。製品アップデートや第三者ベンチマーク・価格・対応ランタイム等の変動で評価が変わる可能性がある。一定期間経過した内容は再検証を推奨する。

タイトルとURLをコピーしました