DDR5-6000の16GB×2枚組が49,980円——昨年12月以来、実に14週ぶりの5万円割れとなった。「メモリなんてどれも同じ」と思っている人もいるかもしれないが、AI用途ではその認識が命取りになる。ローカルLLMを動かすとき、GPUのVRAMに載りきらないデータはシステムメモリ(RAM)に退避される。このとき、メモリの容量と速度が推論パフォーマンスを直接左右するからだ。
2026年4月、DDR5の価格は明確な下落トレンドにある。AI用PCを組むなら、メモリの買い時を見極めることがトータルコストの最適化に直結する。この記事では、最新の秋葉原店頭価格をもとに、AI用途別の必要容量と規格の選び方を整理した。
- DDR5-6000 16GB×2枚組が14週ぶりに49,980円まで下落(2026年4月4日時点、AKIBA PC Hotline!調べ)
- ローカルLLMにはRAM 32GB以上、画像生成+LLM併用なら64GB以上が目安
- DDR4環境でもClaude CodeやCopilotなどAPI型AIツールは快適に動作する
DDR5・DDR4メモリの最新価格動向【2026年4月前半】
AKIBA PC Hotline!の相場調査(調査日:2026年3月28日〜4月4日)によると、DDR5メモリは中〜高速グレードを中心に値下がりが目立つ。一方でDDR4も一部で特売が入り、旧環境のメモリ増設を検討している人には追い風が吹いている状況だ。
AI用PCの構築・アップグレードを考えているなら、この価格動向を押さえておいて損はない。
DDR5の注目価格(6000/5600/4800の動き)
もっとも見ておきたいのはDDR5-6000 16GB×2枚組の動きだ。CFD販売製品が820円安の49,980円で特売され、14週ぶりに5万円のラインを割り込んだ。DDR5-6000はIntel・AMD両プラットフォームでスイートスポットとされる速度グレードで、この価格帯での入手は大きな意味を持つ。
他のグレードはやや異なる動きを見せている。DDR5-4800 16GB×2枚組は大幅特価の終了により4,820円高の54,800円(TWSC)に反発。DDR5-5600 16GB×2枚組も1,000円高の59,980円(Apacer)へ上昇した。皮肉なことに、DDR5-6000がもっとも安い16GB×2枚組という逆転現象が起きている。
32GB×2枚組も確認しておこう。DDR5-5600が3月28日時点で97,980円(Kowin)の特売を記録し、4月4日には99,800円に戻ったものの、DDR5-4800/5600/6000/6400の32GB×2枚組がすべて99,800円で横並びという状態。容量単価で見れば、32GB×2枚組は64GB分を約10万円で確保できる計算になった。
24GB×2枚組のDDR5-5600も6,000円安の79,800円(Crucial)と値下がり。合計48GBという中間的な容量が8万円を切ったのは、後述するAI用途の「32GBでは足りないが64GBまでは要らない」層にとって検討に値する選択肢だ。
なお、次世代規格のCUDIMMも秋葉原に並び始めている。DDR5-8800 24GB×2枚組が87,980円、DDR5-8400 24GB×2枚組が86,980円と、価格は安定しているが在庫を扱うショップはまだ2店舗のみ。AI用途でCUDIMMの帯域幅が実際に効くかどうかの検証データは現時点では少なく、コストパフォーマンスを重視するなら従来のDDR5 DIMMで十分だろう。
DDR4とSO-DIMMの価格動向
DDR4も押さえておきたい動きがあった。DDR4-3200 32GB×2枚組が3月28日に59,980円(Kowin)で特売され、昨年12月以来の6万円割れを記録。ただし4月4日時点では69,300円(SanMax)に戻っており、特売タイミングでなければ7万円前後が実勢価格となる。
DDR4-3200 16GB×2枚組は4,520円高の34,320円(SanMax)に上昇した一方、DDR4-2666は16GB×2枚組が4,380円安の28,600円、8GB×2枚組が2,900円安の14,080円(いずれもSanMax)に下落。旧世代の在庫整理が進んでいる印象を受ける。
ノートPC向けのSO-DIMMはどうか。DDR4-3200 32GB×2枚組が4,000円安の69,980円(Corsair)と値下がりした反面、DDR5-5600 SO-DIMM 32GB×2枚組は8,500円高の119,780円(Crucial)に跳ね上がっている。ノートPCのメモリ増設を考えている人にとって、DDR5 SO-DIMMは割高感が強い。デスクトップ向けDDR5 DIMMの32GB×2枚組が99,800円であることを考えると、2万円近い価格差がある。
64GB×2枚組のSO-DIMMに至っては44,000円高の278,000円(Crucial)と大幅上昇。在庫ショップ数の減少による影響が大きく、ノートPCで128GBメモリ環境を構築するのは現実的とは言いがたい。
AI用途で本当に必要なメモリ容量はどれくらいか
「メモリは多いほどいい」——原則としてはその通りだが、用途によって”足切りライン”は大きく異なる。ここでは、AI用途を3つのカテゴリに分けて必要なRAM容量を整理した。
ローカルLLM(Ollama・llama.cpp)に必要なRAM
ローカルLLMを動かす場合、GPU上のVRAMとシステムRAMの両方がモデルの格納に使われる。VRAMに載りきらない部分はRAMにオフロードされるため、システムメモリの容量が推論速度に直結するケースは多い。
当サイトの検証環境(i7-14700F / 96GB RAM)でRTX 5060 Tiを使った実測では、8Bクラスのモデル(llama3.1:8bなど)でVRAM使用量が5.3GB、79.6 tokens/secを記録している。この規模ならVRAM 16GB内に収まるためRAMへのオフロードは発生しないが、問題はより大きなモデルを扱うときだ。
同環境でgemma4:26bを動かすとVRAM使用量は14.3GBに達し、37.0 tokens/secまで低下した。さらにqwen3.5:35b-a3bではVRAM 14.5GBを消費している。VRAM 16GBのGPUでは、26B〜35Bクラスのモデルを動かすとVRAMはほぼ上限。モデルの一部がRAMにオフロードされる状況では、RAMの容量不足がボトルネックになる。
以下の表で、モデルサイズごとの目安を整理した。
| モデルサイズ | 最低RAM | 推奨RAM | 補足 |
|---|---|---|---|
| 7B〜8Bクラス | 16GB | 32GB | VRAM 12GB以上のGPUならRAM負荷は小さい |
| 12B〜14Bクラス | 32GB | 32GB | OS・他アプリ分を考慮すると32GBは必須 |
| 26B〜35Bクラス | 32GB | 64GB | VRAMオフロード発生時にRAM速度も影響する |
| 70Bクラス以上 | 64GB | 96GB以上 | 量子化必須。デュアルGPU構成も要検討 |
ポイントは、OSやブラウザなど他のアプリケーションも常にRAMを消費しているという事実。Windows環境では起動直後でも4〜6GBのRAMが使われており、ブラウザでタブを開けばさらに数GBが追加される。「モデルに必要なRAM+8GB」くらいの余裕を持たせたい。
画像生成・API型ツールに必要なRAM
Stable DiffusionやComfyUIでの画像生成は、処理の大部分がGPU(VRAM)で完結する。システムRAMの役割は、モデルの読み込みバッファや画像データの一時保持が中心だ。最低16GB、快適に使うなら32GBあれば困ることはない。
VRAMについては別記事で詳しく解説しているが、SDXL系なら12GB以上、Flux系なら16GB以上が推奨となる。メモリ容量よりもGPUのVRAM容量がボトルネックになるのが画像生成の特徴だ。
一方、Claude Code、GitHub Copilot、ChatGPTなどのAPI型AIツールはまったく事情が異なる。これらはクラウド上のサーバーで推論処理を行い、手元のPCは入出力の端末として機能するだけ。GPUは不要で、CPU・RAM・SSD速度が体感に影響するパラメータとなる。
API型ツール中心の使い方なら、RAM 16GBで十分快適に動作する。DDR4環境のPCでも問題ない。「AIを使いたい=大容量メモリが必須」ではないという点は、予算を抑えたい人にとって押さえておくべき事実だろう。
| AI用途 | 最低RAM | 推奨RAM | メモリ規格の影響 |
|---|---|---|---|
| API型ツール(Claude Code、Copilot等) | 8GB | 16GB | 小さい(DDR4でも可) |
| 画像生成(ComfyUI、SD系) | 16GB | 32GB | 中程度(VRAM優先) |
| ローカルLLM(7B〜14B) | 16GB | 32GB | 中〜大(オフロード時に影響) |
| ローカルLLM(26B以上) | 32GB | 64GB〜96GB | 大きい(帯域幅が速度に直結) |
| 画像生成+LLM併用 | 32GB | 64GB以上 | 大きい(同時実行でRAM競合) |
DDR5とDDR4、AI用PCにはどちらを選ぶべきか
結論から言えば、新規にAI用PCを組むならDDR5一択。ただし既存のDDR4環境を使い続けるのが「間違い」かというと、用途次第ではそうとも限らない。
帯域幅とAI推論速度の関係
DDR5とDDR4の最大の違いはメモリ帯域幅にある。DDR5-6000のデュアルチャネル構成では理論帯域幅が約96GB/s。対してDDR4-3200は約51.2GB/s。約1.9倍の差が存在する。
この帯域幅の差が顕著に効くのは、llama.cppのCPU推論やGPU-CPUハイブリッド推論(一部レイヤーをCPUにオフロードする構成)を使うときだ。CPUがモデルの重みをメモリから読み出す速度がそのまま推論のスループットに反映されるため、メモリ帯域幅が広いDDR5-6000は明確に有利になる。
逆に、モデルが完全にGPU上のVRAMに収まっている場合はどうか。推論処理はGPU内部で完結するため、システムメモリの速度はほとんど影響しない。当サイトの検証環境でRTX 5060 Tiにphi4-mini:3.8b(VRAM使用量3.5GB)を載せた場合、136.5 tokens/secを記録しているが、この速度はRAM規格を変えても大きく変わらないだろう。ボトルネックがGPU側にあるからだ。
つまり、VRAM内にモデルが収まる構成ならDDR5の速度優位は限定的、VRAMからあふれてCPUオフロードが発生する構成ではDDR5の帯域幅が効くという切り分けになる。
海外の自作PCコミュニティでも、DDR5-6000は事実上の標準グレードとして定着しつつある。Ryzen 7 7000シリーズ以降の構成例や複数メーカーのハイエンドBTO機で DDR5-6000 32GB(16GB×2)前後が採用されるケースが増えており、ゲーミング用途だけでなくAI用途に転用する場合もこの速度グレードが出発点として適切だ。
DDR4環境を活かす判断基準
「DDR4のPCを使っているが、AIのためにDDR5に乗り換えるべきか?」——この疑問への答えは、何をやりたいかで決まる。
DDR4環境のままでいいケースはこうだ。Claude Code、GitHub Copilot、ChatGPT、Geminiなどのクラウド型AIツールが主な用途で、ローカルLLMには手を出さない。この場合、メモリ規格の差はほぼ体感できない。RAM 16GBあれば十分で、DDR4-3200の帯域幅で何の不都合もない。
DDR5への移行を検討すべきケースはこちら。ローカルLLMで14B以上のモデルを使いたい、または画像生成とLLMを同時に走らせたい。DDR4環境でもOllama自体は動くが、VRAMオフロードが発生するサイズのモデルではメモリ帯域がボトルネックになりやすい。加えて、DDR4プラットフォームでも4スロットで最大128GB(32GB×4)までの拡張自体は一般的に可能だが、DDR5+最新マザー・CPUの組み合わせのほうが96GB超の大容量構成を安価に組みやすく、メモリ帯域幅の差も含めて長期運用では有利になりやすい。
もうひとつ考慮すべきは、DDR4メモリの将来性だ。2026年4月時点で、DDR4-3200 16GB×2枚組は34,320円。DDR5-6000 16GB×2枚組の49,980円と比べれば約1.5万円安い。しかしDDR4の生産は縮小傾向にあり、大容量製品(32GB×2枚組)は特売以外では7万円前後と、DDR5の99,800円との差が縮まってきている。今からDDR4に投資するのは、短期的なコスト削減にはなるが長期的には行き止まりの選択と言える。
予算別おすすめメモリ構成とAI対応度
ここまでの情報を踏まえ、2026年4月の実勢価格に基づいた3つの構成パターンを提示する。どの予算帯でどんなAI用途に対応できるか、具体的に見ていこう。
予算別メモリ構成比較表
| 構成 | 規格・容量 | 参考価格(税込) | 対応するAI用途 | 動作するAIツールの例 |
|---|---|---|---|---|
| エントリー | DDR5-4800 16GB×2(32GB) | 約55,000円 | API型ツール全般、7B〜8BローカルLLM | Claude Code、Copilot、Ollama(8Bモデル) |
| スタンダード | DDR5-6000 16GB×2(32GB) | 約50,000円 | ローカルLLM(14Bまで快適)、画像生成 | Ollama(14Bモデル)、ComfyUI、Stable Diffusion |
| ヘビー | DDR5-5600 32GB×2(64GB) | 約100,000円 | 26B以上のLLM、画像生成+LLM併用 | Ollama(26B〜35Bモデル)、ComfyUI+LLM同時実行 |
見ておきたいのは、スタンダード構成のDDR5-6000 16GB×2枚組が約50,000円でエントリー構成のDDR5-4800より安いという価格逆転だ。2026年4月時点では、DDR5-4800をあえて選ぶ理由がほとんどない。32GBの予算が5万円あるなら、迷わずDDR5-6000を選ぶべきだろう。
ヘビー構成の64GBは約10万円。高額に感じるかもしれないが、26B以上のモデルをローカルで動かしたいなら避けて通れない投資となる。当サイトの検証環境でもRAMは96GBを搭載しており、gemma4:26b(VRAM 14.3GB使用)やqwen3.5:35b-a3b(VRAM 14.5GB使用)といった大型モデルの検証時に余裕あるRAM容量が安定動作に寄与している。
DDR5-5600の24GB×2枚組(合計48GB)が79,800円(Crucial)という選択肢も浮上している。64GBまでは要らないが32GBでは心許ない——そんなケースにフィットする中間的な容量だ。特にVRAM 16GBのGPUと組み合わせて14B〜26Bクラスのモデルを扱うなら、48GBは合理的なラインと言える。
実際の自作構成でも、DDR5-6000 32GBの組み合わせは定番化しつつある。海外コミュニティではRyzen 7 7800X3DとCorsair Vengeance DDR5-6000 16GB×2枚組のセットが頻繁に採用されており、ゲーミングからAI用途への転用も視野に入れた構成として支持されている。
この価格で狙うべきタイミング
メモリ価格は週単位で変動するため、「今が底値か」を断言するのは難しい。ただし、いくつかの判断材料はある。
まず、DDR5-6000 16GB×2枚組の5万円割れは14週ぶりの水準だったという事実。前回5万円を割ったのは2025年12月27日で、その後は5万円台を推移していた。つまり5万円はひとつの「底値圏」と見てよい。
DDR5-5600/4800が逆に値上がりしている点も注目に値する。特定グレードへの需要集中や在庫の偏りが価格を動かしており、「待てば待つほど安くなる」とは限らない状況だ。
GPU選びとの兼ね合いも考えたい。たとえばRTX 5060 Ti 16GB(約90,000円)とDDR5-6000 32GB(約50,000円)の組み合わせなら、GPU+メモリで約14万円。この構成で14Bクラスまでのローカルe LLMが快適に動くなら、AI入門の投資としては妥当なラインだ。NVIDIAのRTX Neural Texture CompressionのようなVRAM効率を高める新技術も登場しており、GPU側のVRAM活用効率が上がれば、システムRAMへのオフロード頻度はさらに下がっていくだろう。
電源容量についても一言触れておきたい。AI用途でGPUに高負荷をかける場合、電源ユニットの容量不足は深刻なトラブルの原因となる。RTX 5060 Tiなら750W、RTX 5070以上なら850W以上の電源を確保しておくのが安全だ。メモリの予算を確保するために電源をケチると、GPU負荷時にPCが落ちるリスクが出てくる。パーツ選びは全体のバランスで考えるべきだろう。
当サイトはAmazonアソシエイト・プログラムの参加者です。Amazonのアソシエイトとして、当サイトは適格販売により収入を得ています。
まとめ:AI用途別・メモリ選びの最終判断
ここまでの内容を、読者の状況別に整理しておこう。メモリは「とりあえず多ければいい」というパーツではない。AI用途の種類によって、必要な容量も最適な規格も異なるからだ。
以下の表で、自分がどのパターンに当てはまるか確認してほしい。
| あなたの用途 | 推奨メモリ構成 | 2026年4月の参考価格 | 選定の根拠 |
|---|---|---|---|
| ChatGPT・Claude・Copilotなど APIベースのAIツールのみ |
DDR5-4800以上 16GB×2(32GB) |
約25,000〜30,000円 | GPU推論を使わないためメモリ帯域は不問。容量32GBあればブラウザ+IDE+AIツールの同時起動でも余裕がある |
| Ollamaで7B〜8Bモデルを動かす ローカルLLM入門 |
DDR5-6000 16GB×2(32GB) |
約49,980円 | GPUのVRAMに収まるモデルならシステムRAMへの負荷は小さい。ただし32GBは最低ライン。OS+アプリの消費分を考慮すると余裕は多くない |
| 14B〜26BクラスのLLMを常用 画像生成との併用もある |
DDR5-5600以上 32GB×2(64GB) |
約97,980〜99,800円 | 大型モデルではVRAMからあふれたデータがシステムRAMにオフロードされる。64GBあれば推論中にブラウザやエディタを開いても速度低下を抑えられる |
| 70B以上のモデルを試したい 複数モデルの同時ロードが必要 |
DDR5-5600以上 48GB×2(96GB) |
約160,000〜180,000円(推定) | 当サイトの検証環境もRAM 96GBで構築している。70Bクラスの量子化モデルを動かす場合、GPUオフロード+大量のRAM消費が発生するため96GBが実用ライン |
| DDR4環境を使い続けたい 新規にPC組み替えの予定なし |
DDR4-3200 32GB×2(64GB) |
約59,980〜69,300円 | DDR4でもGPU推論メインならボトルネックになりにくい。APIベースのAIツールは問題なく動作する。CPU推論を多用するなら帯域幅の限界に注意 |
この表を見て「自分は32GBで足りるのか、64GB必要なのか」と迷う人は多いはず。判断基準はシンプルで、VRAMに収まるモデルしか使わないなら32GB、VRAMからあふれるモデルも使いたいなら64GB以上という線引きになる。
当サイトの検証環境(i7-14700F / RAM 96GB)では、RTX 5060 Tiの16GB VRAMにgemma4:26bをロードした際、VRAM使用量は14.3GBだった。このケースではモデルがほぼVRAM内に収まっているため、システムRAMの消費は比較的軽い。一方、これより大きいモデルを動かそうとすると、VRAMに入りきらない部分がシステムRAMに展開され、推論速度も大幅に低下する。
つまり、「どのサイズのモデルを使うか」が先にあり、メモリ容量はそこから逆算して決めるもの。GPUのVRAM容量と合わせて考えることで、無駄のないメモリ投資ができる。
DDR4環境のユーザーに向けて補足しておくと、DDR4からDDR5への移行はメモリ単体の交換では済まない。マザーボードとCPUもDDR5対応品に買い替える必要があるため、実質的にはPC全体の組み替えとなる。現在DDR4環境でGPU推論メインのAIワークロードを動かしているなら、メモリ帯域がボトルネックになる場面は限定的。無理にDDR5へ移行するよりも、GPUのアップグレードに予算を回すほうが体感速度の向上につながるケースもある。
ただし、llama.cppのCPUモードなどメモリ帯域に依存するワークロードを頻繁に使うなら、DDR5への移行メリットは大きい。DDR5-6000のメモリ帯域はDDR4-3200の約1.9倍に達し、CPU推論速度にダイレクトに効いてくるからだ。
最後に、メモリの買い時について。DDR5の価格は2025年後半から下落傾向が続いており、2026年4月のDDR5-6000 16GB×2枚組 49,980円は過去14週間の底値圏にある。NAND/DRAMの市況は3〜6ヶ月サイクルで変動するため、「もう少し待てばさらに安くなる」という期待で購入を先送りにするのは得策ではない。必要なタイミングで、自分の用途に合った容量を買う。それがメモリ選びの鉄則だろう。
よくある質問(FAQ)
Q1: DDR5-6000とDDR5-4800で、AI用途の体感差はどの程度あるか?
GPU推論がメインなら、体感差はほぼゼロ。OllamaやComfyUIのようなGPU依存のAIツールでは、推論データの大半がGPUのVRAM上で処理される。システムメモリの帯域幅が処理速度を左右する場面は少ないため、DDR5-4800でもDDR5-6000でも推論速度に目立った違いは出ない。
差が出るのは、CPU推論を使う場合。llama.cppでCPUオフロードを多用する構成や、GPUのVRAMに収まらない大型モデルをシステムRAMに展開して推論するケースでは、メモリ帯域が推論速度のボトルネックになる。DDR5-6000の理論帯域幅は96GB/s(デュアルチャネル時)で、DDR5-4800の76.8GB/sと比べて約25%の差がある。CPU推論のtokens/secにこの差がそのまま反映されるわけではないが、大型モデルのCPU推論で数%〜10%程度の速度差が出るケースは報告されている。
結論として、GPU推論メインなら安いDDR5-4800で十分。CPU推論も視野に入れるなら、差額数千円でDDR5-6000を選んでおくのが合理的な判断だ。
Q2: メモリ32GBと64GB、AI用途ではどちらを選ぶべきか?
使いたいモデルのサイズとGPUのVRAM容量で決まる。
当サイトの検証環境で実測したデータを見ると、RTX 5060 Ti(VRAM 16GB)でqwen3.5:9bを動かした場合、VRAM使用量は7.7GBだった。このクラスのモデルならシステムRAM 32GBでも快適に動作する。一方、gemma4:26bではVRAM使用量が14.3GBとほぼVRAMの上限に迫っており、他のアプリケーションと同時に使うならシステムRAMに余裕がほしい。
以下の基準で判断するのが分かりやすい。
- 32GBで足りるケース: 8B〜14Bクラスのモデルを1つずつ使う。画像生成はしない。AIツール使用中にブラウザタブを10個以上開かない
- 64GBが必要なケース: 26B以上のモデルを使う。画像生成とLLMを同時に走らせる。開発環境(Docker、IDE、ブラウザ)を立ち上げたままAIを使う
- 96GBが必要なケース: 70Bクラスの量子化モデルを試す。複数のAIモデルを同時にロードしたい
迷ったら64GBを勧める。32GBは2026年時点で「ギリギリ足りる」ラインであり、モデルサイズのインフレ傾向を考えると1年後には不足感が出てくる可能性が高い。DDR5-5600 32GB×2が約10万円という現在の価格は、長期的に見れば妥当な投資だろう。
Q3: DDR4のPCでもローカルAIは動くか?
動く。ただし条件がある。
DDR4環境でもGPUにNVIDIA製のVRAM 8GB以上のカードを搭載していれば、Ollamaで7B〜8Bクラスのモデルは問題なく推論できる。GPU推論ではモデルのデータがVRAM上に展開されるため、システムメモリの規格がDDR4であっても推論速度に大きな影響は出ない。
ローカルLLMについて詳しく知りたい方は、別記事の「ローカルLLMとは?自分のPCでAIを動かす仕組み・必要スペック・始め方をわかりやすく解説」で基礎から解説している。
API経由のAIツールであれば、DDR4環境でも全く問題ない。Claude Code、GitHub Copilot、ChatGPTのWeb版などは、推論処理がクラウド側で行われるため、手元のPCに求められるのはブラウザやIDEを快適に動かせるスペックだけ。DDR4-3200 16GBもあれば十分だ。
制約が出るのは以下の場面。
- CPU推論を使う場合: DDR4-3200の帯域幅は51.2GB/s(デュアルチャネル)。DDR5-6000の96GB/sと比べると約半分しかなく、CPU推論のtokens/secに差がつく
- VRAMに収まらない大型モデルを動かす場合: GPUのVRAMからあふれたデータがシステムRAMにオフロードされるが、DDR4の帯域幅ではデータ転送がボトルネックとなり、推論速度が大幅に低下する
- 画像生成+LLMの同時実行: システムRAMの総容量が32GB未満だと、メモリ不足でプロセスが強制終了される可能性がある
つまり、DDR4環境のままでもAIは使える。ただし「GPUのVRAMに収まるサイズのモデルを使う」という前提条件つきだ。VRAMから溢れるモデルや、CPU推論に頼る使い方をするなら、DDR5環境への移行を検討するタイミングと言える。
現在DDR4のPCを使っていて、ローカルAIに興味があるなら、まずはGPUの増設・交換から始めるのが最もコストパフォーマンスの高いアプローチ。メモリを含むプラットフォーム全体の刷新は、CPUの買い替えタイミングに合わせるのが合理的だろう。
当サイトはAmazonアソシエイト・プログラムの参加者です。Amazonのアソシエイトとして、当サイトは適格販売により収入を得ています。
おすすめパーツ 価格まとめ
| 製品名 | カテゴリ | スペック | 参考価格 |
|---|---|---|---|
| RTX 5070 | GPU・グラフィックボード | NVIDIA GeForce RTX 5070 12GB GDDR7 | ¥105,000〜 |
| RX 9070 | GPU・グラフィックボード | AMD Radeon RX 9070 16GB GDDR6 | ¥90,000〜 |
本記事は AIハードウェア図鑑 編集部 が記載時点の情報をもとに執筆。製品アップデートや第三者ベンチマーク・価格・対応ランタイム等の変動で評価が変わる可能性がある。一定期間経過した内容は再検証を推奨する。

