「ローカルLLMのモデルファイルをダウンロードしたら、SSDの空き容量が一気になくなった」——AI用途でPCを使い始めると、最初にぶつかるのがストレージの問題だった。AIモデルのファイルは1つで数GB、大型モデルなら数十GBに達する。Officeやブラウジング中心の使い方とは、SSDに求められる条件が根本的に違う。
GPU選びやVRAMの話題に比べると、SSDは地味な存在かもしれない。しかし容量が足りなければモデルを保存できず、速度が遅ければモデルの読み込みに毎回待たされることになる。AI用途に特化したSSDの選び方を、容量・速度・規格の3つの軸で整理した。
- SSDはAIモデルの保存と読み込み速度を左右する重要パーツで、NVMe Gen4が現在のコスパ最適解
- ローカルLLMなら1TB以上、画像・動画生成なら2TB以上が容量の目安
- OS用とモデル保存用でSSDを2枚に分ける構成が、管理面・速度面で有利
なぜAI用途ではSSD選びが重要なのか
一般的なPC用途——たとえばWebブラウジングやOffice作業——では、SSDの容量は256GBや512GBで十分足りるケースが多い。読み込み速度も、OSの起動やアプリの立ち上げが快適であれば不満は出にくいもの。
ところがAI用途では、ストレージへの要求が一変する。
最も大きな違いはモデルファイルのサイズ。ローカルLLM(自分のPC上で動かす大規模言語モデル)で使うモデルファイルは、7Bパラメータクラスで数GB、70Bクラスになると数十GBに膨らむ。量子化(モデルの精度を落としてファイルサイズを圧縮する手法)を適用しても、1ファイルあたり数GBは覚悟が必要になる。複数のモデルを試したいなら、あっという間に数十GB〜100GB単位の容量を消費する計算。
画像生成や動画生成の場合はさらに事情が複雑で、モデルファイルに加えて生成した画像・動画ファイルが蓄積されていく。高解像度の画像を何百枚も生成すれば、出力データだけで数十GBに達することも珍しくない。
もう一つの重要な観点が読み込み速度。ローカルでAIモデルを実行する際、最初にモデルファイルをストレージからRAM(メインメモリ)やVRAM(GPU専用メモリ)に読み込む工程がある。このモデルロードにかかる時間は、SSDの読み込み速度に直結する。HDD(ハードディスクドライブ)では数十秒〜数分かかるロードが、高速なNVMe SSDなら大幅に短縮できるという構造。
さらに、VRAM容量が不足した場合にモデルの一部をSSDにスワップ(退避)させる手法もあり、この場合はSSDの速度が推論速度そのものに影響を与える。SSDは単なる「保存場所」ではなく、AI体験の快適さを左右するパーツだと認識しておきたい。
SSDの基礎知識——NVMe・SATA・Gen3/Gen4/Gen5の違い
SSD選びで最初に理解すべきなのが、接続規格の違い。大きく分けてSATA SSDとNVMe SSDの2種類が存在する。
SATA SSDは、従来のHDDと同じSATAインターフェースで接続するタイプ。2.5インチの筐体に収まったものが一般的で、転送速度の理論上限はおおよそ550〜600MB/s程度。HDDと比べれば圧倒的に速いが、AI用途では力不足になる場面が出てくる。
NVMe(Non-Volatile Memory Express)SSDは、PCIeバスに直接接続することで、SATAの何倍もの帯域幅を実現した規格。物理的にはM.2スロット(マザーボード上の細長いコネクタ)に差し込む形状が主流になっている。
NVMe SSDはさらに、PCIeの世代によって速度が異なる。
| PCIe世代 | シーケンシャルリード理論値 | AI用途での位置づけ |
|---|---|---|
| Gen3 | 最大約3,500MB/s | 実用上は十分だが、大容量モデルのロードで差が出る |
| Gen4 | 最大約7,000MB/s | コスパと速度のバランスが最も良い。2026年時点の主流 |
| Gen5 | 最大約14,000MB/s | 速度は圧倒的だが価格が高く、発熱も大きい。コスパ重視なら不要 |
Gen4はGen3の約2倍の帯域を持ち、価格もこなれてきている。Gen5は理論値では圧倒的だが、価格が高く発熱対策も必要になるため、一般的なAI用途ではオーバースペックになりやすい。
結論として、AI用途のSSD選びではNVMe Gen4がコスパの最適解。SATA SSDしか空きスロットがないPCの場合は、M.2スロットの増設やPC自体の見直しを検討する価値がある。
AI用途別に必要なSSD容量の目安
「で、結局何TBのSSDを買えばいいのか?」——これが最も知りたいポイントだろう。答えはAIの使い方によって大きく変わるため、用途を3段階に分けて整理した。
APIベースのAIツール利用
ChatGPT、Claude、GitHub Copilot、Claude Codeなど、クラウド上のAIをAPI経由で利用するスタイル。この場合、AI処理自体はサーバー側で行われるため、手元のPCには大きなモデルファイルを保存する必要がない。OS、開発環境、プロジェクトファイルが収まれば十分なので、SSD容量への要求は控えめ。
ローカルLLMの実行
OllamaやLM Studioを使って、自分のPC上で言語モデルを動かすケース。ここからSSDの容量が一気に重要になる。
モデルファイルのサイズは、パラメータ数と量子化方式によって大きく変動する。一般的な目安として、7B〜8Bクラスの量子化モデルで3〜5GB程度、14Bクラスで7〜10GB程度、70Bクラスの量子化モデルでは30〜40GB程度を見込んでおく必要がある。ただしこれはあくまで概算で、量子化の手法(Q4、Q5、Q8など)によって上下するため、実際のサイズは各モデルの配布ページで確認してほしい。
複数のモデルを切り替えて使いたい場合、5〜10個のモデルを手元に置くだけで100GBを超えることも珍しくない。
画像・動画生成
Stable DiffusionやComfyUIを使った画像生成、さらにAI動画生成まで手を広げると、ストレージへの負荷は最大になる。チェックポイントモデル(画像生成AIの学習済みモデル)は1つあたり数GBが標準で、LoRA(追加学習モデル)やVAE(画像のエンコード・デコードモデル)なども加わる。生成した画像・動画ファイルの蓄積も無視できない量に膨らんでいく。
以下が用途別の容量ガイドライン。
| AI用途 | 推奨SSD容量 | 動作するAIソフト・用途の目安 | 備考 |
|---|---|---|---|
| APIベースのAIツール | 512GB〜 | ChatGPT、Claude、Copilot、Claude Code等 | OSと開発環境が中心。容量の心配は少ない |
| ローカルLLM(軽量) | 1TB〜 | Ollamaで7B〜14Bクラスのモデルを数個保持 | モデルの入れ替え頻度が高いなら余裕を持って1TB |
| ローカルLLM(本格) | 2TB〜 | 70Bクラスの大型モデル、複数モデルの並行管理 | 量子化方式でサイズが大幅に変動する点に注意 |
| 画像・動画生成 | 2TB〜4TB | Stable Diffusion、ComfyUI、AI動画生成ツール | モデル+生成物の蓄積を考慮。外付けストレージとの併用も検討 |
ここで注意したいのが、上の容量はOS領域を含んだ数字ではないという点。Windowsの場合、OS自体で30〜50GB程度を占有し、アップデートやキャッシュでさらに膨らむ。SSD全体の容量から実際に使える領域は、カタログ値より1〜2割少なくなることを織り込んでおく必要がある。
SSDの速度がAI作業に与える影響
「容量はわかった。では速度はどれくらい気にすべきか?」という疑問が次に浮かぶはず。
SSDの速度がAI作業に最も影響するのは、モデルロードの工程。ローカルLLMを起動する際、モデルファイルをSSDからRAMやVRAMへ転送する必要がある。数GBのモデルなら体感差は小さいが、数十GBクラスの大型モデルでは、SATA SSDとNVMe Gen4 SSDでロード時間に明確な差が生じる。
もう一つ押さえておきたいのが、VRAM不足時のスワップ(オフロード)。VRAMに載りきらないモデルの一部をシステムRAMやSSD上に退避させて動作させる手法があり、この場合はSSDの読み書き速度が推論速度にダイレクトに反映される。SATA SSDでのオフロードは実用的とは言い難く、最低でもNVMe接続が望ましい。
SSDの速度指標には「シーケンシャルリード/ライト」と「ランダムリード/ライト」の2種類がある。シーケンシャルは大きなファイルを一括で読み書きする速度、ランダムは小さなファイルを多数読み書きする速度のこと。
AIモデルのロードは大容量ファイルの一括読み込みが中心なので、シーケンシャルリードが重要指標になる。一方、学習データセットの読み込みや細かいキャッシュファイルのアクセスでは、ランダムリードも影響してくる。どちらか一方だけを見れば良いわけではないが、優先度はシーケンシャルリードが上。
とはいえ、Gen4とGen5の速度差がモデルロード時間にどこまで体感差をもたらすかは、モデルサイズやシステム構成によって変わる。多くの場合、Gen4で十分実用的な速度が得られるため、速度だけのためにGen5を選ぶ必要性は高くない。
失敗しないSSD選びの実践チェックリスト
実際にSSDを購入する前に、以下の5つのポイントを確認しておくと失敗を防げる。
1. マザーボードのM.2スロット数と対応世代
デスクトップPCの場合、マザーボードによってM.2スロットの数(1〜3基程度)と対応するPCIe世代が異なる。Gen5対応スロットにGen4のSSDを差しても動作はするが、逆にGen3スロットにGen4 SSDを差すとGen3の速度に制限される。マザーボードの仕様書で確認すべきポイント。
2. TBW(書き込み耐久性)
TBW(Total Bytes Written)は、SSDが寿命を迎えるまでに書き込める総データ量の目安。AI用途では画像の大量生成やモデルの頻繁なダウンロード・削除が発生するため、一般用途よりも書き込み頻度が高くなりやすい。同じ容量でもTBWの値は製品によって異なるため、仕様表で確認しておくと安心。
3. 発熱とヒートシンクの要否
NVMe SSD、特にGen4以上の高速モデルは発熱が大きい。温度が一定以上に達するとサーマルスロットリング(熱による速度低下)が発生し、せっかくの速度を活かせなくなる。マザーボードに付属のヒートシンクがあれば装着し、なければ別途ヒートシンクの購入を検討してほしい。
4. OS用とデータ用の2枚構成
可能であれば、OS・アプリケーション用のSSDと、AIモデル・生成データ用のSSDを物理的に分けるのがおすすめ。OSの動作がモデルの読み書きに干渉しにくくなり、管理面でも「モデル用SSDだけを大容量に換装する」といった柔軟な対応が可能になる。
5. ノートPCの場合のスロット制約
デスクトップと異なり、ノートPCはM.2スロットが1基しかない機種が大半。2枚構成が物理的にできない場合、最初から大容量(2TB以上)のSSDを選んでおくか、外付けストレージとの併用を前提にする必要がある。
まとめ
AI用途のSSD選びで押さえるべきポイントを改めて整理する。
接続規格はNVMe Gen4がコスパと速度のバランスに優れた選択肢。SATA SSDではモデルロードやスワップ時に速度がボトルネックになりやすい。Gen5は速いが、価格と発熱を考えると現時点ではGen4で十分だろう。
容量はAI用途によって大きく異なる。APIベースのツールだけなら512GBで足りるが、ローカルLLMを本格的に使うなら1TB以上、画像・動画生成まで手を広げるなら2TB以上が現実的なライン。デスクトップPCでM.2スロットに余裕があれば、OS用とモデル用で2枚に分ける構成を検討してみてほしい。
SSDはGPUやVRAMほど話題にならないが、AI用途では体験を左右する重要なパーツ。まず自分がやりたいAI用途を確認し、上のガイドライン表で必要な容量帯を照合するところから始めるのが確実な第一歩になる。
よくある質問(FAQ)
Q: HDDでもローカルAIは動きますか?
A: 動作自体は可能だが、モデルロード時間が極端に長くなるため実用的とは言い難い。HDDのシーケンシャルリード速度はおおよそ100〜200MB/s程度で、NVMe SSDの数十分の一。数GBのモデルファイルを読み込むだけで何十秒もかかり、大型モデルでは数分待たされることもある。AI用途ではSSDを強く推奨する。
Q: SSDは2枚必要ですか?
A: 必須ではない。1枚のSSDにOSとモデルデータをまとめても問題なく動作する。ただし2枚構成には利点がある。OSの動作とモデルの読み書きが物理的に分離されるため干渉しにくくなること、モデル用SSDだけを後から大容量に換装できる柔軟性があること、管理がシンプルになることの3点。M.2スロットに空きがあるなら検討する価値は十分にある。
Q: 外付けSSDにAIモデルを保存しても大丈夫ですか?
A: USB接続の外付けSSDは、転送帯域がボトルネックになりやすい。USB 3.2 Gen2でも理論値は約1,250MB/sで、内蔵NVMe Gen4の数分の一に留まる。モデルの保管場所としては使えるが、そこから直接ロードして推論を走らせるには速度不足を感じる場面が多い。Thunderbolt 4や5に対応した外付けケースであれば帯域に余裕があり、実用圏内に入ってくる。ただし対応機器の価格も上がるため、内蔵SSDの増設とどちらがコスパに優れるか比較して判断してほしい。
当サイトはAmazonアソシエイト・プログラムの参加者です。Amazonのアソシエイトとして、当サイトは適格販売により収入を得ています。
本記事は AIハードウェア図鑑 編集部 が記載時点の情報をもとに執筆。製品アップデートや第三者ベンチマーク・価格・対応ランタイム等の変動で評価が変わる可能性がある。一定期間経過した内容は再検証を推奨する。

