RTX 5080は16GB VRAMを搭載していますが、Ollamaのdefault量子化(Q4_K_M)で27B以上のモデルを動かそうとするとSKIPPED_VRAM判定で起動しません。当サイトの検証環境(RTX 5080 16GB / i7-14700F / RAM 96GB / Ollama 0.21.2 / NVIDIAドライバ 596.21、2026-04-29計測)では Qwen3.5 27B(Ollama: qwen3.5:27b)・Gemma 4 31B(Ollama: gemma4:31b)・Qwen3 32B(Ollama: qwen3:32b) の3モデルがロードできなかったのが現状。実用上限は14Bクラス(VRAM使用量11GB台)で、ここから先は量子化を落とすかGPUを換装するかの判断になります。検索流入の多い疑問を実測ベースで一気に整理しました。
- RTX 5080 16GBでqwen3.5:27b・Gemma 4 31B(Ollama: gemma4:31b)・qwen3:32bが動かないのはなぜ?
- RTX 5080で安定動作する最大モデルサイズはどれくらい?
- 公称14.8GBのGemma 4 27Bは本当にRTX 5080で動かないの?
- Q2やQ3量子化に落とせばRTX 5080で27Bは動く?
- RTX 5060 Ti 16GBや他の16GB GPUでも結果は同じ?
- RTX 5090(32GB)にアップグレードすべき?それとも5080維持?
- RTX 5080の主要仕様とSKIPPED境界の整理
- よくある質問
- まとめ:自分の常用モデルサイズで判断する
- おすすめパーツ 価格まとめ
RTX 5080 16GBでqwen3.5:27b・Gemma 4 31B(Ollama: gemma4:31b)・qwen3:32bが動かないのはなぜ?
3モデルともOllama default量子化(Q4_K_M)でモデル重量がRTX 5080の実効VRAM 15.9GBに収まらないからです。Ollama公式タグによると Qwen3.5 27B(Ollama: qwen3.5:27b) は17GB公称。RTX 5080の実効VRAMより1.1GBも超過しており、ロード時点で SKIPPED_VRAM 判定となります。
gemma4:31bは Dense型でパラメータ数自体が大きく、こちらも当サイト検証ではロード不可でした。qwen3:32bも同様です。compute-market.comの解説では Gemma 4 27B Q4 のモデル重量自体は約14.8GB に収まるとされていますが、ここに推論時のKVキャッシュ・アクティベーションバッファ・OS/ドライバが押さえる予約領域が加算されると、実運用では約16.5GBまで膨張するという指摘がある。当サイトの SKIPPED_VRAM 結果と整合します。
ポイントは「公称サイズが16GB以下に見えるモデルでも、実運用ではVRAMヘッドルームを使い切る」という事実。RTX 5080で27B級を扱うには、量子化を一段下げるか、より大容量のGPUへ移行するかの判断が必要となります。
RTX 5080で安定動作する最大モデルサイズはどれくらい?
実用上限は14Bクラスで、VRAM使用量は11GB台に収まります。当サイト検証環境(RTX 5080 16GB / i7-14700F / RAM 96GB、2026-04-29計測)の実測値は以下の通り。
| モデル | tokens/sec | VRAM使用量 | GPU温度 | 消費電力 |
|---|---|---|---|---|
| Phi-4 14B(Ollama: phi4:14b) | 88.0 | 11.4GB | 61.0°C | 309W |
| Qwen3 14B(Ollama: qwen3:14b) | 84.6 | 11.1GB | 61.0°C | 297W |
| Gemma 4 (8B)(Ollama: gemma4:latest) | 158.7 | 11.3GB | 55.0°C | 212W |
| Gemma 3 12B(Ollama: gemma3:12b) | 91.4 | 10.2GB | 54.0°C | 265W |
| Qwen3.5 9B(Ollama: qwen3.5:9b) | 113.1 | 9.5GB | 55.0°C | 249W |
14Bクラス3モデルが揃って11GB台に収まっているのが分かりますね。ヘッドルームは約4.5GB残っていますが、ここはコンテキスト拡張時のKVキャッシュで吸われていく領域。長文プロンプトを大量に投げる用途では、この余白が消費されることを見越してモデルを選ぶ必要があります。
9B以下の軽量モデルなら余裕がさらに広がり、qwen3.5:9bで9.5GB、phi4-mini:3.8bでは5.6GB程度。複数モデル同時起動やマルチタスクを想定するなら、軽量モデル中心の運用が現実的な選択肢になります。
当サイトの検証環境で生成したAI動画サンプルもあわせてご覧ください。
11.4GBで動く14Bクラスから、SKIPPEDになる17GB公称の27Bクラスまで、間に約5GBの「断崖」が存在します。中間サイズのモデルが少ない量子化スキームの構造的問題で、Q4_K_M縛りで運用する限りはこの段差を越えるのが難しい。
公称14.8GBのGemma 4 27Bは本当にRTX 5080で動かないの?
モデル重量だけ見れば乗りそうに見えますが、実運用では乗らないという回答になります。compute-market.comの実機検証記事ではGemma 4 27B Q4のサイズを約14.8GBと記述しており、「ギリギリ載るがコンテキスト確保なし」という条件付きの数値。実際にOllamaを介して読み込むと、KVキャッシュ用のバッファ確保、推論時のアクティベーションメモリ、CUDAコンテキストの予約領域が積み上がっていきます。
DeepMind公式ページによるとGemma 4ファミリーには 26B MoE と 31B Dense が存在し、本記事で扱う 27B 表記は MoE 系の概数(実数 26B)です。MoE構成は活性化パラメータ数こそ少ないものの、ロード時には全エキスパートをVRAMに展開する必要があり、Dense型と同等のVRAM要件になる。
当サイトの実測では SKIPPED_VRAM となっており、compute-market.comが指摘する「コンテキスト込みで約16.5GBに膨張」というラインを越えてしまったと考えられます。RTX 5080の実効VRAMは公称16GBから ドライバ・ディスプレイ出力・OS予約を差し引いた 15.9GB が上限。この0.6GB差が運命を分ける格好です。
Q2やQ3量子化に落とせばRTX 5080で27Bは動く?
ロード自体は可能になります。Ollamaでは多くのモデルにQ3_K_MやQ2_Kといった軽量量子化タグが用意されており、モデル重量を3〜5割削減できる構成。例えばGemma 4 27B Q4が約14.8GBなら、Q3に落とせば11GB前後、Q2なら8〜9GB程度まで縮む計算になります。
ただし量子化を一段下げるごとに、出力品質が目に見えて劣化する。具体的には日本語の語彙選択が単調になる、長文の論理整合性が崩れる、コード生成では構文ミスが増える、といった現象。Q4_K_Mが「品質と速度のバランス点」と呼ばれているのは、これより下げると体感品質が落ちるラインだから。
推論速度への影響は意外と小さく、量子化を下げても劇的に速くはならない。VRAM要件を下げる目的でQ3/Q2を選ぶ場面はあっても、速度を稼ぐためにQ3に落とすメリットはあまりありません。常用するならQ4_K_Mで動く14Bに留めるか、GPU換装を検討する方が現実的な選択になります。
代替路としてIntel Arc iGPUに最大93%のシステムメモリを割り当てるという選択肢も登場している。Wccftechの報道によると、Intelの最新HotFixドライバ(32.0.101.8517 – Q1.26 R2)でArc Pro Graphicsのメモリ割当上限が引き上げられた。32GB RAMの環境なら最大約30GB相当をiGPU側で扱える計算になり、「VRAMの壁」を別ルートで回避する手段として注目されています。ただし推論速度は専用GPUに大きく劣るため、速度より大規模モデルを動かすこと自体が目的の場合に限られる選択肢でしょう。
RTX 5060 Ti 16GBや他の16GB GPUでも結果は同じ?
起動可否(OK/SKIPPED)はほぼ同じ結果になります。VRAM容量が16GBクラスなら、Ollamaのメモリ計算ロジックは同じ判定を下す仕組み。RTX 5060 Ti 16GB・RTX 5070 Ti 16GB・RTX 4070 Ti Super 16GB・RX 9070 XT 16GBのいずれでも、qwen3.5:27bやgemma4:31bはロードできない可能性が高い。
差が出るのは推論速度(tokens/sec)の方。CUDAコア数とメモリ帯域幅で決まる部分で、起動可否には関与しません。RTX 5060 Ti 16GBはCUDAコア4608基・GDDR7メモリで、当サイト検証では同じ14Bクラスのモデルを5080より遅い速度で実行する。市場価格は2026年4月時点で約9.5万円前後(各販売店ベース)、5080(約20万円前後)の半額以下。AI入門用途のコスパで選ぶGPUとして注目されています。
RX 9070 XTは16GBで約9.5万円前後(2026年4月時点)とNVIDIA比で割安。ただしROCm/DirectMLの対応状況がまだ発展途上で、CUDA前提のツールが動かないケースが多い。LLM推論はllama.cppのVulkanバックエンド経由で可能ですが、Ollama標準の動作はNVIDIA環境ほど安定しません。
5060 Ti 16GBについては、別記事「AI用PCの最低スペックガイド|RTX 5060 Ti+RAM 32GBで始めるローカルAI環境」で具体的な構成例を解説しています。
RTX 5090(32GB)にアップグレードすべき?それとも5080維持?
判断軸は「常用したいモデルサイズ」一点に絞られます。常用が14B以下のモデル(VRAM 11GB台)に収まるなら、RTX 5080で十分です。ヘッドルーム約4.5GBあり、コンテキスト拡張やマルチタスクにも対応できる構成。逆に27B〜32BクラスをQ4_K_Mのまま日常的に使いたいなら、RTX 5090(VRAM 32GB)への移行が現実的な選択肢になります。
RTX 5090は2026年4月時点の市場価格が約60万円前後と高騰中。RTX 5080(約20万円前後)との価格差は40万円前後となり、軽い投資ではありません。「27Bが必要かどうか」を冷静に判断するのが先決でしょう。週に1〜2回しか使わないなら、Q3量子化に落として5080で済ます方が合理的なケースも多い。
第三の道としてデュアルGPU構成があります。当サイトの検証環境はRTX 5080 16GB + RTX 5060 Ti 16GBで合計32GBのVRAMを搭載していますが、Ollamaが標準でモデルを2GPU間で分散ロードできるのはモデル重量が単一GPUに収まらない場合の緊急回避策的な動作。シングルGPU 32GB(5090)の方が推論速度・安定性で優れる場面が多いという結果。
ローカルAI環境の発展が見込めるなら5090、ピンポイントで14Bクラスの常用なら5080維持、コスパ重視ならRTX 5060 Ti 16GB追加でデュアル構成、という3択で考えると判断しやすい。
RTX 5080の主要仕様とSKIPPED境界の整理
GPU購入検討時に確認しておきたい主要数値をまとめます。
| 公称VRAM | 16GB GDDR7 |
|---|---|
| 実効VRAM(Windows) | 15.9GB |
| CUDAコア数 | 10752基 |
| TDP | 360W |
| SKIPPEDモデル例 | Qwen3.5 27B(Ollama: qwen3.5:27b)(17GB公称)/ Gemma 4 31B(Ollama: gemma4:31b) / Qwen3 32B(Ollama: qwen3:32b) |
| 動作上限モデル | 14Bクラス(VRAM使用量 11GB台) |
| 参考価格 | 約20万円〜(2026年4月時点、kakaku.com最安値) |
よくある質問
Q. RTX 5080でコンテキストを4kに絞れば27Bは動く?
Q4_K_Mでは原則動きません。コンテキストを4kに削ってKVキャッシュを最小化しても、モデル重量自体(qwen3.5:27bは17GB公称)がRTX 5080の実効15.9GBを超えているため、ロード段階で SKIPPED_VRAM になります。コンテキスト削減はモデルが乗った後の話で、ロード前のVRAM計算には反映されません。
Q. Linux環境ならRTX 5080の実効VRAMは増える?
ヘッドレス(ディスプレイ出力なし)構成では実効VRAMが0.3〜0.5GB程度増えるという報告があります。ただしqwen3.5:27bの17GB公称を吸収できる増分ではないため、Linuxに切り替えても27B Q4_K_Mは動かないと考えるのが安全。Linux環境のメリットは別の文脈(ROCm/Vulkan活用など)で活きます。
Q. Ollamaではなくllama.cppを使えば動く?
llama.cppはOllamaよりVRAM管理がきめ細かく、CPU/GPU間のレイヤー分割(GPU offload数の指定)が可能。一部レイヤーをCPU側のRAMに逃がせば27B Q4をRTX 5080で動かせるケースもありますが、推論速度は大幅に低下します。実用速度を保つなら量子化を落とすかGPU換装の方が現実的でしょう。
Q. デュアルGPU(5080+5060Ti)合計32GBで27Bは動く?
OllamaはモデルレイヤーをGPU間で分散ロードする機能を持っており、合計VRAMで判定する動作。当サイト検証のデュアル構成(RTX 5080 16GB + RTX 5060 Ti 16GB)でもロード自体は可能になりますが、GPU間通信のオーバーヘッドで推論速度はシングル32GB(RTX 5090)に劣る傾向。常用するならシングル大容量GPUが理想です。
まとめ:自分の常用モデルサイズで判断する
RTX 5080 16GBの実用境界は14Bクラス(VRAM 11GB台)まで。27B以上のモデルをdefault Q4_K_Mで動かそうとすると、Qwen3.5 27B(Ollama: qwen3.5:27b)・Gemma 4 31B(Ollama: gemma4:31b)・qwen3:32bのいずれもSKIPPED_VRAMで起動しません。実効VRAM 15.9GBという数値が、Ollamaのメモリ計算ロジックと噛み合わない構造になっています。
選択肢は3つ。Q4_K_M縛りで14Bまでに留めるならRTX 5080維持で十分。27B以上をどうしても動かしたいならQ2/Q3量子化に落とす(品質劣化と引き換え)か、RTX 5090(VRAM 32GB)へのアップグレード。週次の使用頻度と品質要求を冷静に天秤にかけて、自分のワークロードに合った投資判断をしてください。それでも判断に迷う場合は、現状のRTX 5080で14Bクラスを使い込んでから、足りない部分を見極めて追加投資する方が後悔の少ない選択になります。
当サイトはAmazonアソシエイト・プログラムの参加者です。Amazonのアソシエイトとして、当サイトは適格販売により収入を得ています。
おすすめパーツ 価格まとめ
| 製品名 | カテゴリ | スペック | 参考価格 |
|---|---|---|---|
| RTX 5080 | GPU・グラフィックボード | NVIDIA GeForce RTX 5080 16GB GDDR7 | ¥200,000〜 |
| RTX 5090 | GPU・グラフィックボード | NVIDIA GeForce RTX 5090 32GB GDDR7 | ¥550,000〜 |
| RTX 5070 Ti | GPU・グラフィックボード | NVIDIA GeForce RTX 5070 Ti 16GB GDDR7 | ¥175,000〜 |
本記事は AIハードウェア図鑑 編集部 が記載時点の情報をもとに執筆。製品アップデートや第三者ベンチマーク・価格・対応ランタイム等の変動で評価が変わる可能性がある。一定期間経過した内容は再検証を推奨する。

