AIハードウェア図鑑 編集部

GPU・グラフィックボード

llama.cppでVRAM不足(OOM)エラーの解決法|Gemma 4実行時の原因と対処法を徹底解説

Gemma 4をllama.cppで動かそうとしたら、生成が始まる前にVRAMが枯渇してプロセスが落ちた——この経験をした人は少なくないはずだ。モデルのロード自体は通るのに、推論フェーズに入った途端にOut of Memoryが出る。VRA...
ツール比較

ローカルAI環境:Gemma 4の推論性能を徹底比較|ローカルLLMの思考トークン効率

「ローカルで動かせる推論モデルが、ここまで来たのか」——Gemma 4のベンチマーク結果を初めて見たとき、率直にそう感じた。Googleが公開したGemma 4シリーズは、思考トークンの使い方が従来のオープンソースモデルと明らかに違う。短い...