GPU・グラフィックボード llama.cpp対応プラットフォーム完全ガイド llama.cppとは、CPUとGPUの双方でLLMをローカル実行するための軽量推論エンジンだ。llama.cppの公式リリースを開くと、ひとつのタグに対して20種類以上のビルドが並んでいる。macOSのApple Silicon版、Int... 2026.04.30 AIハードウェア図鑑 編集部 GPU・グラフィックボードPC構成ローカルAI環境