GPU・グラフィックボード RTX 5080でMoEモデルだけ消費電力が1/4に落ちる|gemma4:26b・qwen3.5:35b-a3b実測 MoEモデルとは、活性パラメータだけを演算する混合エキスパート型LLMである。RTX 5080で複数のLLMを連続計測したところ、密モデルは例外なく200〜300Wの範囲で推移した一方、MoE構成のgemma4:26bとqwen3.5:35... 2026.04.21 AIハードウェア図鑑 編集部 GPU・グラフィックボードPC構成ローカルAI環境