AIローカルでLLMを動かす(AMD GPU/CPU対応) やりたいこと llama.cppを使用してローカルでLLM(チャットAI)を実行します。 この記事ではgoogleのローカル向けのモデルであるgemmaを使用します。 AMDのGPUでもGPUのない環境(CPU)でも実行...2026.01.05AI