gemma

AI

ローカルでLLMを動かす(AMD GPU/CPU対応)

やりたいこと llama.cppを使用してローカルでLLM(チャットAI)を実行します。 この記事ではgoogleのローカル向けのモデルであるgemmaを使用します。 AMDのGPUでもGPUのない環境(CPU)でも実行...
タイトルとURLをコピーしました