llama.cpp

AI

ローカルで画像入力ありのLLMを動かす(AMD GPU/CPU対応)

やりたいこと llama.cppを使用してローカルで画像入力ありのLLM(チャットAI)を実行します。 この記事ではgoogleのローカル向けのモデルであるQwen2.5-VLを使用します。 AMDの GPUでもGPUの...
タイトルとURLをコピーしました