LLM

AI

ローカルで画像入力ありのLLMを動かす(AMD GPU/CPU対応)

やりたいこと llama.cppを使用してローカルで画像入力ありのLLM(チャットAI)を実行します。 この記事ではgoogleのローカル向けのモデルであるQwen2.5-VLを使用します。 AMDの GPUでもGPUの...
AI

ローカルでLLMを動かす(AMD GPU/CPU対応)

やりたいこと llama.cppを使用してローカルでLLM(チャットAI)を実行します。 この記事ではgoogleのローカル向けのモデルであるgemmaを使用します。 AMDのGPUでもGPUのない環境(CPU)でも実行...
AI

ローカルでAMDのGPU(direct-ml)を使ってLLMを動作させる(お試し)

やりたいこと AMDのGPUを使用してでLLMを動作させてみます。 DirectMLとDirectMLのサンプルコードを使用します。 コードの修正を行います。実行は自己責任でお願いします。 ただし以下の環境でギリギ...
タイトルとURLをコピーしました