AIローカルで画像入力ありのLLMを動かす(AMD GPU/CPU対応) やりたいこと llama.cppを使用してローカルで画像入力ありのLLM(チャットAI)を実行します。 この記事ではgoogleのローカル向けのモデルであるQwen2.5-VLを使用します。 AMDの GPUでもGPUの...2026.01.05AI
AIローカルでLLMを動かす(AMD GPU/CPU対応) やりたいこと llama.cppを使用してローカルでLLM(チャットAI)を実行します。 この記事ではgoogleのローカル向けのモデルであるgemmaを使用します。 AMDのGPUでもGPUのない環境(CPU)でも実行...2026.01.05AI
AIローカルでAMDのGPU(direct-ml)を使ってLLMを動作させる(お試し) やりたいこと AMDのGPUを使用してでLLMを動作させてみます。 DirectMLとDirectMLのサンプルコードを使用します。 コードの修正を行います。実行は自己責任でお願いします。 ただし以下の環境でギリギ...2025.03.252025.07.15AI