Executando o LLM localmente usando uma GPU AMD (ml direto) (teste de execução)

この記事は約6分で読めます。
スポンサーリンク

Coisas que eu quero fazer

Vamos tentar executar o LLM usando uma GPU AMD.

Usaremos DirectML e um código de exemplo para DirectML.

Faremos alterações no código. Prossiga por sua conta e risco.

No entanto, funciona muito mal (instável, produz respostas estranhas) nos seguintes ambientes.

CPUAMD Ryzen 7 7735HS
memória32 GB
armazenarDisco rígido externo
(O disco do sistema é um SSD e, devido à sua grande capacidade, é usado externamente.)
GPUAMD Radeon 680M
(CPU integrada)
スポンサーリンク

Configuração do ambiente

Crie uma pasta de trabalho.

Clone o seguinte repositório.

DirectML/PyTorch/llm at master · microsoft/DirectML
DirectML is a high-performance, hardware-accelerated DirectX 12 library for machine learning. DirectML provides GPU acceleration for common machine learning tas...

Mudar para o ambiente venv (opcional)

Se necessário, execute o seguinte comando no prompt de comando para criar e ativar o ambiente Venv.

python -mvenv venv
venv\scripts\activate.bat

Mover para a pasta de trabalho

Execute o seguinte comando para acessar o código de exemplo do LLM. (O repositório clonado é uma coleção de códigos de exemplo do DirectML, portanto, você precisará navegar até uma pasta de trabalho para usar exemplos individuais.)

cd PyTorch\llm

Instalação da Biblioteca

Execute o seguinte comando para instalar as bibliotecas necessárias.

pip install -r requirements.txt
pip install torch_directml
pip install huggingface_hub

Modificação de código

Apague ou comente as seguintes linhas.

from huggingface_hub.utils._errors import RepositoryNotFoundError

Edite da seguinte forma ou exclua o bloco ‘exceto’.

Antes:

    except RepositoryNotFoundError as e:

depois:

    except:

Ocorreu um erro devido à atualização do embraceface_hub.

O sistema está funcionando desativando as partes que estão causando os erros.

Existe a possibilidade de o tratamento de erros no download do modelo não estar funcionando corretamente.

スポンサーリンク

bota

Execute o seguinte comando. (O modelo será baixado automaticamente, portanto, na primeira execução, levará algum tempo.)

python app.py

Se a seguinte mensagem aparecer na linha de comando, abra o URL exibido no seu navegador.

Running on local URL: http://127.0.0.1:7860

Se você vir uma tela como a abaixo, significa que a operação foi bem-sucedida.

(Digite uma pergunta na parte inferior da tela e a resposta aparecerá na parte superior.)

スポンサーリンク

Resultado

Consegui executar o LLM na GPU integrada de uma CPU AMD.

A velocidade de resposta também é razoável. (Pode até ser mais rápida que a do Gemini, etc.)

No entanto, experimentei dois modelos, mas nenhum funcionou corretamente, como mostrado abaixo.

(Não creio que deem exatamente a mesma resposta, então acho que é uma questão de modelo ou especificações.)

  • microsoft/Phi-3-mini-4k-instruct(Valor inicial)
    • Não importa o que eu pergunte, sempre recebo a mesma resposta (embora não seja exatamente a mesma, então parece que está funcionando).
  • microsoft/phi-2
    • Após várias trocas de mensagens, ocorre um erro.
    • Caracteres ilegíveis em japonês

コメント

タイトルとURLをコピーしました