IAExecutando o LLM com entrada de imagem localmente (compatível com GPU/CPU AMD) Coisas que eu quero fazer Executaremos o LLM (inteligência artificial para bate-papo) localmente com entrada de imag...2026.01.052026.03.15IA
IAExecutando o LLM localmente (compatível com GPU/CPU AMD) Coisas que eu quero fazer Execute o LLM (Chat AI) localmente usando o arquivo llama.cpp. Este artigo utiliza o Ge...2026.01.052026.03.15IA
IAExecutando o LLM localmente usando uma GPU AMD (ml direto) (teste de execução) Coisas que eu quero fazer Vamos tentar executar o LLM usando uma GPU AMD. Usaremos DirectML e um código de exempl...2025.03.252026.03.15IA