AI article
El ecosistema local de LLMs no necesita Ollama (y me incomodó descubrirlo)
Fui team Ollama desde el día uno. La semana pasada intenté reemplazarlo con llama.cpp directo y un wrapper mínimo. El resultado me obligó a repensar algo que...
Dev.to | Apr 16, 2026 | Juan Torchia