Found a bug on the way of instlling...
Anyone with similar bug?
Mas o motivo real de estarmos nessa etapa é que o Ollama v0.20.2 tem um bug
de Metal shaders no macOS Tahoe 26.3.1 — os tipos bfloat/half não compilam
nos shaders do MetalPerformancePrimitives. Nenhum modelo carrega via
Ollama nessa versão do macOS. Por isso troquei para o MLX-LM (framework
nativo da Apple para inferência em Apple Silicon), que tem sua própria
implementação Metal e deve funcionar.
Resumo do caminho até aqui:
Ollama instalado (OK)
gemma4:e4b baixado (9.6GB, OK)
Modelo não carrega — crash no Metal shader (bug Ollama + Tahoe)
Tentei CPU mode — mesmo crash (Ollama compila Metal shaders de qualquer
forma)
- Mudei para MLX-LM — instalou OK, agora baixando modelo do HuggingFace
Uma vez que o modelo MLX baixar, a inferência em si deve ser rápida (~50-80
tok/s no M5).