Imagina que estás trabajando en tu Mac y, de repente, todo va más rápido. Eso es lo que ha logrado Ollama con su última actualización. Esta popular aplicación, que permite ejecutar modelos de inteligencia artificial directamente en tu ordenador, ha hecho un movimiento inteligente al aprovechar el nuevo marco de aprendizaje automático de Apple, conocido como MLX.
Un impulso sin precedentes
Según los propios desarrolladores de Ollama, esta nueva versión puede procesar comandos hasta 1.6 veces más rápido. Pero eso no es todo; la velocidad para generar respuestas se casi duplica, especialmente en Macs equipados con los chips M5. ¿Y cómo lo logran? Gracias a los nuevos Aceleradores Neurales GPU de Apple que están revolucionando el juego.
Mejoras que se notan
Aparte del aumento en la velocidad, también han implementado una gestión más inteligente de la memoria. Esto significa que herramientas como asistentes personales o agentes para programar se sienten mucho más ágiles y receptivos durante esas largas sesiones de trabajo. ¡Es como si tu Mac estuviera tomando un café espresso!
Para aquellos usuarios de macOS que suelen utilizar asistentes como OpenClaw o herramientas como Claude Code y Codex, este impulso va a ser un auténtico respiro. Y si eres uno de esos afortunados con más de 32GB de memoria unificada, ya puedes descargar la versión previa llamada Ollama 0.19. Aunque por ahora solo funciona con Qwen3.5 de Alibaba, prometen expandir la compatibilidad pronto.
