← Torna indietro 💻 Tecnologia

L'IA "fatta in casa" mette il turbo sui Mac: Ollama abbraccia il framework MLX di Apple

Running Local Models on Macs Gets Faster with Ollama's MLX Support

31. marzo 2026 · Ars Technica
L'IA

Avere un'intelligenza artificiale potente che gira direttamente sul proprio computer, garantendo massima privacy e zero dipendenza dal cloud, non è più una prerogativa per soli addetti ai lavori. Un passo decisivo in questa direzione arriva da Ollama, uno dei software più popolari per eseguire modelli linguistici di grandi dimensioni (LLM) in locale. Gli sviluppatori hanno infatti annunciato il supporto ufficiale a MLX, il framework open source ideato da Apple per ottimizzare le operazioni di machine learning sui propri dispositivi.

Per i possessori di Mac dotati di processori Apple Silicon (dalla serie M1 in poi), questa novità si traduce in un drastico aumento delle prestazioni. L'integrazione con MLX, unita a un sistema di caching profondamente rinnovato, permette all'hardware di gestire i calcoli dell'IA in modo molto più fluido. Inoltre, l'aggiornamento introduce il supporto al formato NVFP4 di Nvidia per la compressione dei modelli: in parole povere, l'intelligenza artificiale richiederà molta meno memoria RAM per funzionare, risultando non solo più veloce, ma anche decisamente più "leggera" per il sistema operativo.

Questo potenziamento tecnologico arriva con un tempismo perfetto. L'intelligenza artificiale eseguita in locale sta infatti vivendo un momento d'oro, uscendo dai laboratori dei ricercatori per conquistare il grande pubblico. L'emblema di questa rivoluzione è il recente fenomeno OpenClaw, un modello open source che ha letteralmente spopolato su GitHub superando le 300.000 stelle di gradimento. Tra esperimenti virali come Moltbook e un'adozione di massa (particolarmente fervente in Cina), la corsa all'IA "fatta in casa" è ufficialmente iniziata. E da oggi, per gli utenti Mac, correre è diventato molto più facile.

Articolo originale: https://arstechnica.com/apple/2026/03/running-local-models-on-macs-gets-faster-w