sabato, Maggio 4, 2024

Phi-3: Il modello generativo di Microsoft per gli smartphone

**Microsoft PRESENTA PHI-3: L’Intelligenza Artificiale SUGLI Smartphone**

Abbiamo abbondantemente parlato degli AI PC, ovvero dei computer di nuova generazione equipaggiati con l’Hardware utile per gestire i carichi di lavoro più impegnativi legati alle applicazioni di intelligenza artificiale (IA). L’obiettivo, però, è di portare le funzionalità di IA anche sugli smartphone: quello che possiamo fare oggi con i dispositivi mobili di ultima generazione è un po’ limitarsi a raschiare soltanto la superficie.

Per questo motivo, Microsoft ha presentato Phi-3, suo modello generativo di dimensioni compatte progettato e sviluppato proprio per gli smartphone. La versione più compatta, Phi-3 Mini, include 3,8 miliardi di parametri. Accanto ad essa, la società di Redmond propone Phi-3 Small (7 miliardi di parametri) e Phi-3 Medium (14 miliardi di parametri).

**MICROSOFT PUNTA SUL NUOVO MODELLO PHI-3 PER PORTARE I MODELLI GENERATIVI E L’ELABORAZIONE DEL LINGUAGGIO NATURALE SUGLI SMARTPHONE**

Il nuovo rilascio, documentato in questo approfondimento, segue quello del modello Phi-2 presentato appena a dicembre 2023. Considerati gli enormi passi in avanti compiuti dai concorrenti, Meta in primis, Microsoft ha deciso di proporre un ulteriore nuovo aggiornamento: Phi-3 Mini, a fronte di 3,8 miliardi di parametri, sarebbe in grado di superare le prestazioni di Meta Llama (8 miliardi di parametri) e di OpenAI GPT-3, almeno stando ai risultati dei benchmark condotti dai tecnici della società.

Le sue dimensioni limitate consentono l’utilizzo di Phi-3 sui dispositivi mobili, dotati di una potenza computazionale ridotta. Grazie a Phi-3 Mini, a detta di Microsoft stessa, si aprirà un nuovo capitolo per lo sviluppo di applicazioni basate su funzionalità imperniate proprio sull’IA.

**COME NASCE IL MODELLO PHI-3: A QUALI PRINCIPI SI ISPIRA**

Lo sviluppo di modelli basati su miliardi di parametri prende le mosse dalle cosiddette “leggi di scala” che presuppongono l’utilizzo di una fonte di dati “fissa”. Questa assunzione è sempre più messa in discussione dall’utilizzo di LLM “di frontiera” che aprono le porte all’interazione con i dati utilizzando modalità nuove.

I ricercatori Microsoft spiegano che lo studio sui modelli “Phi” ha dimostrato come una combinazione dei dati provenienti dal Web e di dati sintetici creati da LLM consenta l’ottenimento di prestazioni elevate nei modelli linguistici di piccole dimensioni, performance che tipicamente si vedevano solo in modelli molto più grandi.

Dal punto di vista più prettamente tecnico, Phi-3 Mini utilizza architettura basata su Transformer, con una finestra di contesto predefinita pari a 4K. Microsoft non preclude comunque la possibilità di usare una context window molto più ampia: chiamata LongRope si estende a 128K.

Grazie alle sue dimensioni ridotte, Phi-3 Mini può essere quantizzato a 4 bit in modo che occupi all’incirca 1,8 GB di memoria. Provandolo su un Apple iPhone 14 con chip A16 Bionic, la latenza rilevata nelle operazioni di inferenza su 4.096 token è di 44 ms; per blocchi da 64K token sale a 53 ms.

**CONCLUSIONE**

In conclusione, Microsoft si appresta a rivoluzionare il panorama dell’intelligenza artificiale portando i modelli generativi e l’elaborazione del linguaggio naturale direttamente sugli smartphone. Con Phi-3, la società punta a offrire prestazioni superiori rispetto ai concorrenti e a rendere disponibili funzionalità AI anche su dispositivi mobili di dimensioni ridotte.

Il futuro sembra proiettato verso una sempre maggiore integrazione dell’IA nella vita quotidiana, con dispositivi sempre più potenti e capaci di gestire operazioni avanzate in autonomia. Microsoft, con Phi-3, si conferma all’avanguardia in questo ambito e promette di aprire nuove frontiere nell’utilizzo dell’intelligenza artificiale su scala globale.

ARTICOLI COLLEGATI:

ULTIMI ARTICOLI: