I punti chiave per capire il Model Context Protocol
Il protocollo MCP è una delle grosse novità nel mondo dell’IA generativa: uno standard per far comunicare gli LLM con risorse e tool esterni senza doverli riaddestrare. Il protocollo è nato nel 2024, ma è l’update dello scorso marzo ad averne accelerato le implementazioni. Ora gli occhi della community dev internazionale sono tutti su questo nuovo paradigma. In questo articolo ti spieghiamo i punti chiave per capire cos’è Model Context Protocol(MCP) e come gli MCP Server influenzano l’evoluzione dei servizi di intelligenza artificiale generativa.
Cos’è il Model Context Protocol
Cosa sono gli MCP server
Come funziona un MCP server
MCP server: esempi concreti
Serverless MCP server: cos’è ed esempi
Conclusioni
Cos’è il Model Context Protocol
Model Context Protocol è un protocollo rilasciato in open source da Anthropic nel novembre 2024. Si tratta di un nuovo standard per connettere gli assistenti AI a diversi sistemi in cui risiedono le informazioni. L’obiettivo è aiutare i LLM a produrre risposte migliori, più pertinenti e basate su dati in tempo reale. Al momento è supportato da Anthropic (Claude), OpenAI (ChatGPT e Copilot, per fare un paio di esempi), Cursor, AWS Q Developer e molti altri client. Il protocollo è nato per rispondere a un bisogno di scalabilità. Infatti, sebbene i Large Language Models siano sempre più sofisticati, sono vincolati dal loro isolamento dai dati. Ogni nuova fonte esterna richiede una propria implementazione personalizzata. MCP sostituisce questa frammentazione con un unico protocollo, per fornire ai LLM l’accesso a diverse fonti e produrre risposte più accurate alle richieste fatte agli assistenti AI.L’architettura MCP si basa quindi su tre elementi:
AI Host (es. Claude, ChatGPT, Cursor, etc)
MCP Client che usa l’AI (es. Copilot, Notion, etc.)
MCP Server che si connette a fonti dati o applicazioni esterne
La sfida è creare server in grado di dare funzionalità “nuove” agli LLM, attraverso un protocollo di comunicazione standard. Credit image: modelcontextprotocol.io
Cosa sono gli MCP server
Gli MCP server si basano sul protocollo open source MCP appena descritto, che semplifica il modo in cui le applicazioni forniscono informazioni contestuali ai modelli di intelligenza artificiale. Possiamo vederlo come una sorta di “porta universale”, simile a quella USB-C: proprio come questa consente a dispositivi diversi di collegarsi facilmente tra loro, un MCP server permette a un’AI di interfacciarsi contemporaneamente e in modo standard con più fonti dati e strumenti esterni.“Per fare un paragone, un MCP server sta agli LLM come un set di API sta a un software. Non c’è bisogno di riscrivere nel software le funzionalità offerte dalle API esterne, ma solo di usarle.” spiega Davide De Sio, Head of Software Engineering in ELEVA. Credit image: Richardson Gunde
Come funziona un MCP server
Vediamo ora come funziona un MCP server, seguendo tutto il flusso di comunicazione nell’architettura MCP descritta prima.L’MCP Client (ad esempio l’assistente vocale della tua smart home, l’assistente AI nella tua piattaforma di collaborazione, etc.) “traduce” in un formato standardizzato le richieste fatte al modello AI (“Alexa spegni la luce”, oppure “Crea una tabella Excel con costi, ricavi e tempi dedicati ad ogni cliente acquisito negli ultimi 3 mesi).L’MCP Client verifica quali sono le risorse e capacità del server e, se è in grado di rispondere alla richiesta, la invia all’MCP Server.L’MCP Server invia a sua volta la richiesta a una fonte di dati esterna o locale e restituisce la risposta all’Host AI, tramite l’assistente.Con il contesto aggiornato, l’assistente AI (MCP Client) restituisce all’utente una risposta completa, pertinente e basata su dati in tempo reale, elaborati dal LLM.
MCP server: esempi concreti
Come usare gli MCP server? Ecco alcuni esempi concreti.Microsoft Copilot, integrato in strumenti come Word o Excel, potrebbe usare gli MCP server per accedere in modo standard a dati aziendali salvati su sistemi esterni come Salesforce, Slack, etc. o database interni, generando report o analisi su misura direttamente nei documenti.Un’applicazione per la diagnosi precoce dell’osteoporosi può permettere agli ospedali di configurare il proprio MCP server nelle loro applicazioni client (Copilot, Claude, ChatGpt) per richiedere un’analisi predittiva inserendo un pdf con i dati del paziente e i precedenti referti, utilizzando il prompt: “Chiedi a OsteoporosiAPP di realizzare un’analisi predittiva dello sviluppo dell’osteoporosi di Marco Rossi. Utilizza questo pdf con i dati del paziente e i precedenti referti.”Oltre a rielaborare informazioni, gli MCP server consentono anche di compiere azioni reali. Possiamo chiedere al nostro Assistente AI di prenotare un albergo su Booking, utilizzando un prompt con tutti i dettagli della prenotazione. Tramite MCP il sistema sarà in grado di fare tutto quello che serve, collegandosi all’MCP server di Booking o ad un MCP server custom che utilizza le API di Booking.
Serverless MCP server: cos’è ed esempi
MCP era stato inizialmente concepito come un sistema che operasse in locale (on premise o in cloud, ma comunque in un ambiente chiuso). Come tale, quindi, prevedeva che il server fosse sempre operativo, con un impatto sui costi. L’ultimo aggiornamento del protocollo ha aperto alla possibilità di mettere finalmente in serverless gli MCP server.Questo ha permesso agli MCP server di rispondere a qualsiasi LLM, senza girare più in locale. Le gestione serverless, inoltre, ha prodotto un risparmio sui costi, in una logica pay-as-you-go, che si attiva solo all’arrivo della chiamata al server.La community dei builders AWS si è mossa in modo estremamente veloce, realizzando dei wrapper che permettono di sviluppare con approccio serverless gli MCP server in modo molto semplice. Questo ha semplificato ulteriormente le implementazioni, potendo sfruttare le funzioni serverless AWS.In una serie di articoli su DEV.to, potete trovare esempi di depolyment di un server MCP su AWS Lambda con Serverless Framework,AWS CDK e AWS SAM, realizzati da Davide, che è anche un AWS Community Builder molto attivo.In sintesi, con poche righe di codice si crea un MCP server da testare in locale. Se il test va a buon fine, si può rilasciare su AWS. A questo punto, Serverless Framework si occuperà della creazione di Lambda, API Gateway e di tutti i componenti necessari.Dopo la distribuzione, si ottiene un endpoint HTTP testabile con una chiamata HTTP POST, via cURL o postman ad esempio, per trasferire simulare l’interazione di un LLM con il server.La serie di articoli, che vi invitiamo ad approfondire sul profilo di Davide, spiega passo passo anche come realizzare MCP server per coloro che preferiscono utilizzare AWS CDK o SAM, con i relativi benefici che ciascun approccio porta con sé.
Conclusioni
Il Model Context Protocol rappresenta un cambiamento radicale nel mondo dell’intelligenza artificiale generativa, perché dà il via agli sviluppi e non solo alle integrazioni delle terze parti.Si passa da una logica del tipo: “chiama questo modello e chiedigli informazioni, ma basati solo sulla sua capacità intrinseca” a “sviluppo uno o più server che offrono a qualunque modello la capacità di fare le cose più disparate e che riflettono il mio business value”.Un’azienda che offre un qualsiasi servizio digitale potrà sviluppare delle “API” che, richiamate in un MCP server, consentiranno ai LLM di utilizzare il proprio servizio, basandosi sui propri dati.Quello degli MCP server è un campo ancora in piena evoluzione, ma promette già di rivoluzionare il modo in cui gli AI agent potranno affiancare il nostro lavoro con risposte sempre più pertinenti, accurate e allineate al contesto in tempo reale. L’incontro di questo nuovo protocollo con l’approccio serverless contribuirà ad accelerarne l’adozione, garantendo maggiore sicurezza, resilienza, scalabilità e automatizzando la gestione dell’infrastruttura come codice.