Integrazione LLM: Claude Sonnet e GPT-4o

Descrizione del corso

  • Anthropic SDK ( Python ), Client Asincrono, Streaming, Tool_use e gestione errori
  • OpenAI SDK ( Python ), Output strutturati, Parallel Tool Calls e Response Format
  • Prompt Engineering avanzato per Agenti
  • System prompt
  • Few-shot
  • Chain-of-thought forzato
  • Gestione del context window
  • Il Token Budgeting
  • Il context compression
  • La Summarization automatica
  • Output strutturati con Pydantic
  • La Validazione delle risposte LLM tipizzate
  • Costi e ottimizzazione
  • Il Prompt Caching
  • Le Batch API
  • Scelta del modello giusto per Task
  • Multi-model Routing
  • Modelli diversi per task diversi ( Haiku per Tool call ed Opus per ragionamento )
  • Confronto pratico Claude Sonnet vs GPT-4o su task reali di agenti
  • Esercizio #57.01 : Configurare il client Anthropic in modalità sincrona e asincrona con asyncio
  • Esercizio #57.02 : Implementare lo Streaming con Anthropic SDK e visualizzare la risposta token per token in tempo reale nel terminale
  • Esercizio #57.03 : Usare tool_use con Anthropic: definire un tool, inviarlo al modello e gestire la risposta
  • Esercizio #57.04 : Fare lo stesso con OpenAI SDK: Parallel Tool Calls, Response Format JSON e output strutturati

Codice:ET-AI-0001_57

Durata:0 giorni

Categorie:,

Moduli del corso