In short

Il webinar fornisce una panoramica delle procedure di realizzazione, architettura e funzionamento dei Large Language Models, strumenti essenziali per l'analisi automatica del linguaggio e l'implementazione di sistemi di Intelligenza Artificiale. Si esplorano le diverse modalità di costruzione di un modello linguistico, introducendo i concetti di approccio rule-based e data-driven, con un focus sulle differenze tra apprendimento supervisionato e non supervisionato. Segue un approfondimento sul funzionamento dei Large Language Models, spiegando la generatività predittiva e gli assunti teorici della Semantica Distribuzionale, oltre all'uso degli embeddings come risorsa fondamentale. Infine, viene analizzata l'architettura del modello Transformer, con particolare attenzione al concetto di Attenzione e al funzionamento delle reti neurali.

Il webinar è parte dell'offerta formativa Dicolab. Cultura al digitale, un'iniziativa del Ministero della Cultura, Digital Library, Scuola nazionale del patrimonio e delle attività culturali, finanziato da Next Generation EU.

Obiettivi formativi

  • Distinguere tra le diverse modalità di realizzazione di un modello linguistico.
  • Descrivere il funzionamento dei Large Language Models.
  • Definire cosa sia una rete neurale e un Transformer.

Destinatari

Il percorso si rivolge a dipendenti del MiC, delle altre Amministrazioni Pubbliche, a professionisti/e, alle imprese del sistema culturale e agli studenti che vogliano approcciare l'intelligenza artificiale e il prompting come strumenti di lavoro.

Criteri per il rilascio dell’Open Badge

Per la certificazione delle competenze e l’acquisizione del Badge, il/la partecipante ha completato tutte le attività del corso Large Language Models per l’AI e superato con successo i test, rispondendo correttamente al 100% delle domande previste.

1 related path