Cerca
Close this search box.

Trustworthy AI and a Cybersecurity Perspective on Large Language Models | 21 Novembre 2023

Alla luce della crescente maturità della tecnologia dell’IA, osserviamo una diffusa implementazione dell’IA in molti settori applicativi. Tuttavia, ciò aumenta le richieste relative a proprietà legate alla affidabilità, come la robustezza, la privacy, la trasparenza, la responsabilità e la explainability. In questa presentazione organizzata da AIDA (Artificial Ingelligence Doctoral Academy), il professor Mario Fritz spiegherà cosa ciò significa per la metodologia futura dell’IA e come possiamo raggiungere tali obiettivi.

Oltre alla affidabilità dell’IA, la disinformazione e i deepfake stanno diventando preoccupazioni chiave per gli effetti negativi che l’IA può avere sulla società. Il professor Fritz illustrerà l’ecosistema più ampio intorno alla disinformazione e delle diverse approcci per mitigare questi problemi urgenti in futuro. Infine, modelli linguistici di grandi dimensioni (LLM) come GPT4 hanno dimostrato come la distribuzione dell’IA stia raggiungendo milioni di utenti, mettendo così in risalto alcuni degli argomenti menzionati in precedenza. Nell’incontro si parlerà delle preoccupazioni e delle minacce alla sicurezza informatica che emergono dalla recente tendenza degli LLM integrati nelle applicazioni e degli assistenti IA, oltre a delineare come lo sviluppo futuro avvierà sfide di ricerca completamente nuove in questo campo.

Per vedere l’evento e come collegarsi visitare la pagina:

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto