giovedì, Novembre 21, 2024
spot_img
HomeIn primo pianoUnical, la lectio magistralis di Georg Gottlob: "anche le macchine possono errare,...

Unical, la lectio magistralis di Georg Gottlob: “anche le macchine possono errare, non solo gli uomini”

Georg Gottlob, nel corso della sua lectio magistralis, ha mostrato subito di sentirsi a proprio agio nell’ateneo che, a fine anno, lo annovererà tra i suoi docenti, dopo le numerose collaborazioni scientifiche avviate già da tempo, ringraziando per la calorosa accoglienza ricevuta ed, entrando nel merito, con grande piglio scientifico, sui temi dell’intelligenza e dell’ignoranza artificiale, per concludere focalizzando l’attenzione sulle nuove frontiere dei large language models (LLMs), tipo ChatGPT e successivi modelli, sulle potenzialità ma, soprattutto, le criticità di queste tecnologie sempre più presenti nel nostro quotidiano.

“Non solo noi uomini ignoriamo certe cose, anche le macchine possono errare – ha evidenziato Gottlob –  Gli errori delle macchine che costruiamo devono essere studiati per migliorare. Oggi siamo arrivati a logiche di intelligenza artificiale molto efficienti che possono lavorare con big data e sviluppare ragionamenti piuttosto complessi, ma questa disciplina ha ancora bisogno di svilupparsi”.

Gottlob si è soffermato sui due filoni dell’intelligenza artificiale che collaborano poco: l’intelligenza artificiale simbolica, basata su un approccio logico, matematico e filosofico, per far “ragionare le macchine”, e l’intelligenza artificiale subsimbolica, che ha avuto un grande sviluppo, basata sulle reti neurali, a cui dare input per ottenere un determinato risultato.

“Con l’AI simbolica – ha spiegato – abbiamo fatto grandi passi in avanti e ora sappiamo risolvere problemi con grandi vincoli, come nel caso delle tecniche utilizzate dalle grandi compagnie informatiche nel campo del chip design. Ma con l’AI subsimbolica, e in particolare con il deep learning, sono stati raggiunti risultati fantastici”.

Riportando un caso personale, riguardante le modalità di valutazione del rischio creditizio attraverso un sistema di machine learning, senza quindi l’intermediazione umana, Georg Gottlob ha messo in evidenza la necessità di agire, per il futuro, attraverso una teoria di controllo per l’intelligenza artificiale, al fine di stabilire un insieme di regole che andrebbero a risolvere alcuni errori che vengono generati.

Infine, il riferimento ai large language models, che rappresentano una grande rivoluzione, attraverso un sistema costruito su una semantica logica, cognitiva e statistica. Ma ci sono avvertenze da tenere in debito conto per gli errori generati dalla compressione delle informazioni, dai contenuti sbagliati tratti dal web, dai domini di riferimento errati. Un esempio concreto di utilizzo dell’intelligenza artificiale, in maniera molto ironica, è stato utilizzato proprio nel corso della lectio attraverso la creazione di un divertente poemetto dedicato all’occasione. Il modello a cui Gottlob sta lavorando, Chat2Data, costruito sulla verifica delle basi di dati di riferimento, arricchite in completezza e soprattutto adeguatezza, dopo Oxford, sarà ulteriormente sviluppato nel suo lavoro di ricerca che proseguirà qui in Calabria.

RELATED ARTICLES

LEAVE A REPLY

Please enter your comment!
Please enter your name here

- Advertisment -
Google search engine

Most Popular

Recent Comments