Bibliografia Corso accelerato sull’AI

Bibliografia Corso accelerato sull’AI

Abbott E.A. (2020) Flatlandia, Feltrinelli (Prima pubblicazione 1884)

Balassone S. (2023) Scusi il disturbo — Chiacchiere con personaggi che furono o che sono (podcast) Radio Immagina

Bommasani R. e altri 114 autori (2022) On the opportunities and risks of foundation models arxiv.org:2108.07258

Borji A. (2023) A Categorical Archive of ChatGPT Failures arXiv:2302.03494

Cameron R.W. (2024) Decoder-only transfomers: the workhorse of generative LLMs Deep (Learning) Foqus

Chomsky N. (2023) The False Promise of ChatGPT The New York Times

Kang C, Choi H. (2023) Impact of co-occurrence on factual knowledge of large language models arxiv.org:2310.08256

Kauf C., Chersoni E., Lenci A., Fedorenko E., Ivanova A.A. (2024) Comparing plausibility estimates in base and instruction-tuned large language models arXiv:2403.14859

Kurenkov A. (2020) A Brief History of Neural Nets and Deep Learning Skynet Today

Lenci A. (2008) Distributional semantics in linguistic and cognitive research Rivista di linguistica 20: 1-31

Lenci A. (2023) Understanding natural language understanding systems. A critical analysis arXiv:2303.04229

Mitchel M. (2022) L’intelligenza artificiale — Una guida per esseri umani pensanti, Einaudi, Ed. originale 2019

Morfiis A.P. (2024) Why reliable AI requires a paradigm shift Mostly Harmless Ideas

Morfiis A.P. (2024) Let’s build our own ChatGPT Mostly Harmless Ideas

Nielsn M. (2019) Neural networks and deep learning. Dispobile in http://neuralnetworksanddeeplearning.com/

Peterson A.J. (2024) AI and the problem of knowledge collapse arXiv:2404.03502

Ranieri M., Cuomo S. Biagini G. (2024) Scuola e intelligenza artificiale, Carocci

Raschka S. (2024) How good are the latest open LLMs? And is DPO better than PPO? Ahead of AI

Ravichandiran S. (2021) Getting started with BERT Packt Publishing

Vasvani W., Shazeer N., Parmar N., Uskzoreit J., Jones .L, Gomez A.N., Kaiser L., Polosukhin I. (2023) Attention is all you need arXiv: 1706.03762

Wendeler C., Veselovsky V, Monca G., WEst R. (2024) Do Llamas work in English? On the latent language model of multilinguam transformers arXiv:2402.10588

Che succede alle parole nell’AI?

Questo articolo fa parte di una sorta di Corso accelerato sull’AI — il link conduce a un indice aggiornato.


In GPT-4 ogni parola viene trasformata in un insieme di 16’384 numeri.

Strano perché 16’384 numeri sono davvero tanti. Perché complicarsi così la vita?

Quanto segue potrà parere un po’ noioso ma è di fondamentale importanza per iniziare a capire qualcosa di AI. Quindi armiamoci di un poco di pazienza.

Continua (10 min)

Corso accelerato sull’AI

Avevo iniziato con poca voglia, più che altro sollecitato dalle domande che mi pongono alcuni amici. Scarsa voglia perché ci sono già tante persone che se ne occupano, alcune ottimamente, tante altre meno. Poi ho preso a divertirmi e quello che sta venendo fuori, devo ammetterlo, è una roba tipo crash course on AI o AI for dummies.

Continua (5 min)

AI: non parole ma tocchetti

Difficile fare un discorso breve sull’AI. Questi appunti sono destinati a proliferare, obbligandoci anche a compiere vari passi indietro. Ad esempio, è già emerso come per l’AI le parole siano meri numeri ma non si tratta di una semplice questione di codifica. Se lasciamo la cosa lì rischiamo di capire poco.

Cosa intendiamo normalmente per codifica? Ad esempio, semplificando, le lettere che sto scrivendo in questo testo vengono immediatamente trasformate in sequenze di uno e zero, un byte (otto bit) per ogni carattere, per la precisione. Il testo verrà memorizzato, eventualmente elaborato e infine in qualche modo riprodotto ma all’interno di tale processo i byte viaggeranno indisturbati, codici di simboli che per noi sono lettere. Altrettanto indisturbate viaggeranno le parole composte da tali lettere, e così i relativi significati.

Nell’AI la storia è assai diversa e ritroveremo le nostre fidate parole disperse in spazi talmente complessi da non potere essere immaginati. Ci vorrà un po’ di tempo e un po’ di fantasia per farsene una ragione. Andiamo quindi per gradi rifacendosi dall’inizio: cosa succede ad una parola appena introdotta nell’AI?

Continua (3 min)

Può un topo guidare un aereo?

Più precisamente, possono controllare il volo di un aereo simulato 25’000 neuroni della corteccia cerebrale di un topo? Ovvero meno di un mm2 di corteccia cerebrale[1]? Risposta quasi ovvia: no, perché niente sa il topo di un aereo, figuriamoci una sola manciata dei suoi neuroni.

Invece sì [2][3]. Cito questo incredibile esperimento perché aiuta a capire la straordinaria flessibilità delle reti neuronali, e quindi di quelle neurali.

Continua (3 min)

Informatica a corpo libero: sorting network

Bella esperienza fatta nel lab di tecnologie didattiche a scienze della formazione primaria. Da sviluppare ulteriormente, magari tenendo conto di queste danze sul tema degli algoritmi di sorting scoperte grazie a Giancarlo Orrù. Eccone due (ve ne sono altre)

Discesa del gradiente, il motore del machine learning

Il gradiente è stato citato una volta sola nella nostra conversazione con l’AI ma vediamolo un attimo perché ci servirà nei prossimi discorsi. Intanto cos’è il machine learning che abbiamo tirato fuori nel titolo? Ci si riferisce con questo a un’ampia varietà di metodi statistici in grado di imparare da un insieme predisposto di dati per poi essere in grado di fornire risposte su nuovi dati senza bisogno di ulteriori istruzioni. La performance di un sistema di machine learning dipende da quello che ha appreso nei dati usati per l’addestramento e dalla sua architettura. Ambedue le cose sono soggette a grande variabilità.

Continua (5 min)

Nota su alcuni termini che compaiono parlando di AI: vettori e matrici

Un amico mi ha fatto notare che nel post della conversazione con l’AI sarebbero utili delle note esplicative in parole povere di termini estranei all’uso comune, come gradiente, matrici, etc. Ha ragione anche perché qui mi rivolgo a lettori non specializzati. Nessuna pretesa di completezza. Mi sforzo di dire il minimo per dare un’idea intuitiva di alcuni concetti in relazione all’armamentario dell’AI. Mi riferisco inoltre ai sistemi di Natural Language Processing, tipo ChatGPT e similari.

Continua: 5 min

Conversazione sull’AI con l’AI

22 aprile — Un amico mi ha fatto notare che ci starebbero bene delle note esplicative in parole povere di termini estranei all’uso diffuso come gradiente, matrici, etc. Ha ragione. Intanto ecco una nota su vettori e matrici e una sulla discesa del gradiente.


Mi sto divertendo a guardare sotto il cofano dell’AI. È un po’ come guardare sotto il cofano di un’automobile odierna per uno che ha conosciuto quelle di cinquant’anni fa. In quelle moderne lì per lì ti confondi perché sono piene zeppe di dispositivi e ammenicoli vari ma poi, piano piano si inizia a riconoscere le parti essenziali, girando di qua o di là intorno al motore o alzando qualche coperchio di plastica.

Così succede con gli arnesi del mestiere di un tempo, che dopo un po’ emergono dall’intrico di accorgimenti e trovate più o meno geniali dell’AI, e si ritrovano cose come metodi iterativi, massimo gradiente, regolarizzazione, retroproiezione e via dicendo.

Agisco principalmente in due direzioni: 1) studiando articoli scritti da specialisti dell’AI, cioè di coloro che la stanno facendo; 2) scaricando e provando alcuni sistemi messi a disposizione da Google, alcuni autori e altri, non per mettere su qualcosa ma per toccare con mano alcune delle cose che studio.

Mi astengo da perdermi nell’eccesso di cose dette, troppe e spesso, mi pare, avventate o palesemente insensate. Molto più equilibrati e prudenti i pareri degli specialisti che affrontano seriamente i vari problemi che affliggono l’AI, anche molto gravi e senza chiare prospettive di soluzione. Li affronterò piano piano qui ma mi pare divertente iniziare riportando un’interessante discussione avuta fra ieri e oggi con ChatGPT 4.0, che ho provato a coinvolgere in un approfondimento su alcuni aspetti tecnici di ciò che la fa funzionare. Particolarmente interessante è il giudizio equilibrato sulle differenze fra la sua intelligenza e quella umana nella parte finale della conversazione, giudizio che pare più ponderato di tanti proclami che capita di leggere.

Ho usato l’inglese perché la quantità di dati usata per l’addestramento è dominata dall’inglese e questo influenza le performance. Qui volevo confrontarmi con un’AI meno allucinata possibile.

Mi sono focalizzato sui cosiddetti transformer e in particolare il meccanismo dell’auto-attenzione (Ashish et al, Attention is all you need, Computation and Launguage, Arxiv, 2017), la trovata che ha rapidamente sostituito le reti ricorrenti nel Natural Language Processing (NLP).

Il titolo è stato scelto da ChatGPT stessa.

Continua (10 min)

Il laboratorio sui confini con gli insegnanti di Foqus

L’idea era di fare un laboratorio sui confini lavorando sulla mappa dell’Isola di Procida con un gruppo di insegnanti della Fondazione Quartieri Spagnoli (Foqus) per studiare, con matite compasso e righello, la relazione fra certo e incerto, i frattali, altre cose. Qualche tempo prima del laboratorio arriva un messaggio da Pamela e Paolo:

Continua (10 min)