AI: non parole ma tocchetti

Difficile fare un discorso breve sull’AI. Questi appunti sono destinati a proliferare, obbligandoci anche a compiere vari passi indietro. Ad esempio, è già emerso come per l’AI le parole siano meri numeri ma non si tratta di una semplice questione di codifica. Se lasciamo la cosa lì rischiamo di capire poco.

Cosa intendiamo normalmente per codifica? Ad esempio, semplificando, le lettere che sto scrivendo in questo testo vengono immediatamente trasformate in sequenze di uno e zero, un byte (otto bit) per ogni carattere, per la precisione. Il testo verrà memorizzato, eventualmente elaborato e infine in qualche modo riprodotto ma all’interno di tale processo i byte viaggeranno indisturbati, codici di simboli che per noi sono lettere. Altrettanto indisturbate viaggeranno le parole composte da tali lettere, e così i relativi significati.

Nell’AI la storia è assai diversa e ritroveremo le nostre fidate parole disperse in spazi talmente complessi da non potere essere immaginati. Ci vorrà un po’ di tempo e un po’ di fantasia per farsene una ragione. Andiamo quindi per gradi rifacendosi dall’inizio: cosa succede ad una parola appena introdotta nell’AI?

Continua (3 min)

Può un topo guidare un aereo?

Più precisamente, possono controllare il volo di un aereo simulato 25’000 neuroni della corteccia cerebrale di un topo? Ovvero meno di un mm2 di corteccia cerebrale[1]? Risposta quasi ovvia: no, perché niente sa il topo di un aereo, figuriamoci una sola manciata dei suoi neuroni.

Invece sì [2][3]. Cito questo incredibile esperimento perché aiuta a capire la straordinaria flessibilità delle reti neuronali, e quindi di quelle neurali.

Continua (3 min)

Informatica a corpo libero: sorting network

Bella esperienza fatta nel lab di tecnologie didattiche a scienze della formazione primaria. Da sviluppare ulteriormente, magari tenendo conto di queste danze sul tema degli algoritmi di sorting scoperte grazie a Giancarlo Orrù. Eccone due (ve ne sono altre)

Discesa del gradiente, il motore del machine learning

Il gradiente è stato citato una volta sola nella nostra conversazione con l’AI ma vediamolo un attimo perché ci servirà nei prossimi discorsi. Intanto cos’è il machine learning che abbiamo tirato fuori nel titolo? Ci si riferisce con questo a un’ampia varietà di metodi statistici in grado di imparare da un insieme predisposto di dati per poi essere in grado di fornire risposte su nuovi dati senza bisogno di ulteriori istruzioni. La performance di un sistema di machine learning dipende da quello che ha appreso nei dati usati per l’addestramento e dalla sua architettura. Ambedue le cose sono soggette a grande variabilità.

Continua (5 min)

Nota su alcuni termini che compaiono parlando di AI: vettori e matrici

Un amico mi ha fatto notare che nel post della conversazione con l’AI sarebbero utili delle note esplicative in parole povere di termini estranei all’uso comune, come gradiente, matrici, etc. Ha ragione anche perché qui mi rivolgo a lettori non specializzati. Nessuna pretesa di completezza. Mi sforzo di dire il minimo per dare un’idea intuitiva di alcuni concetti in relazione all’armamentario dell’AI. Mi riferisco inoltre ai sistemi di Natural Language Processing, tipo ChatGPT e similari.

Continua: 5 min

Conversazione sull’AI con l’AI

22 aprile — Un amico mi ha fatto notare che ci starebbero bene delle note esplicative in parole povere di termini estranei all’uso diffuso come gradiente, matrici, etc. Ha ragione. Intanto ecco una nota su vettori e matrici e una sulla discesa del gradiente.


Mi sto divertendo a guardare sotto il cofano dell’AI. È un po’ come guardare sotto il cofano di un’automobile odierna per uno che ha conosciuto quelle di cinquant’anni fa. In quelle moderne lì per lì ti confondi perché sono piene zeppe di dispositivi e ammenicoli vari ma poi, piano piano si inizia a riconoscere le parti essenziali, girando di qua o di là intorno al motore o alzando qualche coperchio di plastica.

Così succede con gli arnesi del mestiere di un tempo, che dopo un po’ emergono dall’intrico di accorgimenti e trovate più o meno geniali dell’AI, e si ritrovano cose come metodi iterativi, massimo gradiente, regolarizzazione, retroproiezione e via dicendo.

Agisco principalmente in due direzioni: 1) studiando articoli scritti da specialisti dell’AI, cioè di coloro che la stanno facendo; 2) scaricando e provando alcuni sistemi messi a disposizione da Google, alcuni autori e altri, non per mettere su qualcosa ma per toccare con mano alcune delle cose che studio.

Mi astengo da perdermi nell’eccesso di cose dette, troppe e spesso, mi pare, avventate o palesemente insensate. Molto più equilibrati e prudenti i pareri degli specialisti che affrontano seriamente i vari problemi che affliggono l’AI, anche molto gravi e senza chiare prospettive di soluzione. Li affronterò piano piano qui ma mi pare divertente iniziare riportando un’interessante discussione avuta fra ieri e oggi con ChatGPT 4.0, che ho provato a coinvolgere in un approfondimento su alcuni aspetti tecnici di ciò che la fa funzionare. Particolarmente interessante è il giudizio equilibrato sulle differenze fra la sua intelligenza e quella umana nella parte finale della conversazione, giudizio che pare più ponderato di tanti proclami che capita di leggere.

Ho usato l’inglese perché la quantità di dati usata per l’addestramento è dominata dall’inglese e questo influenza le performance. Qui volevo confrontarmi con un’AI meno allucinata possibile.

Mi sono focalizzato sui cosiddetti transformer e in particolare il meccanismo dell’auto-attenzione (Ashish et al, Attention is all you need, Computation and Launguage, Arxiv, 2017), la trovata che ha rapidamente sostituito le reti ricorrenti nel Natural Language Processing (NLP).

Il titolo è stato scelto da ChatGPT stessa.

Continua (10 min)

Il laboratorio sui confini con gli insegnanti di Foqus

L’idea era di fare un laboratorio sui confini lavorando sulla mappa dell’Isola di Procida con un gruppo di insegnanti della Fondazione Quartieri Spagnoli (Foqus) per studiare, con matite compasso e righello, la relazione fra certo e incerto, i frattali, altre cose. Qualche tempo prima del laboratorio arriva un messaggio da Pamela e Paolo:

Continua (10 min)

Un laboratorio sui confini presso Foqus

Un laboratorio sui confini. Un’esplorazione geografica e storica, scientifica e teatrale, presso la Fondazione Quartieri Spagnoli. Gli insegnanti di Foqus condurranno la parte teatrale, io quella scientifica. Alcuni misureranno i confini di isole formate con i corpi degli altri. Poi di altre isole: Procida, Gran Bretagna, Isola Tonda, Isola di Koch. Lo faremo con compasso e righello, come Dio in questa miniatura del XIII secolo.

Vedremo come uno scienziato possa scoprire un fenomeno senza comprenderne la natura e come questo risultato possa servire successivamente ad un altro per comprenderlo appieno, creando una branca completamente nuova della matematica. Ci avvicineremo così al concetto di infinito, trovandolo sorprendentemente vicino al finito.

Lo studio del confine, luogo di separazione ma anche di incontro e di scambio, o oggetto di contesa e fonte di tensioni politiche, ci mostrerà la complessa relazione fra scienza e politica.

Foqus è un luogo di incontro fra realtà diverse, luogo ideale per un laboratorio sui confini.

Presentazione de “I granci della marana” a San Polo in Chianti il 6 aprile scorso

È raro che promuova eventi — non esattamente la mia passione — ma questa era un’occasione particolare. Non me la voglio dimenticare.

Elio Di Michele, curatore de “I granci della marana” mostra il dattiloscritto ricevuto dalla famiglia di Irene Bernasconi, durante la presentazione del libro avvenuta il 6 aprile scorso presso la Biblioteca San Polo in Chianti in collaborazione con l’Associazione Montessori Chianti.

Come funziona il cervello? E le macchine?

Oggi al lab di tecnologie didattiche a Scienze della Formazione Primaria:

Come funziona il cervello? Cosa ci serve sapere per imparare e insegnare? E le macchine? Come imparano? L’arte della simulazione: gioia e dolore dello scienziato contemporaneo

Useremo materiali tratti da:

  • Uncommon sense of teaching – Oakley, Rogowsky, Sejnowski
  • Imparare – Dehaene
  • L’universo in una scatola – Pontzen
  • L’intelligenza artificiale – Mitchell
  • Scuola e intelligenza artificiale – Ranieri, Cuomo, Biagini
  • Neural networks and deep learning – Nielsen
  • “Brain” In A Dish Acts As Autopilot Living Computer – DeMarse
  • The False Promise of ChatGPT – Noam Chomsky
  • E vedremo girare su laptop una rete neurale che riconosce caratteri scritti a mano (Nielsen).

PS: Non volevo occuparmi ora di AI perché detesto le mode, anche se la seguo dagli albori perché la matematica che la sostiene mi affascina. La pressione mediatica è però eccessiva, non posso fare finta che non ci sia parlando di tecnologie con gli studenti, vabbé…