La storia dell'IA

Dalla visione alla realtà

La storia dell'intelligenza artificiale è un viaggio affascinante, ricco di scoperte, battute d'arresto e svolte inaspettate. Ciò che un tempo era considerato fantascienza oggi fa parte della nostra vita quotidiana. Per capire dove ci troviamo oggi, vale la pena ripercorrere le tappe fondamentali.

Il test di Turing (1950): Il matematico britannico Alan Turing pubblicò nel 1950 il suo celebre saggio «Computing Machinery and Intelligence». Vi poneva la domanda provocatoria: «Le macchine possono pensare?» Propose un esperimento – oggi noto come test di Turing – in cui un essere umano comunica tramite messaggi di testo con una macchina e un altro essere umano. Se l'interrogatore non riesce a distinguere chi è l'umano e chi è la macchina, quest'ultima ha superato il test. Questo test influenza la ricerca sull'IA fino ad oggi.

Il termine «Artificial Intelligence» fu coniato ufficialmente nel 1956 alla conferenza di Dartmouth. Ricercatori come John McCarthy, Marvin Minsky e Claude Shannon erano convinti che le macchine avrebbero raggiunto l'intelligenza umana nell'arco di una generazione. Questo entusiasmo portò ai primi programmi in grado di giocare a scacchi, produrre dimostrazioni matematiche o simulare semplici conversazioni.

Gli alti e bassi della ricerca sull'IA

L'era pionieristica e il primo inverno dell'IA

Negli anni '50 e '60 regnava un grande entusiasmo. Programmi come ELIZA (1966) simulavano semplici conversazioni terapeutiche, e la ricerca compiva rapidi progressi nella risoluzione di problemi logici. Ma le promesse iniziali erano troppo ambiziose. Quando divenne chiaro che la vera intelligenza umana era molto più complessa del previsto, i governi e le aziende tagliarono drasticamente i finanziamenti. Il primo inverno dell'IA (ca. 1974–1980) era iniziato, una fase di disillusione e di ricerca ridotta.

I sistemi esperti e il secondo inverno dell'IA

Negli anni '80, l'IA conobbe una rinascita grazie ai sistemi esperti. Questi programmi codificavano la conoscenza di esperti umani sotto forma di regole («Se sintomo X e Y, allora diagnosi Z»). Le aziende investirono miliardi. Ma i sistemi esperti erano costosi da mantenere, fragili di fronte a input imprevisti e difficili da aggiornare. Il secondo inverno dell'IA (ca. 1987–1993) seguì. Un momento saliente di quest'epoca: nel 1997, Deep Blue di IBM sconfisse il campione mondiale di scacchi in carica Garry Kasparov, una tappa simbolica, anche se Deep Blue operava più con la forza di calcolo bruta che con l'«intelligenza».

Big Data e Deep Learning

Con Internet, i volumi di dati disponibili esplosero. Il 2012 segnò la svolta: la rete neurale AlexNet vinse la competizione ImageNet con un vantaggio che sbalordì la comunità scientifica. Il Deep Learning, l'addestramento di reti neurali profonde, divenne improvvisamente praticabile, grazie a GPU potenti e immensi set di dati. Nel 2016, AlphaGo di Google sconfisse il campione mondiale di Go Lee Sedol. Il Go era considerato troppo complesso per i computer. Questa vittoria fu uno shock. Nel 2017, ricercatori di Google pubblicarono l'articolo «Attention Is All You Need» e presentarono l'architettura Transformer, la base di tutto ciò che seguì.

La rivoluzione dei Transformer e l'IA generativa

Dal 2018, modelli linguistici come BERT e GPT trasformarono radicalmente il panorama. ChatGPT (novembre 2022) raggiunse 100 milioni di utenti in soli due mesi, la crescita più rapida di un'applicazione nella storia. Improvvisamente, tutti potevano «parlare» con l'IA. Da allora, il ritmo si è ulteriormente accelerato: i modelli multimodali comprendono simultaneamente testo, immagini, audio e video. Gli agenti IA possono eseguire compiti in modo autonomo e utilizzare strumenti. Entro il 2026, l'IA si è insediata in praticamente tutti i settori professionali, dalla medicina al diritto fino allo sviluppo software.

Cosa ci insegna la storia

La storia dell'IA rivela uno schema ricorrente: fasi di aspettative esagerate sono seguite da fasi di disillusione. Oggi ci troviamo in una fase in cui l'IA mantiene effettivamente le sue promesse, ma è importante conservare aspettative realistiche. L'IA è uno strumento potente, non un'intelligenza onnisciente.

Hype vs. realtà: Anche oggi c'è molto clamore attorno all'IA. Non tutto ciò che viene commercializzato come «supportato dall'IA» mantiene le promesse. Una buona dose di pensiero critico ti aiuta a distinguere la vera innovazione dalle parole d'ordine del marketing. In passato, aspettative eccessive hanno portato agli inverni dell'IA. L'attuale boom dell'IA è tuttavia fondamentalmente diverso: la tecnologia offre già un valore misurabile nella pratica, e lo sviluppo continua ad accelerare.
Quale evento è considerato il punto di svolta per il Deep Learning nel 2012?
Corretto! La vittoria schiacciante di AlexNet alla competizione ImageNet nel 2012 ha mostrato al mondo che le reti neurali profonde erano utilizzabili nella pratica, e ha innescato la rivoluzione del Deep Learning.
Non del tutto. Deep Blue vinse nel 1997, l'architettura Transformer è del 2017. La svolta del 2012 fu la vittoria di AlexNet alla competizione ImageNet, che dimostrò in modo impressionante la potenza del Deep Learning.
Punti chiave:
  • La ricerca sull'IA è iniziata negli anni '50 con le idee visionarie di Alan Turing e la conferenza di Dartmouth.
  • Due «inverni dell'IA» (1974–1980, 1987–1993) sono nati da aspettative eccessive e speranze deluse.
  • La svolta di ImageNet nel 2012 e l'architettura Transformer nel 2017 hanno gettato le basi dell'attuale rivoluzione dell'IA.
  • ChatGPT (2022) ha reso l'IA accessibile al grande pubblico e ha accelerato enormemente lo sviluppo.
  • La storia ci insegna: il pensiero critico e le aspettative realistiche restano importanti anche oggi.