
Ogni giorno sentiamo parlare di intelligenza artificiale ignorando i tasselli che, uno dopo l’altro, hanno contribuito alla sua nascita e sviluppo. In questo articolo faremo chiarezza sul percorso di questa disciplina, partendo dalle prime tracce storiche fino alle prospettive future.
Gli antefatti filosofici
Contrariamente a quanto si possa pensare, le radici dell’intelligenza artificiale si individuano già nella Grecia antica, quando filosofi come Platone e Aristotele affrontano temi relativi all’intelletto, anticipando così una serie di concetti che avrebbero posto le basi per i futuri ragionamenti sull’intelligenza artificiale.
Platone, attraverso la sua teoria delle idee, offre un modello che spiega come la conoscenza della realtà avvenga tramite una categorizzazione delle cose attorno a noi, resa possibile dalle idee universali e trascendenti. Aristotele, al contrario, pensa che le essenze si trovino nelle cose stesse e che sia il potenziale della razionalità a coglierle.
Il Medioevo è un’altra tappa del percorso, poiché durante questa fase storica si sviluppano automi meccanici complessi principalmente per scopi religiosi e di intrattenimento, come orologi astronomici o automi da tavola per divertire gli ospiti durante i banchetti nobiliari.
Questi, per quanto non fossero tecnologicamente sofisticati come i robot moderni, rappresentano un’importante forma di espressione creativa e di ingegno del tempo, che stimola l’immaginazione sulla possibilità di ideare macchine intelligenti.

Si passa poi al periodo rinascimentale, contrassegnato da una rivalutazione dell’uomo, concepito come centro dell’universo e unico essere in grado di indagare la natura con le sue facoltà. Il pensiero cartesiano, sviluppatosi nel XVII secolo, è propedeutico al futuro sviluppo dell’IA basato sulla logica.
Cartesio, infatti, ci offre un modello preciso di soggetto pensante distinto dal corpo e definito dalla sua capacità di cogitare e razionalizzare il monto attraverso la ragione. Il suo contributo è fondamentale perché, tutt’oggi, non ci siamo ancora liberati di questo modello e tendiamo ad integrare alcuni suoi elementi con approcci più olistici.
Generazione e nascita dell’IA
Fino ad ora abbiamo citato contributi a livello puramente ideologico, che hanno plasmato l’idea di un pensiero umano logico e razionale, potenzialmente riproducibile, quindi, da una macchina artificiale. L’ideazione di nuovi algoritmi e linguaggi di programmazione è stata ispirata da Alan Turing, matematico britannico considerato, a buon diritto, uno dei padri fondatori dell’IA.
Ricordiamo Turing per aver elaborato a livello teorico, nel 1936, una macchina che, programmata a dovere, era in grado di svolgere qualsiasi tipo di operazione. La macchina di Turing viene oggi considerata come il prototipo dei moderni computer. Per di più, negli anni ‘50 ha ideato il noto test di Turing, secondo cui una macchina può essere considerata intelligente se, rispondendo alle domande di un intervistatore umano, quest’ultimo non riesce a capire se sta parlando con una macchina o meno.

A questo proposito, nel suo noto articolo Computing Machinery and intelligence, Turing ipotizza che, in un futuro prossimo, le macchine saranno in grado di pensare come gli esseri umani, rendendo sempre più sottile la linea di confine tra intelligenza umana e artificiale.
L’IA moderna
Gli anni ‘50 sono decisamente un punto di svolta per l’intelligenza artificiale; infatti, è proprio in questo periodo che vengono effettuati i primi tentativi di riprodurre i meccanismi di funzionamento del cervello attraverso modelli matematici.
Pionieri come Warren McCulloch e Walter Pitts sviluppano il primo modello di neurone artificiale, spianando la strada per un’IA basata sulle reti neurali e, di conseguenza, dando inizio alla distinzione tra IA forte, in grado di replicare l’intelligenza umana, e IA debole, il cui obiettivo è sviluppare sistemi in grado di svolgere una o più funzioni umane complesse (si pensi al motore NSS progettato per giocare a scacchi).
Si inizia a parlare di ‘intelligenza artificiale’ intesa come disciplina scientifica a partire dal 1956, anno in cui si tiene la conferenza di Dartmouth dove John McCarthy utilizza l’espressione per la prima volta.
Machine learning
McCarthy è noto per aver contribuito allo sviluppo di linguaggi per l’elaborazione simbolica, un approccio basato sull’uso di simboli per rappresentare e risolvere i problemi conosciuto come knowledge representation. Questo concetto è alla base della pianificazione: la sequenza di operazioni necessarie per raggiungere un certo obiettivo.
Nel corso di tale processo dinamico può emergere il cosiddetto Frame Problem, che consiste nell’incapacità della macchina di determinare quali aspetti di una situazione o di un ambiente considerare importanti e quali tralasciare, così da non appesantire il sistema nella presa di decisione. Questo impediva che la macchina interagisse e si co-evolvesse con l’ambiente, limitandosi a percepire simbolicamente il mondo esterno ed agire su di esso senza avere percezione di ciò che cambia.
L’abbandono del paradigma simbolico porterà alla luce una nuova idea di pianificazione mirata all’adattamento e, soprattutto, all’apprendimento. Il machine learning (apprendimento automatico) è infatti il ramo dell’IA che si sviluppa lentamente tra gli anni ’50 e ‘80 e che si occupa di addestrare le macchine ad acquisire nuovi dati e a migliorare con l’esperienza.
Il primo tentativo di creare un sistema che potesse apprendere autonomamente è il Perceptron di Rosenblatt: una macchina ispirata al funzionamento dei neuroni nel cervello e basata su algoritmi di apprendimento per associazione di pattern.
Sempre sulla stessa linea d’onda, negli anni ‘50-‘60, vengono introdotti programmi di problem solving automatico (i più noti sono LT e GPS) che emulano alcune abilità umane attraverso strategie di ricerca euristiche, facilitando così la presa di decisione razionale.

La rinascita dell’IA
Dagli anni ‘90 in poi l’IA ha vissuto una forte rinascita, attraverso sviluppi significativi in settori come il riconoscimento vocale, la guida autonoma e la traduzione automatica.
Con l’intervento di Geoffrey Hinton incomincia a svilupparsi il deep learning, che consiste in una forma di apprendimento automatico basata su reti neurali profonde. Questa introduzione ha rivoluzionato l’IA, consentendo progressi senza precedenti in campi come il riconoscimento delle immagini, il linguaggio naturale e il trattamento del suono.
Oggi siamo costantemente interconnessi e l’intelligenza artificiale impatta notevolmente sulle nostre vite quotidiane. Le prospettive spaziano dalla creazione di macchine sempre più intelligenti alla possibilità di collaborazione uomo-macchina, sollevando interrogativi sull’aspetto etico e su come plasmare un futuro in cui l’IA sia un motore di progresso e benessere per l’umanità.
Si potrebbero portare a galla una serie di preoccupazioni riguardo questa nuova tecnologia, a partire dalla sua capacità di sostituire le abilità umane con soluzioni non poco creative e originali.
Prendiamo come esempio la scrittura, un campo che ha sempre previsto l’esclusivo intervento dell’ingegno umano: alcuni sostengono che il contributo delle macchine sia un progresso, in quanto valorizza le capacità individuali fungendo da ‘aiutante’, da motore di idee; allo stesso tempo, però, c’è da considerare il possibile lato negativo dell’IA, che è incarnato dalla pigrizia intellettuale.
Infatti, avendo un appoggio costante durante un’attività complessa, è naturale che lo sforzo di pensare e concepire idee originali venga meno. Si corre anche il rischio di affidarsi all’intelligenza artificiale ancor prima di aver maturato una possibile trama e, quindi, di perdere l’aspetto creativo che caratterizza gli scrittori in carne ed ossa.
Creatività e intelligenza artificiale: un confine labile
A questo punto sorge spontanea una domanda: dove si pone il limite tra il contributo e la sostituzione? Quando possiamo considerare un autore geniale? E quando, invece, dobbiamo dare il merito ad un motore intelligente?
Recentemente, lo scrittore e sceneggiatore Pierdomenico Baccalario ha lanciato una sfida narrativa tra l’autrice esordiente Valentina Federici e un’intelligenza artificiale: alle due sfidanti è stato richiesto di scrivere un racconto a partire dalle stesse premesse e seguendo identiche regole di lavorazione.
I due contributi, raccolti nel libro Viaggio oltre l’ignoto (Il Castoro, 2024), rivelano risultati creativamente e stilisticamente molto diversi. Ad esempio, l’intelligenza artificiale tende a dilungarsi nelle descrizioni, a essere più pomposa, ripetitiva e a tratti dotata di una genialità propriamente umana (senza esserne consapevole).

L’agenzia letteraria Book On a Tree cerca di rispondere da tempo ai vari quesiti che ruotano intorno al mondo dell’IA. BOT, infatti, ha anche ideato un sistema di identificazione che indica il livello di coinvolgimento dell’IA nella creazione di opere letterarie e artistiche. Questo progetto prende il nome di AI creative license e ha l’obiettivo di promuovere la trasparenza e rivelare fino a che punto la pura inventiva umana è stata protagonista.
Un nemico da temere?
Attualmente, l’IA è sempre più presente in ambiti aziendali e, secondo il World Economic Forum, porterà addirittura alla modifica del 23% delle posizioni lavorative entro il 2027.
Per questo motivo, le imprese sono tenute ad attrezzarsi per affrontare al meglio le sfide imminenti e a sviluppare una serie di competenze ritenute fondamentali per interagire con l’IA: pensiero critico, intelligenza emotiva, creatività, collaborazione e adattabilità.
Seppur i dubbi e le inquietudini sulla sostituzione delle abilità umane con l’IA siano leciti, ritengo sia importante guardare alle innovazioni con uno sguardo attento e ottimistico. In questo modo si potrebbero identificare i benefici e i vantaggi di queste nuove tecnologie e si eviterebbe di cadere in convinzioni infondate. Il giusto approccio è proprio quello di Baccalario: “Se fossi preoccupato non avrei contribuito a creare un libro scritto a metà con l’Intelligenza Artificiale”.
Camilla Massa
(in copertina foto da Repubblica)
Per approfondire questo argomento, leggi anche l’intervista a Nello Cristianini, professore di Intelligenza Artificiale all’Università di Bath, a cura di Camilla Massa.