
L'intelligenza artificiale è una disciplina appartenente all'informatica che studia i fondamenti teorici, le metodologie e le tecniche che consentono la progettazione di sistemi hardware e sistemi di programmi software capaci di fornire all'elaboratore elettronico prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell'intelligenza umana.
(Marco Somalvico)
Indice
- Storia dell'Intelligenza Artificiale: 80 anni di evoluzione
- Le origini: dal Test di Turing al primo neurone artificiale
- 1956: John McCarthy e la nascita del termine IA
- L'Inverno dell'IA (AI Winter) e i sistemi esperti
- Gli anni '90: Deep Blue e la sfida a Kasparov
- IA Debole vs IA Forte: la teoria della Stanza Cinese
- L'era dell'IA Generativa: da ChatGPT ai modelli LLM
- Il futuro: AGI e Robotica Umanoide (Embodied AI)
Storia dell'Intelligenza Artificiale: 80 anni di evoluzione
Fin dai primi tempi di questa infinita saga, un esercito di informatici si è rimboccato le maniche per cercare di rendere le macchine sveglie quanto noi umani. Da Turing fino alle moderne magie del Deep Learning, sono passati decenni di fatiche tra algoritmi e software sempre più sofisticati, capaci di elaborare informazioni e prendere decisioni con un'autonomia e una precisione tali da emulare i processi logici del nostro cervello.
Le origini: dal Test di Turing al primo neurone artificiale
L'Intelligenza Artificiale (IA per gli amici, o AI inglese) affonda le radici nel secondo dopoguerra (non con la nascita di ChatGPT come puoi pensare), quando iniziarono a spuntare i primi calcolatori in grado di imitare, almeno in parte, il nostro modo di ragionare. Furono i primi timidi passi verso computer sempre più complessi e verso la nascita del concetto stesso di IA.
Tra gli anni '40 e '60 furono gettate le basi teoriche di tutto questo marchingegno. Pensa che già nel 1943, prima ancora che esistesse un nome per tutto ciò, Walter Harry Pitts e Warren McCulloch (un matematico e un neurofisiologo) scrissero un articolo dal titolo "A Logical Calculus of Ideas Immanent in Nervous Activity", proponendo il primissimo modello matematico di una rete neurale artificiale, quando ancora mancavano dati e potenza computazionale per mettere in pratica la teoria.
In sostanza, cercavano di capire come i neuroni del cervello potessero andare a braccetto con la logica matematica. Dimostrarono che attraverso vari tentativi, i collegamenti tra i neuroni artificiali vengono 'premiati' o 'puniti': se portano al risultato corretto si rinforzano, se invece portano a uno sbaglio perdono importanza. Insomma, questo sistema non aveva bisogno di essere programmato con regole fisse, ma poteva apprende autonomamente grazie ai pochi dati in suo possesso.
Questo lavoro è considerato la "pietra miliare" della neuroscienza computazionale e ha dato la spinta decisiva allo sviluppo delle reti neurali artificiali che usiamo oggi.
Ma il vero colpo di scena arrivò sette anni dopo, quando Alan Turing, uno che di informatica ne sapeva un bel po', pubblicò nel 1950 sulla rivista Mind l'articolo "Computing machinery and intelligence", divenuto noto come il "Test di Turing".
Era il modo definitivo per capire se una macchina sta davvero "pensando" o se ci sta solo prendendo in giro con stile.
Credit: it.wikipedia.org/wiki/Test_di_TuringQuesto test è nato per capire se una macchina potesse comportarsi in modo così intelligente da non essere distinta da una persona, segnando ufficialmente l'inizio dell'IA come materia di studio. Per intenderci, il test di Turing ricorda molto il test Voight-Kampf che si vede in "Blade Runner", usato per scovare gli androidi.
Ancora oggi, questo metodo resta il punto di riferimento per provare a separare l'intelligenza umana da quella artificiale.
Nel suo articolo, Turing si ispira al "gioco dell'imitazione", che coinvolge tre persone: un uomo (A), una donna (B) e un esaminatore (C).
Quest'ultimo, stando in un'altra stanza, deve indovinare chi sia l'uomo e chi la donna solo facendo delle domande.
A deve cercare di trarlo in inganno, mentre B deve aiutarlo a trovare la risposta giusta.
Per evitare che la calligrafia o il tono di voce rovinino il gioco, tutto avviene tramite messaggi scritti a macchina.
L'idea di Turing è semplice: cosa succede se una macchina prende il posto di A? Se l'esaminatore sbaglia con la stessa frequenza sia quando gioca con l'uomo sia quando gioca con il computer, allora dobbiamo ammettere che la macchina è intelligente, dato che, in pratica, non riusciamo a distinguerla da un essere umano.
Fonte: https://it.wikipedia.org/wiki/Test_di_Turing
Partendo dalle intuizioni di Turing, il mondo della scienza ha preso diverse strade, dalla logica pura alle reti neurali, queste ultime tornate alla ribalta con forza dalla fine degli anni 2000 grazie al Deep Learning (che, per capirci, è un "ramo" del più ampio Machine Learning).
1956: John McCarthy e la nascita del termine IA
Sempre negli anni '50, per la precisione nel 1956, il termine "Intelligenza Artificiale" così come lo usiamo oggi fu coniato da John McCarthy. Parliamo di un informatico di altissimo livello, vincitore del Premio Turing nel '71 e "papà " del linguaggio di programmazione LISP.
Proprio in quell'anno si tenne lo storico convegno al Dartmouth College, dove McCarthy si riunì con altre menti brillanti per capire come creare sistemi intelligenti: gente del calibro di Marvin Minsky, Claude Shannon (che praticamente ha inventato la teoria dell'informazione nel 1948) e Nathaniel Rochester.
L'idea di McCarthy era ambiziosa: mise insieme un team di dieci ricercatori con l'obiettivo (decisamente ottimistico) di costruire in soli due mesi una macchina capace di simulare l'apprendimento e l'intelligenza umana. In quella stessa occasione, i ricercatori Allen Newell e Herbert Simon presentarono Logic Theorist, un programma che riusciva già a dimostrare diversi teoremi matematici.
Il lavoro di Newell e Simon, con il contributo di J. C. Shaw, non si fermò lì e nel '57 diede vita al General Problem Solver (o G.P.S.). Come dice il nome, era un software progettato per imitare il modo in cui noi umani risolviamo i problemi, diventando di fatto uno dei primi veri esempi di software IA.
Gli anni successivi a quel famoso convegno furono una vera corsa ai risultati. Per rendere le cose più semplici, ecco un elenco in ordine cronologico dei contributi scientifici più interessanti:
- - 1950: Claude Elwood Shannon, un ingegnere con molta fantasia, assemblò dei circuiti telefonici per creare Theseus, un topo telecomandato capace di imparare.
Proprio come il Teseo del mito greco nel labirinto del Minotauro, questo topolino meccanico trovava l'uscita da un percorso intricato e, cosa incredibile per l'epoca, riusciva a "ricordare" la strada corretta. - - 1958: Lo psicologo Frank Rosenblatt mette alla prova il Mark I Perceptron, un colosso da sei tonnellate che provava a imitare il funzionamento dei neuroni. Fu il vero antenato del machine learning (ML), ovvero quell'insieme di regole che permettono alle macchine di imparare dall'esperienza. Se oggi il ML è ovunque, lo dobbiamo anche a questo "bestione" degli anni '50.
The Computer and the Brain: Nello stesso periodo, il geniale matematico John von Neumann provava a replicare le funzioni cerebrali usando componenti dell'epoca come valvole e ripetitori telegrafici. - - 1959: Herbert Gelemter lancia il Geometry Theorem Prover, un programma che masticava teoremi di geometria complessi senza fare una piega.
Nascono Adaline e Madaline: le prime reti neurali ad avere un "lavoro vero", ovvero ripulire le linee telefoniche dai fastidiosi echi. - - 1963: James Slagle crea Saint, un programma che se la cavava egregiamente con il calcolo integrale, risolvendo problemi che avrebbero fatto venire il mal di testa a molti studenti.
- - 1966: Joseph Weizenbaum dà vita a Eliza, il primo chatterbot della storia. Nelle intenzioni del creatore doveva essere una parodia di uno psicoterapeuta, ma finì per essere il primo vero esperimento di "chiacchierata" tra un uomo e un computer.
- - 1969: Al Carnegie Institute viene programmato Dendral, un algoritmo capace di ricostruire la struttura di una molecola partendo dai dati scientifici. Praticamente un chimico digitale.
Qui, come vedremo a breve, inizierà "l'inverno delle intelligenze artificiali", che durerà decenni. - - 1966/72: Arriva Shakey, il primo robot "intelligente" su ruote capace di muoversi nell'ambiente. Non era un fulmine, ma è stato il nonno di tutti i moderni robot mobili.
Tutti questi successi hanno dato una bella spinta alla ricerca degli anni Settanta, portando sul tavolo diverse idee su come far ragionare le macchine. Da una parte c'era l'IA simbolica, che puntava tutto sulla logica e sulla manipolazione di simboli; dall'altra l'IA connessionista, che invece scommetteva sulle reti neurali artificiali.
Un esempio di quest'ultimo approccio fu la SNARC, considerata la prima macchina a rete neurale già nel 1950, pensata per compiti come riconoscere schemi, imparare in autonomia e guidare i movimenti dei robot.
L'Inverno dell'Intelligenza Artificiale (AI Winter)
Dopo anni di ricerche piuttosto promettenti, qualcosa iniziò a scricchiolare. Nonostante i grandi proclami iniziali, molti progetti non portarono ai risultati sperati, diffondendo un certo scetticismo tra gli scienziati e, soprattutto, tra chi staccava gli assegni per i finanziamenti. È qui che inizia il periodo ribattezzato "inverno dell'IA" (AI winter), un nome che rende bene l'idea del gelo che calò sul settore.
In quegli anni, molte aziende e istituzioni tirarono i remi in barca, ridimensionando o chiudendo i laboratori. Il problema principale? I computer dell'epoca non avevano abbastanza "potenza": la scarsa capacità di calcolo rendeva quasi impossibile mettere in pratica gli algoritmi e i modelli di IA più complessi, che restavano così solo bellissime teorie sulla carta.
Ma non tutto era perduto. Anche in questo periodo apparentemente di stallo, non mancarono scoperte interessanti, soprattutto nell'apprendimento automatico e nell'elaborazione del linguaggio.
Tra gli anni '60 e '70 l'attenzione si spostò sui sistemi esperti, programmi progettati per imitare le decisioni di un esperto umano in settori specifici. In pratica, erano software che usavano logica e regole precise per risolvere problemi complicati o fornire consulenze basate sui dati ricevuti.
Per funzionare, un sistema esperto ha bisogno di tre pezzi fondamentali: una base di conoscenza (il "sapere"), un motore di inferenza (il "ragionamento") e un'interfaccia per comunicare con l'utente.
Tra i nomi che hanno fatto storia troviamo DENDRAL, nato a Stanford per analizzare i composti chimici, e MYCIN, sviluppato sempre a Stanford per aiutare i medici a diagnosticare le infezioni batteriche del sangue.
Sempre in quel periodo (era il '78) arrivò R1 (conosciuto anche come XCON), un programma scritto da John P. McDermott.
Quando la Digital Equipment Corporation iniziò a usarlo seriamente nel 1980, si accorse che il software le faceva risparmiare circa 40 milioni di dollari l'anno: un bel modo per dimostrare che l'IA poteva essere utilissima anche nel mondo dell'industria.
Nel frattempo, facevano capolino nuovi modi di programmare, come la logica fuzzy e la programmazione logica. Nel 1980 arrivarono i sistemi esperti di seconda generazione, che finalmente smisero di vedere tutto "bianco o nero" introducendo i modelli probabilistici.
Grazie a questi progressi, l'entusiasmo (e i fondi) tornò a farsi sentire, portando alla creazione di programmi capaci di giocare a scacchi quasi come dei professionisti.
Non si dovrà aspettare tanto prima che accada. Un primo esempio di macchina per giocare a scacchi contro il Computer fu ideata nell'85 da uno studente laureato alla Carnegie Mellon University. Il suo nome era Feng-hsiung Hsu. La chiamò ChipTest.
La prima versione era capace di ricercare circa 50.000 mosse al secondo.
Con la nuova versione dell'87 che prese il nome di ChipTest-M arrivò alle 500.000 mosse al secondo.
Murray Campbell (un suo compagno di classe) si unì a lui nel '89. Entrambi furono assunti per lavorare presso l'IBM Research.
ChipTest fu il predecessore di Deep Thought, quest'ultimo portò più avanti allo sviluppo del famoso supercomputer Deep Blue.
Gli anni '90 e la sfida storica tra Deep Blue e Kasparov
La vera riscossa arrivò negli anni '90, segnando la fine del lungo gelo degli "inverni dell'IA". Tuttavia, per vedere investimenti davvero massicci e un interesse globale, abbiamo dovuto aspettare l'inizio del ventunesimo secolo.
È in questo periodo che l'apprendimento automatico ha iniziato a fare centro sia nelle università che nelle industrie, grazie a un mix vincente: metodi di calcolo innovativi, hardware finalmente potenti e una quantità impressionante di dati da dare in pasto alle macchine.
Uno degli eventi più famosi di quegli anni fu la leggendaria sfida a scacchi tra il campione del mondo Garri Kasparov e Deep Blue, il supercomputer targato IBM. Fu un vero scontro tra titani (anche se uno dei due funzionava a elettricità ).
Dietro i circuiti di Deep Blue c'era un team di tutto rispetto, guidato da menti come Jerry Brody, Murray Campbell e Feng-hsiung Hsu, quest'ultimo aveva già iniziato a masticare l'idea di un computer scacchista nel lontano '85 con il progetto ChipTest, insieme a A. Joseph Hoane Jr., Joel Benjamin e Chung-Jen Tan.
La sfida si giocò in sei round. La prima partita, disputata a Philadelphia il 10 febbraio del '96, fu vinta da Kasparov. Ma l'anno dopo, a New York (dal 3 all'11 maggio '97), le cose cambiarono: grazie a un aggiornamento che gli permetteva di calcolare ben 200 milioni di mosse al secondo, Deep Blue ebbe la meglio sul campione in sole 19 mosse. Il torneo si concluse con un risultato storico: due vittorie per il computer di IBM, una per Kasparov e tre pareggi. Non esattamente un trionfo per l'orgoglio umano.
Questo successo clamoroso aprì la strada allo sviluppo di software scacchistici (e non solo, pensiamo ad esempio al complesso gioco del Go, quando nel 2016 AlphaGo di Google sconfisse il campione coreano Lee Sedol) capaci di superare anche i più grandi campioni della storia.
Ma gli anni '90 non sono stati solo scacchi e supercomputer; anche la robotica ha fatto passi da gigante. Un esempio memorabile è ASIMO, l'umanoide sviluppato da Honda nel 2000. Era il pezzo forte di una ricerca iniziata nell'86 e, per l'epoca, sembrava quasi un miracolo: poteva camminare, correre, salire le scale e interagire con le persone senza inciampare (quasi mai).
E come dimenticare Sony AIBO? Lanciato nel 1999, era un cagnolino robotico in grado di riconoscere la voce del padrone e di interagire con l'ambiente circostante. In pratica, il primo animale domestico che non perdeva pelo e non mangiava le scarpe.
IA Debole vs IA Forte: la teoria della Stanza Cinese
Sarebbe utile per testare ipotesi sulle menti, ma in realtà non sarebbero menti (John Searle)
Per proseguire con la nostra storia, dobbiamo fare un piccolo salto all'indietro. Nel 1980, il filosofo americano John Searle pubblicò l'articolo Minds, Brains and Programs. Il suo obiettivo era dimostrare, una volta per tutte, che i computer non potranno mai "pensare" davvero, indipendentemente da quanto diventeranno potenti.
È proprio qui che nasce il dibattito tra "IA debole" e "IA forte", un tema che fa ancora discutere parecchio gli esperti. Per dare forza alla sua tesi, Searle si inventò un esperimento mentale piuttosto famoso, chiamato la "Stanza Cinese", lanciando una bella sfida al Test di Turing.
Immagina un madrelingua inglese che non conosce il cinese chiuso in una stanza piena di scatole di simboli cinesi (un database) insieme a un libro di istruzioni per manipolare i simboli (il programma). Immagina che le persone fuori dalla stanza inviino altri simboli cinesi che, sconosciuti alla persona nella stanza, sono domande in cinese (l'input).
E immagina che seguendo le istruzioni del programma l'uomo nella stanza sia in grado di distribuire simboli cinesi che sono risposte corrette alle domande (l'output). Il programma consente alla persona nella stanza di superare il test di Turing per capire il cinese ma non capisce una parola di cinese.
Searle continua dicendo: "Il punto della discussione è questo: se l'uomo nella stanza non capisce il cinese sulla base dell'implementazione del programma appropriato per comprendere il cinese, allora nemmeno nessun altro computer digitale lo fa solo su quella base perché nessun computer, in quanto computer, ha tutto ciò che l'uomo non ha.
Fonte: plato.stanford.edu
Il dibattito nato al tempo della Stanza Cinese di John Searle tra questi tipi di sistemi è stato un tema centrale nella ricerca e nello sviluppo. La prima, ha fatto enormi progressi e viene utilizzata in larga scala, la seconda è tutt'oggi un obiettivo ambizioso che richiede ulteriori avanzamenti nel campo tecnologico e scientifico.
Ad ogni modo, se vogliamo dare uno sguardo a un futuro forse non così lontano, ci vengono in aiuto i film di fantascienza. Pellicole come Metropolis, 2001: Odissea nello spazio, Terminator, L'uomo bicentenario, Ex Machina o Interstellar, ci offrono tutti un esempio piuttosto concreto (e a volte un po' inquietante) di quello che potrebbe aspettarci.
Questo ipotetico futuro sarà l'era della Superintelligenza Artificiale (ASI), un concetto che va ben oltre l'IA forte. Parliamo di macchine capaci, almeno in teoria, di superare l'uomo in qualsiasi attività e di avere una vera e propria consapevolezza di sé. Succederà tra qualche decennio o tra cento anni? Difficile dirlo. Per ora, la sfida vera è affrontare le questioni etiche e di sicurezza che questa corsa al progresso si porta dietro, per evitare di trovarci impreparati.
A questo punto ti starai chiedendo: ma qual è, in soldoni, la differenza tra IA debole e IA forte? Giusto?
Bene. Quando parliamo di "intelligenza artificiale debole" (o ristretta), ci riferiamo a sistemi capaci di gestire compiti umani anche molto complessi, ma senza avere una comprensione generale di ciò che stanno facendo o una vera coscienza.
Questi sistemi funzionano grazie ad algoritmi e modelli di Machine Learning, ma non sono intelligenti nel senso umano del termine, perché non sanno pensare in modo autonomo. Gli assistenti virtuali che abbiamo in tasca, come Siri e Alexa, ne sono l'esempio perfetto.
Al contrario, con "intelligenza artificiale forte" si descrive una sorta di intelligenza superiore, capace di eguagliare o addirittura superare le facoltà cognitive umane a 360 gradi.
| Caratteristica | IA Debole (Weak AI) | IA Forte (Strong AI / AGI) |
|---|---|---|
| Obiettivo | Compiti specifici (Narrow AI) | Intelligenza umana generale |
| Consapevolezza | Simulazione, nessuna mente | Coscienza e comprensione reale |
| Esempi | Siri, ChatGPT, Google Maps | Ancora teorica (fantascienza) |
L'era dell'IA Generativa: da ChatGPT ai modelli LLM
Dall'articolo A Logical Calculus of Ideas Immanent in Nervous Activity, scritto nel lontano '43 da Pitts e McCulloch, a oggi ne abbiamo fatta di strada. Negli ultimi vent'anni, la tecnologia ha cambiato pelle, trasformando radicalmente il modo in cui lavoriamo e comunichiamo. Con l'arrivo della fibra, degli smartphone e dei social, ormai siamo abituati a essere sempre connessi: possiamo informarci e scambiare opinioni con chiunque, in qualsiasi angolo del pianeta, con un semplice clic.
Grazie ai passi da gigante fatti dal machine learning e dal deep learning, che sfruttano reti neurali sempre più articolate, oggi abbiamo tra le mani strumenti incredibili: dal riconoscimento vocale alle traduzioni istantanee, passando per la visione artificiale (quella che riconosce i volti o le immagini) e l'analisi predittiva. Sono sistemi che stanno rivoluzionando settori cruciali, come la medicina se pensiamo alle diagnosi fatte dall'IA, o le fabbriche intelligenti, puntando a renderci la vita un po' più semplice ogni giorno.
Anche l'elaborazione del linguaggio naturale (NLP) negli ultimi anni ha compiuto passi da gigante grazie all'avvento dei modelli LLM (Large Language Models) e dell'IA Generativa, consentendo alle macchine di comprendere, contestualizzare e rispondere al linguaggio umano con una precisione quasi umana.
ChatGPT (lanciato ufficialmente al pubblico il 30 novembre 2022, ci lavorava dal 2018), Gemini, Claude, Grok e Writesonic sono alcune delle piattaforme più famose per il momento, capaci di trasformare semplici input testuali in contenuti complessi in pochi secondi.
Insomma, siamo già strapieni di IA: dalle organizzazioni Big Tech come Google, Microsoft e Amazon al settore sanitario, finanziario e dei trasporti come ad esempio le auto senza conducente.
A questo punto c'è da chiedersi se tutto questo può in qualche modo nuocere all'Uomo. Dobbiamo preoccuparci dello sviluppo dell'intelligenza artificiale?
Per molti questo repentino cambiamento è un bene e sarà ancor meglio in futuro, per altri forse non lo è e non lo sarà mai.
Pensa a come sarebbe l'alternativa. Se tu e il grande pubblico non vi informate e non vi impegnate, allora lasciamo che siano pochi imprenditori e ingegneri a decidere come questa tecnologia trasformerà il nostro mondo.
Questo è lo status quo. Questo piccolo numero di persone in alcune aziende tecnologiche che lavorano direttamente sull'IA capisce quanto sta diventando straordinariamente potente questa tecnologia. Se il resto della società non si impegna, allora sarà questa piccola élite a decidere come questa tecnologia cambierà le nostre vite.
Il futuro: AGI e Robotica Umanoide (Embodied AI)
Forse non c'è ne rendiamo conto, viviamo già immersi nel futuro. Anche se i cambiamenti più profondi devono arrivare, questa tecnologia sempre più avanzata e autonoma giocherà un ruolo importante nella società .
L'AI4SDGs Think Tank ha aggiornato recentemente la lista di progetti e proposte basati sull'IA suddivise in 17 categorie sottoscritta nel 2015 da oltre 190 paesi ONU.
L'obiettivo è promuovere l'uso positivo dell'IA per lo sviluppo sostenibile delle Nazioni Unite entro il 2030. Se hai qualche minuto dacci un'occhiata.
In passato, come abbiamo visto, i ricercatori che si dedicavano all'IA si contavano sulle dita di una mano e i budget erano decisamente risicati. Negli ultimi anni, però, la musica è cambiata: le risorse sono esplose e il settore è diventato il centro del mondo tecnologico.
Dobbiamo aspettarci che la ricerca corra sempre più veloce, spinta da nuove leve di studiosi e da idee che sembrano uscire da un libro di fantascienza, come l'apprendimento per rinforzo, il calcolo quantistico e quello neuromorfico (che prova a copiare ancora meglio il cervello umano).
La cosa affascinante è che l'IA ha iniziato a darsi una mano da sola: grazie alla Neural Architecture Search (NAS), è la macchina stessa a progettare architetture migliori, accelerando la corsa verso la AGI (Intelligenza Artificiale Generale), ovvero un'intelligenza capace di fare tutto ciò che sappiamo fare noi.
Ma questa evoluzione non resta chiusa dentro un computer: l'intelligenza sta finalmente trovando un "corpo" grazie alla robotica umanoide. Siamo entrati nell'era della Embodied AI (l'intelligenza incarnata), dove robot come Figure 02 (nato dalla collaborazione con OpenAI), Optimus di Tesla, il nuovo CLOiD di LG, o il Phantom MK-1 (un robot umanoide progettato per svolgere compiti ad alto rischio anche in contesti militari) interagiscono fisicamente con l'ambiente, imparando a svolgere compiti complessi semplicemente guardandoci lavorare.
Il viaggio iniziato con i calcoli teorici di Turing sta uscendo dallo schermo per entrare nella realtà fisica: dai robot che ci aiuteranno in casa fino a minuscoli dispositivi intelligenti capaci di navigare nel nostro sangue per curarci. Il futuro è decisamente arrivato.
Secondo te, l'IA è un'opportunità o un rischio? Scrivilo nei commenti.
Leggi anche: I dati, l'AI e l'essere umano del futuro
FAQ
Chi è il padre dell'Intelligenza Artificiale? Alan Turing è considerato il padre teorico grazie al suo test del 1950, ma il termine è stato coniato ufficialmente da John McCarthy nel 1956.
Che cos'è l'Inverno dell'IA (AI Winter)? Si riferisce ai periodi di calo di investimenti e interesse avvenuti tra gli anni '70 e '80 a causa dei limiti tecnologici dell'epoca.
Qual è la differenza tra IA debole e IA forte? L'IA debole è progettata per risolvere compiti specifici (come ChatGPT o Maps), mentre l'IA forte punta a eguagliare la mente umana in ogni sua funzione.
- Fonte:
- Breve storia dell'Intelligenza Artificiale di Valerio Rosso
- The brief history of artificial intelligence: The world has changed fast – what might be next? (ourworldindata.org)
- Intelligenza artificiale: come funziona e quali usi trova nella vita quotidiana di Luigi Marino
- forward.recentiprogressi.it (pdf)
- www.cnr.it (pdf)
- Intelligenza artificiale (AI): una guida facile da comprendere
Nessun commento:
Posta un commento