(da R. Marchese, Piani e percorsi della storia - 3, Milano, Minerva Italica, 2001)

1.1 Dal calcolatore al personal computer

Sempre più spesso, negli ultimi anni, si parla di un passaggio dalla società industriale alla "società dell’informazione" per indicare un insieme di radicali, rapidissime e capillari trasformazioni in corso nella vita sociale e individuale soprattutto dei paesi più avanzati, ma che già appaiono destinate a diffondersi su scala planetaria. Si tratta di mutamenti connessi in vario modo alla rivoluzione informatica che inizia, quasi inavvertita, verso la metà del Novecento e si sviluppa con un’accelerazione continua e crescente sino ai nostri giorni.

La prima macchina da calcolo, in grado eseguire addizioni e sottrazioni, viene realizzata già nel 1642 dal filosofo francese Blaise Pascal; alla fine del Seicento il matematico e filosofo tedesco Gottfried Wilhelm Leibniz intravede la possibilità di costruire una sorta di algebra del pensiero che, operando sui simboli di un linguaggio logico universale, consenta di trasformare il ragionamento in calcolo rigoroso. Verso la metà dell’Ottocento, l’intuizione di Leibniz trova una prima conferma nell’algebra della logica fondata dal matematico irlandese George Boole, mentre sul piano tecnico l’inglese Charles Babbage progetta una macchina analitica che elabora dati e riceve istruzioni mediante schede perforate.

Negli anni Trenta del Novecento, il matematico inglese Alan Mathison Turing dimostra sul piano teorico la possibilità di realizzare una macchina non solo calcolatrice, ma anche programmatrice, la cui struttura logica viene poi perfezionata dall’americano John von Neumann. Durante la seconda guerra mondiale e nei primi anni della guerra fredda, un forte impulso a costruire i primi calcolatori elettromeccanici proviene dalle esigenze militari inglesi e statunitensi di decifrare messaggi in codice. Nel 1946 viene messo a punto il primo calcolatore elettronico: l’ENIAC (Electronic Numerical Integrator And Calculator), con 18.000 valvole termoioniche, esteso su 160 metri quadrati di superficie e del peso di 30 tonnellate. Nei decenni successivi, l’introduzione dei transistor e dei circuiti integrati (microchip) consente una crescita esponenziale della velocità di elaborazione e delle capacità di memoria, un processo di miniaturizzazione e una costante riduzione dei costi che conducono all’era dei personal computer, a partire dall’Apple II del 1977 e dal PC IBM del 1981. Lo sviluppo di interfacce hardware (monitor, tastiera, mouse) e software (i sistemi operativi a interfaccia grafica Macintosh e Windows) sempre più "amichevoli" trasforma il computer in strumento d’uso comune, aziendale ma anche domestico, mentre le gigantesche apparecchiature informatiche (mainframe) degli anni Cinquanta e Sessanta erano monopolio dei comandi militari o dei grandi centri di ricerca scientifica.

A vari livelli di complessità, un computer lavora generando trasformazioni di sequenze di bit (contrazione di binary digit: "cifra binaria"), ossia di atomi di informazione individuati da uno dei due valori possibili (0 e 1) di un codice binario. La possibilità di convertire in codice digitale informazioni eterogenee (numeri, testi, immagini, suoni) apre prospettive quasi illimitate all’utilizzazione dei computer, che si allontanano sempre più dalla natura originaria di macchine da calcolo in senso stretto. Essi diventano strumenti per redigere, impaginare e stampare testi; per la grafica, la progettazione, il design, il cinema e la televisione; per registrare e produrre musica; per il gioco o la didattica; per gestire un bilancio o per l’automazione aziendale.

1.2. L’intelligenza artificiale

Già negli anni Cinquanta, i calcolatori elettronici mostrano di potere non solo elaborare dati numerici, ma anche risolvere problemi più generali (dimostrazione di teoremi, gioco degli scacchi), grazie a opportuni linguaggi di programmazione che utilizzano le risorse di calcolo deduttivo della logica simbolica. Si sviluppa quindi un programma di ricerca ("intelligenza artificiale", AI) sulle possibilità di realizzare sistemi informatici in grado di svolgere attività intelligenti. Secondo la versione più ottimistica dell’AI, si può affermare che una macchina è in grado di pensare se supera il "test di Turing": un operatore umano, in una conversazione "cieca" che non permette di vedere il partner, non è in grado di distinguere le risposte fornite da un calcolatore da quelle emesse da un interlocutore umano.

A partire dagli anni Settanta, si ottengono buoni risultati nella costruzione di programmi per la traduzione automatica da una lingua all’altra e per la comprensione sintattica di testi in linguaggi naturali, mentre sembra molto più difficile affrontare gli aspetti semantici di una lingua. Il parallelismo tra mente umana e computer consente da un lato di utilizzare nella scienza cognitiva (che studia la mente) le simulazioni artificiali delle attività intelligenti, dall’altro lato di migliorare l’architettura dei calcolatori in base all’analisi dei processi cognitivi umani. Tuttavia, esiste ancora una distanza abissale tra la complessità e la duttilità della mente umana da una parte e, dall’altra, la semplicità e la rigidità relative dei computer anche più potenti. Quando si parla di emulazione dell’intelligenza naturale, ci si riferisce del resto a singole attività come la percezione, il ragionamento, l’uso del linguaggio, in contesti rigorosamente circoscritti.

Se da un lato sono state smentite le profezie più ingenue sull’intelligenza artificiale, dall’altro sono stati realizzati i cosiddetti "sistemi esperti" in ambiti del sapere molto specialistici o in campi di attività rigidamente definiti. Si tratta di programmi sofisticati in grado di elaborare insiemi di dati (database) molto vasti e complessi per risolvere problemi matematici, sviluppare analisi statistiche, formulare diagnosi mediche, redigere contratti, effettuare previsioni meteorologiche, condurre ricerche giuridiche, delineare mappe genetiche, riconoscere sequenze vocali e la scrittura manoscritta, comandare robot e sorvegliare impianti nell’industria, gestire processi automatici nei settori amministrativo, bancario e dei trasporti.

1.3 Simulazione e realtà virtuale

Un ambito di applicazioni e di ricerca particolarmente interessante è quello che ha a che fare con varie forme di simulazione o di "realtà virtuale". A partire da una matrice di dati e di modelli matematici, in risposta agli input ricevuti da un utente o dall’ambiente, un elaboratore è in grado di calcolare la forma e il movimento di un oggetto, il timbro e le tonalità di una successione di suoni, le caratteristiche tridimensionali e l’organizzazione interna di un ambiente, e di generare quasi istantaneamente le rappresentazioni grafiche e sonore di tali fenomeni. Questi vengono sintetizzati come mondi virtuali con cui interagire, come simulazioni di un insieme di situazioni possibili in cui siamo "immersi", a volte mediante un nostro rappresentante virtuale che in questo mondo si muove, agisce e percepisce.

Il caso più noto è quello dei videogiochi, mentre una maggiore illusione di realtà si può ottenere con attrezzature tecnologicamente sofisticate. Ad esempio, un operatore indossa un casco (HMD, Head Mounted Display) con cuffie stereofoniche, con due piccoli schermi di fronte agli occhi (per simulare la visione stereoscopica) e con rivelatori di posizione che permettono di adeguare immediatamente immagini e suoni ai movimenti della testa e degli occhi, generando l’illusione di esplorare un ambiente reale. Indossando speciali tute o guanti (Data Glove) con ricettori tattili, è possibile un’interazione sensomotoria con l’oggetto virtuale o con altri soggetti collegati a distanza e dotati delle stesse attrezzature.

Le applicazioni delle tecnologie di simulazione sono numerose e in continua crescita. Mediante simulatori di volo i piloti in addestramento possono confrontarsi con situazioni estreme senza dover correre rischi reali. La telepresenza consente di operare indirettamente e di "essere" in un ambiente pericoloso (radioattivo, tossico, a temperature altissime o bassissime) o inaccessibile (fondo marino, spazio senza atmosfera, interno del corpo umano, ambito microscopico), agendo a distanza sulla sua rappresentazione virtuale. Una forma di telepresenza è la telerobotica: una trasposizione e un potenziamento del nostro corpo che traducono istantaneamente i movimenti della nostra mano in quelli di un arto meccanico in un ambiente di lavoro, mentre rimandano ai nostri sensi i dati raccolti da sensori artificiali. Simulazioni complesse vengono utilizzate in ambito medico dalla radiologia computerizzata, dalle sonde intracorporee, dai programmi di ricerca sulla telechirurgia o sulle protesi "bioniche" (con microchip che traducono i dati raccolti da sensori in impulsi trasmessi a elettrodi impiantati nel sistema nervoso).

Al di là di questi casi estremi, si può comunque affermare che le macchine intelligenti, con la loro diffusione capillare in tutti gli ambiti della vita quotidiana (schede a microchip, elettrodomestici programmabili, automobili, fotocopiatrici, terminali, fax, telefoni cellulari, videocamere, apparecchi televisivi), costituiscano un sistema di mediazioni tra noi e l’ambiente, sia quello naturale sia quello sociale, di cui spesso incontriamo soltanto una rappresentazione. Questo vale anche per media classici come radio e televisione, e soprattutto per la fusione progressiva tra informatica e telecomunicazione. Inoltre, in quanto interfaccia intelligente tra noi e le cose, tra noi e i nostri compiti o i problemi che dobbiamo risolvere, il computer sembra perdere la sua sostanza fisica di macchina, per apparire sempre più come una protesi della nostra mente.

Pagina successiva