(da R. Marchese, Piani e percorsi della
storia - 3, Milano, Minerva Italica, 2001)
1.1 Dal calcolatore al personal computer
Sempre più spesso, negli ultimi anni, si parla di un passaggio
dalla società industriale alla "società dell’informazione"
per indicare un insieme di radicali, rapidissime e capillari trasformazioni
in corso nella vita sociale e individuale soprattutto dei paesi
più avanzati, ma che già appaiono destinate a diffondersi
su scala planetaria. Si tratta di mutamenti connessi in vario
modo alla rivoluzione informatica che inizia, quasi inavvertita,
verso la metà del Novecento e si sviluppa con un’accelerazione
continua e crescente sino ai nostri giorni.
La prima macchina da calcolo, in grado eseguire addizioni e sottrazioni,
viene realizzata già nel 1642 dal filosofo francese Blaise
Pascal; alla fine del Seicento il matematico e filosofo tedesco
Gottfried Wilhelm Leibniz intravede la possibilità di costruire
una sorta di algebra del pensiero che, operando sui simboli di
un linguaggio logico universale, consenta di trasformare il ragionamento
in calcolo rigoroso. Verso la metà dell’Ottocento, l’intuizione
di Leibniz trova una prima conferma nell’algebra della logica
fondata dal matematico irlandese George Boole, mentre sul piano
tecnico l’inglese Charles Babbage progetta una macchina analitica
che elabora dati e riceve istruzioni mediante schede perforate.
Negli anni Trenta del Novecento, il matematico inglese Alan Mathison
Turing dimostra sul piano teorico la possibilità di realizzare
una macchina non solo calcolatrice, ma anche programmatrice, la
cui struttura logica viene poi perfezionata dall’americano John
von Neumann. Durante la seconda guerra mondiale e nei primi anni
della guerra fredda, un forte impulso a costruire i primi calcolatori
elettromeccanici proviene dalle esigenze militari inglesi e statunitensi
di decifrare messaggi in codice. Nel 1946 viene messo a punto
il primo calcolatore elettronico: l’ENIAC (Electronic Numerical
Integrator And Calculator), con 18.000 valvole termoioniche,
esteso su 160 metri quadrati di superficie e del peso di 30 tonnellate.
Nei decenni successivi, l’introduzione dei transistor e dei circuiti
integrati (microchip) consente una crescita esponenziale
della velocità di elaborazione e delle capacità
di memoria, un processo di miniaturizzazione e una costante riduzione
dei costi che conducono all’era dei personal computer,
a partire dall’Apple II del 1977 e dal PC IBM del 1981. Lo sviluppo
di interfacce hardware (monitor, tastiera, mouse) e software
(i sistemi operativi a interfaccia grafica Macintosh e Windows)
sempre più "amichevoli" trasforma il computer
in strumento d’uso comune, aziendale ma anche domestico, mentre
le gigantesche apparecchiature informatiche (mainframe)
degli anni Cinquanta e Sessanta erano monopolio dei comandi militari
o dei grandi centri di ricerca scientifica.
A vari livelli di complessità, un computer lavora generando
trasformazioni di sequenze di bit (contrazione di binary
digit: "cifra binaria"), ossia di atomi di informazione
individuati da uno dei due valori possibili (0 e 1) di un codice
binario. La possibilità di convertire in codice digitale
informazioni eterogenee (numeri, testi, immagini, suoni) apre
prospettive quasi illimitate all’utilizzazione dei computer, che
si allontanano sempre più dalla natura originaria di macchine
da calcolo in senso stretto. Essi diventano strumenti per redigere,
impaginare e stampare testi; per la grafica, la progettazione,
il design, il cinema e la televisione; per registrare e produrre
musica; per il gioco o la didattica; per gestire un bilancio o
per l’automazione aziendale.
1.2. L’intelligenza artificiale
Già negli anni Cinquanta, i calcolatori elettronici mostrano
di potere non solo elaborare dati numerici, ma anche risolvere
problemi più generali (dimostrazione di teoremi, gioco
degli scacchi), grazie a opportuni linguaggi di programmazione
che utilizzano le risorse di calcolo deduttivo della logica simbolica.
Si sviluppa quindi un programma di ricerca ("intelligenza
artificiale", AI) sulle possibilità di realizzare
sistemi informatici in grado di svolgere attività intelligenti.
Secondo la versione più ottimistica dell’AI, si può
affermare che una macchina è in grado di pensare se supera
il "test di Turing": un operatore umano, in una conversazione
"cieca" che non permette di vedere il partner, non è
in grado di distinguere le risposte fornite da un calcolatore
da quelle emesse da un interlocutore umano.
A partire dagli anni Settanta, si ottengono buoni risultati nella
costruzione di programmi per la traduzione automatica da una lingua
all’altra e per la comprensione sintattica di testi in linguaggi
naturali, mentre sembra molto più difficile affrontare
gli aspetti semantici di una lingua. Il parallelismo tra mente
umana e computer consente da un lato di utilizzare nella scienza
cognitiva (che studia la mente) le simulazioni artificiali delle
attività intelligenti, dall’altro lato di migliorare l’architettura
dei calcolatori in base all’analisi dei processi cognitivi umani.
Tuttavia, esiste ancora una distanza abissale tra la complessità
e la duttilità della mente umana da una parte e, dall’altra,
la semplicità e la rigidità relative dei computer
anche più potenti. Quando si parla di emulazione dell’intelligenza
naturale, ci si riferisce del resto a singole attività
come la percezione, il ragionamento, l’uso del linguaggio, in
contesti rigorosamente circoscritti.
Se da un lato sono state smentite le profezie più ingenue
sull’intelligenza artificiale, dall’altro sono stati realizzati
i cosiddetti "sistemi esperti" in ambiti del sapere
molto specialistici o in campi di attività rigidamente
definiti. Si tratta di programmi sofisticati in grado di elaborare
insiemi di dati (database) molto vasti e complessi per
risolvere problemi matematici, sviluppare analisi statistiche,
formulare diagnosi mediche, redigere contratti, effettuare previsioni
meteorologiche, condurre ricerche giuridiche, delineare mappe
genetiche, riconoscere sequenze vocali e la scrittura manoscritta,
comandare robot e sorvegliare impianti nell’industria, gestire
processi automatici nei settori amministrativo, bancario e dei
trasporti.
1.3 Simulazione e realtà virtuale
Un ambito di applicazioni e di ricerca particolarmente interessante
è quello che ha a che fare con varie forme di simulazione
o di "realtà virtuale". A partire da una matrice
di dati e di modelli matematici, in risposta agli input
ricevuti da un utente o dall’ambiente, un elaboratore è
in grado di calcolare la forma e il movimento di un oggetto, il
timbro e le tonalità di una successione di suoni, le caratteristiche
tridimensionali e l’organizzazione interna di un ambiente, e di
generare quasi istantaneamente le rappresentazioni grafiche e
sonore di tali fenomeni. Questi vengono sintetizzati come mondi
virtuali con cui interagire, come simulazioni di un insieme di
situazioni possibili in cui siamo "immersi", a volte
mediante un nostro rappresentante virtuale che in questo mondo
si muove, agisce e percepisce.
Il caso più noto è quello dei videogiochi, mentre
una maggiore illusione di realtà si può ottenere
con attrezzature tecnologicamente sofisticate. Ad esempio, un
operatore indossa un casco (HMD, Head Mounted Display)
con cuffie stereofoniche, con due piccoli schermi di fronte agli
occhi (per simulare la visione stereoscopica) e con rivelatori
di posizione che permettono di adeguare immediatamente immagini
e suoni ai movimenti della testa e degli occhi, generando l’illusione
di esplorare un ambiente reale. Indossando speciali tute o guanti
(Data Glove) con ricettori tattili, è possibile
un’interazione sensomotoria con l’oggetto virtuale o con altri
soggetti collegati a distanza e dotati delle stesse attrezzature.
Le applicazioni delle tecnologie di simulazione sono numerose
e in continua crescita. Mediante simulatori di volo i piloti in
addestramento possono confrontarsi con situazioni estreme senza
dover correre rischi reali. La telepresenza consente di operare
indirettamente e di "essere" in un ambiente pericoloso
(radioattivo, tossico, a temperature altissime o bassissime) o
inaccessibile (fondo marino, spazio senza atmosfera, interno del
corpo umano, ambito microscopico), agendo a distanza sulla sua
rappresentazione virtuale. Una forma di telepresenza è
la telerobotica: una trasposizione e un potenziamento del nostro
corpo che traducono istantaneamente i movimenti della nostra mano
in quelli di un arto meccanico in un ambiente di lavoro, mentre
rimandano ai nostri sensi i dati raccolti da sensori artificiali.
Simulazioni complesse vengono utilizzate in ambito medico dalla
radiologia computerizzata, dalle sonde intracorporee, dai programmi
di ricerca sulla telechirurgia o sulle protesi "bioniche"
(con microchip che traducono i dati raccolti da sensori in impulsi
trasmessi a elettrodi impiantati nel sistema nervoso).
Al di là di questi casi estremi, si può comunque
affermare che le macchine intelligenti, con la loro diffusione
capillare in tutti gli ambiti della vita quotidiana (schede a
microchip, elettrodomestici programmabili, automobili, fotocopiatrici,
terminali, fax, telefoni cellulari, videocamere, apparecchi televisivi),
costituiscano un sistema di mediazioni tra noi e l’ambiente, sia
quello naturale sia quello sociale, di cui spesso incontriamo
soltanto una rappresentazione. Questo vale anche per media classici
come radio e televisione, e soprattutto per la fusione progressiva
tra informatica e telecomunicazione. Inoltre, in quanto interfaccia
intelligente tra noi e le cose, tra noi e i nostri compiti o i
problemi che dobbiamo risolvere, il computer sembra perdere la
sua sostanza fisica di macchina, per apparire sempre più
come una protesi della nostra mente.
Pagina successiva