Caricare documenti e articoli online 
INFtub.com è un sito progettato per cercare i documenti in vari tipi di file e il caricamento di articoli online.


 
Non ricordi la password?  ››  Iscriviti gratis
 

ORIGINI E SVILUPPI DI UNA MACCHINA

comunicazione



origini e sviluppi di una macchina


Banjamin Woolley nel suo volume 'Mondi virtuali' afferma che la tecnologia viene spesso presentata come l'attivatrice dei cambiamenti, ossia come un attività separata che ogni  tanto introduce nel mondo, per il bene o per il male, i prodotti delle sue fatiche. Il problema di questa interpretazione (atteggiamento comune sia a coloro che la temono, sia a coloro che l'ammirano) è che non ci dice nulla sulle origini delle sue conquiste. La tecnologia diventa così nulla più che il prodotto del genio, acceso all'improvviso dall'ineffabile scintilla dell'ispirazione: il che serve a ben poco se si vuole capirci qualcosa e insieme capire il mondo di cui essa fa parte.

Charles Babbage, l'ingegnere vittoriano al quale, tra molti altri, si attribuisce l'invenzione del computer, progettò una macchina che chiamò 'macchina delle differenze', la quale serviva a eseguire i calcoli ripetitivi che gli impiegati, (chiamati 'calcolatori' prima che questa parola fosse app 626b15g licata alle macchine), dovevano fare per redigere le tavole matematiche, sempre più importanti in quell'epoca per l'industria e per il commercio.



Nel 1950 Alan Turing, il padre teorico della scienza dei calcolatori, formulava il suo ipotetico test per stabilire se e quando una macchina potesse dirsi 'pensante'. Dietro una tenda o un muro, entità incognite, uomini o calcolatori, rispondono per iscritto alle domande di un intervistatore: fino a quando quest'ultimo riesce a distinguere la provenienza delle risposte, la macchina non ha superato il test; quando le risposte di uomo e macchina diventano indistinguibili, si può affermare che la macchina 'pensa'. Anche se a tale proposito quarant'anni di ricerca sull'Intelligenza Artificiale (IA), non hanno prodotto risultati di rilievo, l'aspetto rilevante è che Turing aveva dimostrato che era possibile meccanizzare ciò che fino a quel momento poteva essere fatto soltanto coi mezzi della mente umana. La macchina aveva varcato la soglia critica: un tempo le macchine avevano preso il posto del corpo, ora minacciavano di prendere il posto dello spirito. Turing aveva anche dimostrato che alcuni numeri non sono computabili, elemento interessante e forse utile a sapersi, ma era molto improbabile che questa scoperta potesse cambiare il corso della storia della tecnologia. Ma l'intuizione di Turing aveva fatto assai più: essa aveva introdotto il concetto di macchina universale: una macchina che sa essere qualsiasi macchina capace di eseguire un calcolo; ogni computer, in ultima analisi, non è altro che una 'tavola di comportamento' di Turing. Da un lato questo fatto imponeva, a quei tempi, dei limiti formali a ciò che può essere calcolato (con tale sistema infatti, non potrà mai essere inventato un supercomputer capace di calcolare l'incomputabile), dall'altro era però evidente la possibilità di costruire una macchina capace di eseguire qualsiasi calcolo. Il test di Turing era atto a provare che l'intelligenza è una qualità indipendente che risiede nel modo in cui i simboli vengono manipolati, ossia nel modo in cui viene usato il linguaggio. Il pensiero è reso visibile nelle parole e in ciò che esse ci dicono. Ciò significa che qualsiasi cosa sia in grado di manipolare dei simboli allo stesso modo degli umani è capace di manifestare intelligenza.

Nel tentativo di rimediare alla confusione esistente, alcuni fabbricanti cominciarono a smerciare i computer come macchine per scrivere ad alta tecnologia chiamate word processors: anche se esse altro non erano che normali personal computers, che come ogni altro personal computer, potevano far girare molti altri tipi di software e trasformarsi così in tipi completamente diversi di macchina, per esempio per la compilazione e la gestione della contabilità aziendale. Questo fu un errore 'categoriale', il confondere cioè fra loro cose che appartengono a categorie logiche incompatibili.

Ma il filosofo John Searle nel 1980 oppose all'esperimento mentale del test di Turing, un altro esperimento mentale, detto della stanza cinese, per dimostrare che nessuna macchina potrà mai riprodurre la qualità più profonda del pensiero umano, l'intenzionalità. Secondo lui l'intenzionalità è un fenomeno biologico e ha altrettante possibilità di dipendere casualmente dalla biochimica specifica delle sue origini, e ,aggiungo io, dalla chimica farmaceutica. Comunque nessun apriorismo metafisico, generato più che altro dagli avversari dell'IA, potrà eliminare dall'immaginario, la presenza delle menti, dei corpi e degli esseri artificiali. Il dogma del 'fantasma della macchina' indica che il concetto di 'mente' ha una relazione confusa con il corpo. Esiste una soluzione per questa confusione concettuale, che consiste nell'adottare il termine 'virtuale'. Un computer è una macchina 'virtuale': per essere più precisi è una macchina di Turing virtuale, è un'entità o un processo astratto che ha trovato espressione fisica, è stato 'realizzato'. Essa è una simulazione, ma non necessariamente una simulazione di qualcosa che esiste realmente. È l'uso effettivo che si fa di un computer a fornire l'esperienza di ciò che significa realmente la parola 'virtuale'. In generale gli utenti di un personal computer si adattano agevolmente all'idea di un sistema che è al tempo stesso un word processor, un calcolatore, un blocco di carta da disegno, un libro, un'intera biblioteca. Queste cose sono entità puramente astratte in quanto sono indipendenti da qualsiasi sostanzialità fisica, e ciò nondimeno sono reali. Il 'virtuale' è dunque una modalità di esistenza simulata, che nasce dal concetto di calcolo automatico. Gli stessi computer sono entità virtuali, non sostanziali.

Il computer è una macchina che esegue una funzione molto precisa: il calcolo matematico. E non sa fare che questo: ma non è poco, giacché alla base di tutto ciò che è stato analizzato con successo dalla scienza, sembra esservi una struttura matematica. "La filosofia - scriveva Galileo nel 1623 - è scritta in questo grandissimo libro che continuamente ci sta aperto innanzi a gli occhi (io dico l'universo), ma non si può intendere se prima non s'impara a intender la lingua, e conoscer i caratteri, ne' quali è scritto. Egli è scritto in lingua matematica, e i caratteri son triangoli, cerchi, ed altre figure geometriche, senza i quali mezzi è impossibile a intenderne umanamente parola." È chiaro che un linguaggio simile è qualcosa di più che non una qualunque serie di informazioni: esso ha la qualità importantissima e unica d'essere computabile: può essere scritto da una macchina. Galileo considerava il libro dell'universo un testo scritto nel linguaggio della matematica. È questo ciò che rende le leggi di Newton qualcosa di più di semplici osservazioni e generalizzazioni: esse sanno calcolare il moto dei corpi, possono predire il futuro.

Nel 1989 Brand scrisse che dopo l'applicazione alla guerra della tecnologia computerizzata da parte del complesso militare americano, il potere del computer si è disperso. Successivamente, grazie alla deliberata rivolta venuta dal basso dei creatori dei personal computer, e grazie alla sovrabbondanza prodotta dall'astuzia dei fabbricanti di elettronica di consumo, il controllo dell'industria dei bit ha cominciato a passare nelle mani dei cittadini e dei consumatori. Il problema sta tutto in ciò che poi venne chiamato 'interfaccia uomo-macchina', ossia il punto di contatto fra l'utente e la macchina. Per esempio, con lo sviluppo del computer interattivo, la classica distinzione autore-lettore sta diventando sempre meno valida.

La profezia di Nicholas Negroponte, 'l'orario di prima serata me lo scelgo io', esprime la speranza che la tecnologia possa distruggere la tirannia dell'autorità biblica. Questa speranza è nata da un cambiamento: il passaggio dell'interfaccia del computer da ciò che potrebbe definirsi il modello meccanico al modello del ciberspazio. È il passaggio da una forma di conversazione fra uomo e macchina che avviene tramite una tastiera, a una forma di esplorazione, guidata dal mouse, di ambienti artificiali. Ma gran parte del mondo dell'informatica non ha ancora compreso o riconosciuto questo passaggio. Si fa ancora sentire il potere predominante di chi sostiene il vecchio modello di intelligenza artificiale.

Trovare modi di usare il computer per riprodurre l'intelligenza umana resta la strategia di ricerca preferita dall'industria militare: lo dimostra l'importanza attribuita alle nuove armi 'intelligenti' impiegate nella guerra del Golfo, con l'implicita assunzione che l'AI (Artificial Intelligence) sia riuscita in qualche modo a creare un nuovo genere di battaglia 'chirurgica', ossia limitata, e una classe di armi di nuovo tipo, maggiormente capaci di discriminare e perciò con qualità quasi morali.

Il computer è la perfetta macchina dell'inconscio: essa rende esplicita, descrive dettagliatamente, è perciò porta alla nostra coscienza, un'azione del tutto incosciente, compiuta dal nostro corpo in modo assolutamente automatico. Certo, lo fa nel modo analitico e non sintetico che gli è proprio. Noi in genere siamo portati a pensare che il computer sia una macchina 'naturalmente comportamentista', , che il suo lavoro vada spiegato nei termini stimolo-risposta, perché noi l'abbiamo costruita così. Ma essa si adatta altrettanto bene sia alle ipotesi comportamentiste che a quelle mentaliste, perché la macchina dell'esteriorità assoluta. Essa è la macchina della prassi senza teoria.

'Io ritengo che quello della conversazione sia un modello sbagliato quando si ha a che fare con un computer - scrive John Walker, l'enigmatico fondatore della compagnia californiana di software Autodesk - abbiamo visto fin dall'inizio i computer come qualcosa che possiede attributi d'intelligenza umana ('cervelli elettronici'), e questo ci ha condotto prima ad attribuire loro caratteristiche che non hanno, e poi a spendere enormi energie nel tentativo di programmarli perché si comportino come ci immaginiamo che dovrebbero. Ma quando si interagisce con un computer non si sta conversando con un'altra persona: si sta esplorando un altro mondo".




meccanica dei quanti


Dal 1801 in poi si era creduto che la luce prendesse la forma di un'onda. Tutti gli esperimenti parevano dimostrarlo: la luce provoca figure di interferenza passando attraverso le aperture di una barriera, il che non potrebbe accadere se fosse formata da particelle. Tuttavia, alla fine del secolo nuovi strumenti rivelavano fenomeni che minacciavano seriamente questa teoria. Il fisico tedesco Max Planck stabilì che le formule matematiche più adatte a spiegare l'assorbimento dell'energia da parte di un 'corpo nero' (un oggetto sperimentale che assorbe tutte le radiazioni alle quali viene esposto) implicano l'esistenza di 'quanti' discreti di energia. Gli atomi, pensava Planck, possiedono una sorta di armonia interna, da cui consegue che essi possono assorbire o emettere energia soltanto in quantità discrete.

Nel 1905 Einstein reinterpretava le scoperte di Planck, applicandole a un altro fenomeno, il cosiddetto effetto fotoelettrico, che riguarda il tasso con cui la luce irradiata su una lastra di metallo provoca l'emissione di elettroni dalla superficie della lastra. Einstein concludeva che la luce visibile in particolare, e in generale ogni forma di radiazione, dev'essere formata non da onde, ma da 'quanti', particelle alle quali, nel caso della luce, egli diede il nome di 'fotoni'.

Nel 1913 Niels Bohr dimostrò che questa ambiguità non si limita alla luce e che la stabilità dell'atomo può essere spiegata solo ricorrendo alla stesso tipo di matematica, ossia a una matematica basata sui quanti. La scoperta di Bohr comportava il fatto che gli elettroni eseguissero l'ormai famoso 'salto' dall'una all'altra delle orbite attorno al nucleo centrale dell'atomo, senza tuttavia trovarsi in nessun momento dato in alcun luogo intermedio.

Verso la metà degli anni venti il francese Louis de Broglie cominciò a formulare il concetto di 'onda-corpuscolo' basandosi sul presupposto che se le onde possono essere particelle di materia, allora le particelle possono essere onde. Così facendo de Broglie introduceva una sconcertante dualità nelle fondamenta stesse dei rapporti fra materia e radiazione, una dualità che ben presto Erwin Schrodinger avrebbe rafforzato, applicando con successo alle 'onde-corpuscolo' le stesse equazioni che erano state elaborate per descrivere le onde tradizionali. Il risultato di tutto questo fu che lo stato di una particella elementare cominciò a venire descritto non più dalle consuete formule che rappresentano la posizione e la velocità della particella, ma da una 'funzione d'onda': una formula che calcola la probabilità che la particella occupi una posizione particolare in un particolare momento.

All'incirca nello stesso periodo Bohr e altri provarono a risolvere queste equazioni non già trattando le onde come se fossero reali fenomeni fisici, bensì come onde di probabilità. Era implicito in questa sorprendente strategia il concetto che l'elettrone (e ogni altra particella elementare) non si trovi in un qualsiasi istante nel punto che la funzione d'onda ha calcolato, ma che invece si sparga su un campo di probabilità, in un modo che può essere descritto soltanto ricorrendo alla statistica. Ciò introdusse, ha scritto in proposito Werner Heisenberg, 'qualcosa che stava a metà tra l'idea di un evento e l'evento reale, uno strano tipo di realtà fisica a metà strada fra possibilità e realtà.' Ma oltre a ciò, lo strano genere di realtà fisica era qualcosa di fondamentalmente diverso dalla realtà che si incontra al di sopra della scala subatomica, e richiedeva, per poter essere descritto, una matematica di tipo affatto diverso.

Per mettere ordine nella valanga delle anomalie e delle peculiarità che si andavano accumulando col progredire dello studio di questo nuovo mondo subatomico, su invito di Niels Bohr un gruppo di fisici (fra i quali Schrodinger e Heisenberg) si riunirono al 'Centro di Fisica Teorica' di Copenaghen per consultarsi. Più che una teoria ciò che uscì da questo incontro può chiamasi un'interpretazione, un modo di comprendere nel migliore modo possibile tutti questi recenti e confusi sviluppi. Ma fu una interpretazione che avrebbe sconvolto sia i dogmi scientifici imperanti, sia la comune esperienza. Secondo l'interpretazione di Copenaghen, come appunto venne chiamata, un 'sistema' subatomico (in altre parole l'oggetto dello studio, per esempio un atomo) è qualcosa di fondamentalmente diverso dal sistema usato per osservarlo e misurarlo, ma ne dipende. Il primo segue un certo insieme di leggi fisiche, le leggi della meccanica quantistica, il secondo segue invece le leggi tradizionali, leggi della fisica 'classica' di Newton e di Einstein. Ciò nonostante si può affermare che il primo sistema esiste in quanto fenomeno reale soltanto quando viene misurato e osservato dal secondo. Bohr ha definito 'complementari' le caratteristiche ondulatorie e quelle corpuscolari di un sistema siffatto. Si tratta di due aspetti della stessa cosa, che però è impossibile osservare simultaneamente.

Secondo il principio di indeterminazione (o di incertezza di Heisenberg), in conseguenza di questa complementarità non è possibile conoscere più di tanto sulla posizione di una particella elementare e simultaneamente sulla sua quantità di moto: essere certi dell'uno vuol dire essere meno certi dell'altra, ed essere certi sia della posizione che della velocità è impossibile. La cosa più importante e più misteriosa del principio di indeterminazione è che l'incertezza non è il risultato di una misurazione imperfetta: è semplicemente impossibile saperne di più, cioè l'indeterminazione è insita nello stesso sistema, e non nel modo di misurarlo. Eppure Albert Einstein, la cui opera aveva portato direttamente alla formulazione della teoria, nel 1935 dichiarò che essa deve contenere un qualche difetto di fondo. Se fosse esatta, avrebbe conseguenze devastanti per i più preziosi presupposti della scienza. Infatti ciò significherebbe che esiste una legge che governa il molto grande e un'altra che e governa il molto piccolo, vale a dire che quell'universo che la scienza a sempre ritenuto fisso e certo non è altro che un labile frutto della nostra immaginazione. Significherebbe, in breve, che la realtà non è il prodotto di leggi universali, bensì della percezione. Vi è una tesi secondo la quale per descrivere ciò che accade in un evento atomico dobbiamo applicare la parola 'accade' soltanto all'osservazione e non a ciò che succede fra due osservazioni.

Possiamo dire che il passaggio dal possibile al reale si verifica non appena l'interazione dell'oggetto e del dispositivo di misurazione, e quindi del resto del mondo, è entrata in gioco. Una conclusione simile Einstein non poteva accettarla. Con essa andava in pezzi l'unità della scienza perché ne derivava che esistono due regni distinti e separati: quello subatomico e quello dell'osservatore. Quando il mondo fisico è considerato come una funzione d'onda, esso diviene un insieme di possibilità che l'osservazione disintegra e trasforma in fatti. In questo modo di pensare è implicita l'idea che il mondo sia creato semplicemente dalla percezione che ne abbiamo, ed è un'idea che in effetti minaccia di ricacciare la scienza nel regno speculativo della filosofia. Ne deriva anche una negazione dell'esistenza indipendente del mondo materiale: l'osservatore non è più uno spettatore passivo, ma un attivo partecipante. Essa consegna la realtà a un fatto probabilistico, quella partita a dadi che, secondo la famosa frase di Einstein, Dio non avrebbe mai accettato di giocare. Eppure il matematico, in una sua lettera al visconte Samuel, esprime il concetto che la realtà non è tanto una caratteristica del mondo, quanto un elemento della teoria di cui ci serviamo per comprendere il mondo.

Filosofi e fisici si sono adoperati con tutte le loro forze per far emergere un nuovo paradigma, un'interpretazione più accettabile della 'realtà quantica' del mondo subatomico. Sono stati questi sforzi a segnalare a sciamani e indovini il sorgere di nuove ere, sono stati gli scienziati e i filosofi a suonare l'allarme e ad annunciare transizioni e trasformazioni di dimensioni planetarie. Se persino la scienza comincia a mettere in dubbio la natura della realtà e la conoscenza che ne abbiamo, vuol dire che qualcosa sta sicuramente accadendo. La meccanica quantistica e il principio di indeterminazione non hanno invalidato il principio di osservazione oggettiva: una funzione d'onda si annulla esattamente allo stesso modo indipendentemente da chi la stia osservando. Entrambe però hanno seriamente indebolito la fede della scienza in una realtà materiale esterna.





Privacy




Articolo informazione


Hits: 1655
Apprezzato: scheda appunto

Commentare questo articolo:

Non sei registrato
Devi essere registrato per commentare

ISCRIVITI



Copiare il codice

nella pagina web del tuo sito.


Copyright InfTub.com 2024