Caricare documenti e articoli online 
INFtub.com è un sito progettato per cercare i documenti in vari tipi di file e il caricamento di articoli online.


 
Non ricordi la password?  ››  Iscriviti gratis
 

VITA ARTIFICIALE

comunicazione



vita artificiale


La vita artificiale è lo studio dei sistemi artificiali che hanno comportamenti caratteristici dei sistemi viventi naturali. E' il tentativo di spiegare la vita in tutte le sue possibili manifestazioni, senza restrizioni ai particolari esempi che si sono evoluti sulla Terra, con l'aiuto di esperimenti biologici e chimici, simulazioni al computer e speculazioni teoriche. Il suo fine ultimo è estrarre la forma logica dei sistemi viventi. Queste parole sono tratte dall'annuncio della prima Artificial Life Conference, che fu tenuta nel grande centro di ricerca di Los Alamos, negli Stati Uniti, nel settembre del 1987. Nasceva così un sistema di teorie e modelli scientifici, la Vita Artificiale, che sta stimolando nuovi indi 111g62b rizzi di ricerca in campi così diversi come la genetica, la biologia evoluzionistica, l'embriologia, l'etologia, la chimica, l'ingegneria del software e l'intelligenza artificiale. Come molti altri sviluppi della scienza più recente, anche la vita artificiale ha potuto svilupparsi essenzialmente grazie alle nuove possibilità di simulazione e sperimentazione offerte dal computer. L'idea infatti è quella che per capire cos'è la vita, non c'è modo migliore che cercare di simularla; o addirittura di ricrearla, a seconda dei punti di vista. Se la biologia molecolare ha rivelato l'unità e la comune origine di tutti gli organismi viventi del nostro pianeta, nonostante la straordinaria varietà di forme in cui questa si può presentare, la vita artificiale si ripromette di scoprire in quali condizioni un fenomeno del genere possa avere origine, e in che modo si possono utilizzare per altri scopi le forme logiche all'opera negli esseri viventi.



Le premesse principali dei diversi modelli di vita artificiale che sono stati elaborati sono due. La prima è che la complessità veramente straordinaria dei fenomeni biologici sia il risultato dell'azione comune di regole semplici (codificate, in natura, nel DNA, e sotto forma di istruzioni in un computer). In altre parole, la complessità è una proprietà emergente che deriva dalla capacità di autorganizzazione. Come non c'è scopo nell'evoluzione biologica, così non ci sono direttori d'orchestra nei sistemi viventi. Ne consegue che è possibile identificare queste regole e applicarle ad alcuni dei fenomeni e dei processi tipici degli esseri viventi in altri settori. Nonostante l'immensa mole di conoscenze ormai accumulata dalle scienze biologiche, nessuna definizione fino a oggi proposta del fenomeno 'vita' riesce a includere tutto quello che siamo abituati a considerare vivo, e solo quello.

La seconda premessa è che ciò che veramente distingue il vivente dal non vivente è la capacità di usare l'informazione (codificata geneticamente, almeno per i 'veri' esseri viventi) per ricostruire se stesso, cercare le risorse di cui ha bisogno, evolversi e imparare. La vita, insomma, non sarebbe una proprietà della materia, ma dell'organizzazione della materia. Che questo processo informativo sia basato sulla chimica del carbonio, come avviene sul nostro pianeta da qualche miliardo di anni, oppure esista solo nella memoria di un computer, non ha alcuna importanza. Ma quanto hanno in comune gli organismi creati in silicio, vale a dire realizzati dall'uomo nella memoria di un computer, con quelli che esistono in vivo? I primi sono soltanto delle simulazioni il cui comportamento ha soltanto una superficiale somiglianza con quello degli organismi "veri", oppure i due i tipi di organismi condividono la stessa logica interna?

Per rispondere a queste domande è necessario risalire alla radice dell'idea di vita artificiale, a un filone di ricerche aperto alla fine degli anni Quaranta dal grande matematico John von Neumann (1903-1957), padre tra le altre (tante) cose proprio del computer digitale. Negli anni in cui John von Neumann iniziò le sue ricerche, era appena stato dimostrato che il deposito dell'informazione nella cellula è il DNA, ma nulla ancora si sapeva del modo in cui questa informazione viene codificata, viene espressa e si evolve nel tempo. In termini biologici, non si sapeva assolutamente nulla di come quella serie di istruzioni che chiamiamo genotipo dia luogo a organismi completi fatti di cellule, organi e apparati, e dotati di un metabolismo. Un'ignoranza che in larga misura permane anche oggi. Per capire quale possa essere l'organizzazione logica di un essere vivente in grado di riprodursi (in grado cioè di riprodurre un altro oggetto dello stesso livello di complessità) von Neumann concepì un modello estremamente semplificato di organismo, un automa. Ai suoi occhi, infatti, un essere vivente non era che una macchina particolarmente complicata e flessibile. Un automa in particolare è una macchina il cui comportamento può essere definito in termini matematici, in grado di elaborare informazione, e che agisce applicando i dati ricevuti dal mondo esterno, alla luce delle istruzioni con le quali è stata programmata. Il primo automa immaginato da von Neumann era dotato della capacità di riprodursi. Era costituito da un computer, da un elemento manipolatore in grado di eseguirne gli ordini, da un attrezzo per unire delle parti, da un altro per dividerle, da un sensore che potesse inviare al computer le informazioni sull'ambiente esterno e da una memoria. Naturalmente si trattava di un'astrazione, ma von Neumann immaginò che una simile macchina, posta in un ambiente nel quale fossero presenti in quantità i singoli pezzi di cui essa stessa è costituita, avrebbe costruito altre copie di se stessa, le quali a loro volta ne avrebbero costruite delle altre. Eventuali errori in qualcuna delle costruzioni avrebbero potuto essere paragonati a delle mutazioni, e l'intero processo avrebbe potuto essere paragonato a una specie di evoluzione biologica. Lo schema concettuale di un automa di questo tipo era esattamente quello che negli anni successivi i biologi molecolari avrebbero scoperto negli organismi viventi: una molecola di DNA che codifica una serie di istruzioni per la costruzione di un nuovo organismo, un meccanismo per la sua replicazione, un altro per la sua espressione, e una forma di controllo sull'organismo da parte dell'ambiente. Che una macchina del genere non potesse essere realmente costruita con la tecnologia dell'epoca (e neppure con quella attuale) non aveva nessuna importanza. L'importante era stabilire quale logica potesse essere alla base della riproduzione degli esseri viventi. Per von Neumann però, il fatto che la sua restasse una pura astrazione non era soddisfacente. Così, su suggerimento del matematico Stanislaw Ulam (1909-1984), trasformò la sua macchina in qualcosa di diverso che chiamò un 'automa cellulare'. Tralasciandone la descrizione tecnica, è importante notare che dal punto di vista concettuale un automa cellulare è un computer universale, cioè una macchina capace di effettuare qualsiasi compito, purché dotata dell'apposito programma applicativo.

Purtroppo le possibilità offerte dal complicato automa cellulare immaginato da von Neumann non poterono essere esplorate, sia perché le possibilità di calcolo dell'epoca erano troppo limitate, sia perché proprio allora il grande matematico fu investito di nuove responsabilità nella Atomic Energy Commission nell'ambito del programma di riarmo nucleare americano. Ma era già nata comunque l'idea di autorganizzazione: l'applicazione reiterata un grande numero di volte di una serie di istruzioni semplici da parte dei singoli costituenti può dare luogo a un comportamento molto più complesso. In termini biologici, l'applicazione delle regole codificate nel genotipo di ogni cellula (il DNA) può dare vita a un fenotipo di enorme complessità (l'organismo).

Ma in che misura la natura può essere simulata dalla manipolazione simbolica di informazione? Gli organismi artificiali, nonostante certe apparenti somiglianze, possono dirci qualcosa a proposito degli organismi viventi veri? L'autorganizzazione all'opera negli organismi artificiali funziona allo stesso modo nelle cellule, negli animali e nelle piante? E se dovesse funzionare allo stesso modo, potremmo mai costruire macchine altrettanto complesse? Queste domande sono tuttora al centro di ogni discussione sulla vita artificiale.

Il progetto di von Neumann degli automi cellulari fu ripreso solo nel 1968, all'università di Cambridge, in Gran Bretagna, da un giovane enfant prodige della matematica, John H. Conway. La sua idea di partenza fu che un automa cellulare potesse essere molto più semplice, composto cioè da pochissime celle ciascuna delle quali avrebbe potuto trovarsi in due soli stati, pieno o vuoto. Così, usando come scacchiera il pavimento a piastrelle del bar del dipartimento di matematica dell'università e come indicatore di stato la presenza o meno di un piatto su ogni piastrella, Conway e i suoi collaboratori diedero vita a 'Life', un automa cellulare che 'visse' per alcune centinaia di generazioni. Per ogni nuova generazione veniva calcolato il prossimo stato di ogni cella in base a quello delle celle circostanti nella generazione precedente, sempre in base alle stesse regole. 'Life' produsse i primi organismi artificiali, configurazioni di celle dalle forme più diverse che si muovevano sul pavimento del bar per qualche tempo e poi si dissolvevano, o 'morivano'. Conway tuttavia aveva bisogno di qualcosa di più, vale a dire di organismi più stabili. Per trovarli, lanciò l'idea sulla rubrica di giochi matematici del mensile 'Scientific American' nell'ottobre del 1970, offrendo 50 dollari a chi fosse riuscito a crearne uno. Ad aggiudicarsi i 50 dollari fu William Gosper, uno dei migliori programmatori dell'Artificial Intelligence Laboratory del Massachusetts Institute of Technology, negli Stati Uniti, che aveva il vantaggio di poter accedere a uno dei migliori computer dell'epoca, nel quale era riuscito a far girare 'Life' per un grandissimo numero di generazioni. Programmi per computer di questo tipo, a metà strada tra lo strumento di ricerca e il videogame, si diffusero rapidamente tra gli appassionati.

La ricerca vera e propria della struttura logica degli organismi viventi fu però proseguita da altri, e in particolare da Christopher Langton, che insieme a Doyne Farmer sarebbe stato l'organizzatore della prima Artificial Life Conference a Los Alamos. Langton per primo ha chiarito il concetto di autorganizzazione dal basso, ovvero del potere collettivo delle piccole azioni, che si combinano con altre piccole azioni, fino a quando non ne emerge un comportamento globale complesso. Si tratta di un fenomeno analogo a quello osservabile quasi ovunque in biologia, dove il comportamento dei sistemi organici emerge dalla somma dei comportamenti dei singoli organi, il comportamento dei quali a sua volta è dettato da quello delle singole cellule che li compongono, le quali infine sono regolate da istruzioni relativamente semplici del tipo 'se la concentrazione di A raggiunge il livello B, comincia a produrre C'.

I modelli di vita artificiale rispondono così alle seguenti caratteristiche: consistono di popolazioni di semplici programmi; ogni programma specifica il modo in cui una semplice entità reagisce alla situazione locale; il modello non ha regole generali di comportamento, e qualsiasi comportamento di più alto livello che venga espresso dal sistema deve essere un comportamento emergente. Se questo è vero, allora gli organismi viventi possono essere definiti come niente più se non strutture che elaborano informazione, informazione che usano per costruire sé stessi, cercare risorse, mantenere costante la propria struttura. E' questo a distinguerli dagli oggetti non viventi, e non il fatto di essere costituiti di proteine, lipidi e acidi nucleici. Ma gli organismi viventi hanno un'altra importante caratteristica, da molto tempo riconosciuta, quella di essere isole di ordine crescente in un universo in cui invece è il disordine (o entropia) a crescere costantemente. Lo stesso problema si presenta con gli organismi artificiali che si possono creare in un computer. Se l'informazione viene elaborata troppo lentamente, il modello è fermo, oppure ripetitivo.

Se viene elaborata troppo velocemente, il modello diventa rapidamente caotico. Perché emerga un comportamento complesso, l'informazione deve essere elaborata all'interno di un determinato intervallo di velocità. Studiando il problema, Langton è giunto a definire un parametro misurabile che indica proprio questa velocità. Perché un modello acquisti un comportamento complesso, il valore del parametro deve trovarsi all'interno di questo stretto intervallo. La vita artificiale dunque, e forse la vita stessa così come oggi la conosciamo, può esistere soltanto 'al confine del caos'.

Il ricercatore che ha approfondito il problema delle condizioni che possono aver reso più probabile la nascita della vita sulla Terra è stato Stuart Kauffman, logico e biologo americano. Kauffman ha affrontato il problema nel modo più generale possibile, cercando di scoprire come si comporta una qualsiasi rete molto complessa di unità, ciascuna delle quali influenza il comportamento di tutte le altre. Sia l'insieme delle reazioni chimiche del metabolismo che un sistema di geni sono esempi di reti di questo tipo. Se la matematica trova già molto difficile prevedere il comportamento di un sistema composto da cinque variabili, riusciranno mai i biologi a descrivere il funzionamento del genoma umano, composto da qualcosa come 100.000 geni? Il problema secondo Kauffman è capire se il comportamento di un sistema dipende dai dettagli dei suoi costituenti, oppure no. La sua ipotesi è che un sistema complesso sia in grado di autorganizzarsi, di crearsi cioè una struttura e un comportamento coerenti e stabili. Nel suo primo esperimento, Kauffman simulò in un computer una specie di automa cellulare. In tutte le simulazioni, che avevano condizioni di partenza diverse, dopo circa dieci generazioni (un tempo brevissimo) il sistema trovava da solo un comportamento coerente e stabile. Questo comportamento ha un nome: attrattore periodico. L'attrattore periodico è una forza che mette ordine in un sistema di elementi che interagiscono tra loro, sistema che altrimenti sarebbe assolutamente caotico o del tutto casuale. Secondo Kauffman, costruzioni molto complicate come il sistema di regolazione genetica di un organismo (geni e genomi) non dipendono tanto dalla loro precisa costituzione, quanto da una proprietà comune a tutte le reti fatte da un grande numero di reazioni locali, la stessa proprietà all'opera nella differenziazione cellulare di un embrione o nel funzionamento del sistema immunitario. Tutto questo potrebbe fornire una spiegazione anche al paradosso probabilistico dell'origine della vita. I principali composti che troviamo negli esseri viventi, proteine e acidi nucleici, sono polimeri (catene) di sostanze più semplici - rispettivamente amminoacidi e nucleotidi - che si pensa siano stati abbondanti negli oceani primitivi, e le reazioni che li producono sono catalizzate, cioè favorite, dai prodotti stessi o dai prodotti di reazioni simili. Simulando il brodo primordiale dell'oceano primordiale in un computer, nel quale un polimero sia costituito da una catena di simboli, si scopre che da un assortimento casuale di composti di partenza, si instaura rapidamente un sistema di reazioni stabile, cioè di reazioni che si ripetono. La nascita di un organismo complesso, in altre parole, potrebbe essere molto più probabile di quanto finora si sia immaginato.

Steen Rasmussen, un fisico danese, ha provato proprio a simulare l'origine della vita in un brodo primordiale informatico chiamato VENUS (Virtual Evolution in a Nonstochastic Universe Simulator), che dopo 22 milioni di istruzioni eseguite e circa 100.000 generazioni ha prodotto i suoi primi 'organismi', schemi ricorrenti di istruzioni che hanno dato inizio a una loro evoluzione.

E proprio l'evoluzione è stato il passo successivo degli studi sulla vita artificiale. Se forse è stata l'autorganizzazione la forza che ha saputo costruire il primo organismo vivente, non c'è dubbio che a diversificare e a rendere sempre più complessi (e in almeno un caso anche coscienti di se stessi) i suoi discendenti è stata l'evoluzione biologica. Anche la teoria darwiniana è stata rivisitata con l'aiuto del computer, creando le condizioni perché popolazioni di organismi artificiali si moltiplicassero e interagissero tra di loro. La sperimentazione con i modelli della vita artificiale ha diversi vantaggi sull'osservazione della natura sul campo o in laboratorio, tra i quali quello di poter simulare facilmente un grandissimo numero di generazioni, e quello di mostrare momento per momento cosa accade al patrimonio genetico degli organismi studiati.

Uno degli esperimenti più importanti di simulazione del meccanismo evolutivo è stato quello condotto da Thomas Ray, un ecologo americano la cui formazione è legata allo studio sul campo delle foreste tropicali, uno degli ambienti naturali più complessi del nostro pianeta. All'inizio del 1990, Ray ha creato un vero e proprio ecosistema artificiale, che ha chiamato 'Tierra', in un computer virtuale, emulato all'interno di un computer vero, una forma di contenimento informatico per evitare il pericolo che gli organismi artificiali da lui creati potessero 'fuggire' e diventare un pericolo per gli altri computer. Il 'Brodo' è il blocco di memoria in cui Ray ha liberato l'Antenato, un programma autoreplicante composto da 80 istruzioni. A ogni ciclo di replicazione, alcuni degli organismi figli subivano lievi modificazioni casuali, del tutto simili alle mutazioni che può subire a ogni moltiplicazione cellulare il DNA degli organismi viventi. Gli abitanti di 'Tierra' dovevano competere tra loro per lo spazio di memoria: sarebbero sopravvissuti quelli che avessero imparato ad accaparrarsene di più. La loro però era un'evoluzione aperta, che Ray non indirizzava in alcun modo. Lo scopo era quello di capire se e come le forze dell'evoluzione darwiniana sono in grado da sole di dare vita e poi di mantenere in funzione un ecosistema. I risultati non si fecero attendere. Nel giro di poche ore Ray poté assistere sullo schermo del suo computer a una specie di Big Bang evolutivo. Piccoli 'parassiti' composti da 45 istruzioni che sfruttavano i comandi di replicazione degli 'ospiti' furono tra le prime novità prodotte da Tierra.

Gli organismi più grandi impararono presto a difendersi, dando inizio a una tipica corsa agli armamenti evolutiva. Comparvero poi dei predatori, blocchi di istruzioni capaci di impossessarsi dell'intero spazio di memoria delle loro vittime, dando inizio a classici cicli di abbondanza di predatori e prede, come quelli descritti dai testi di ecologia. Anche altri fenomeni familiari all'ecologo e all'evoluzionista avevano luogo in 'Tierra', dall'esclusione competitiva a occasionali estinzioni di massa. La cosa affascinante era veder nascere spontaneamente gli stessi ruoli e gli schemi di connessione tra le parti di un ecosistema vero. Era un altro punto a favore dell'universalità dei processi della vita.

L'esempio di Ray è stato poi seguito da altri ricercatori, che hanno osservato fenomeni evolutivi diversi. Tra questi Daniel Hillis, formatosi all'Artificial Intelligence Laboratory del Massachusetts Institute of Technology, fondatore di una grande azienda che produce supercomputer ad architettura parallela. Dalla grande simulazione evolutiva condotta in una delle sue potenti connection machines, gli evoluzionisti hanno tratto dei preziosi suggerimenti, per esempio sul meccanismo genetico che potrebbe esserci dietro l'evoluzione di organi complessi, dovuti all'espressione di un grande numero di geni. Perché la selezione naturale non elimina le tappe precedenti dell'evoluzione di questi geni, se esse non danno all'individuo alcun vantaggio adattativo (fitness)? Hillis ha osservato che alcuni gruppi di caratteri non vengono espressi finché non si ritrovano tutti insieme in uno stesso individuo. Le simulazioni hanno anche messo in risalto il ruolo dei parassiti nello stimolare l'evoluzione delle specie ospiti, o hanno spiegato perché l'evoluzione non procede per conquiste graduali ma per rapidi balzi in avanti, seguiti da lunghi periodi in cui le specie restano più o meno come sono (macroevoluzione), secondo l'evoluzionista Stephen J. Gould .

Alcuni ricercatori impegnati nella sperimentazione sui modelli della vita artificiale in campo evolutivo si sono chiesti se una forza così potente come quella dell'evoluzione non potesse essere messa al servizio di qualcosa che con la biologia non avesse nulla a che fare. Il matematico americano John H. Holland, che da giovanissimo è stato uno dei pionieri della programmazione dei computer (fu il primo dottore di ricerca in Computer science), ha messo a punto i cosiddetti 'algoritmi genetici'. Un algoritmo è una formula, una specie di ricetta logica per risolvere un problema. Per trovare un modo per migliorare i suoi algoritmi, necessari alla risoluzione dei problemi più diversi, Holland ha applicato il meccanismo di evoluzione per selezione naturale, che in fondo è un sistema che consente a una specie di imparare nel corso di più generazioni anziché nel breve spazio di una sola, a risolvere i problemi posti dall'ambiente. Un algoritmo genetico nasce da una popolazione assolutamente casuale di istruzioni, cui viene sottoposto il problema che deve essere risolto. Agli 'individui' che più si avvicinano alla soluzione del problema viene data la possibilità di moltiplicarsi nella prossima generazione, mentre gli altri vengono eliminati. Tra una generazione e l'altra sono previsti anche meccanismi di ricombinazione genetica tra gli individui selezionati, una specie di riproduzione sessuale, e meccanismi generatori di variazione simili alle mutazioni. Ripetendo l'opera di selezione per grandissimi numeri di generazioni, la popolazione casuale iniziale si evolve, e si trasforma in una serie di istruzioni (un algoritmo) in grado di risolvere il problema proposto. Quello che in natura avviene in milioni di anni, il computer lo può simulare nel giro di minuti o, al massimo, di ore.

Il biochimico americano Gerald Joyce ha applicato il meccanismo evolutivo dei modelli di vita artificiale a macromolecole biologiche come il DNA e l'RNA, mentre altri ricercatori stanno mettendo a punto dei procedimenti che consentano di estendere il metodo ad altri tipi di molecole. Si tratta della cosiddetta 'evoluzione molecolare controllata', che consente di ottenere molecole dotate delle proprietà richieste dallo sperimentatore. Il vantaggio rispetto agli algoritmi genetici è quello di partire da popolazioni enormi. A ogni generazione, le molecole che risolvono meglio il problema proposto, per esempio favorire una determinata reazione chimica o legarsi a una tossina batterica, vengono selezionate, leggermente variate, e sottoposte a una nuova prova. L'evoluzione molecolare guidata promette di fornire classi interamente nuove di reagenti per uso industriale, e nuovi farmaci che ci aiutino a tenere il passo con l'evoluzione di batteri e virus patogeni.

Se un organismo artificiale che esiste solo nella memoria di un computer è davvero capace di sviluppare un vero comportamento, e di imparare dall'esperienza perché non farlo uscire dalla sua prigione di silicio dandogli un corpo? E' quanto hanno fatto i ricercatori del Mobile Robot Group dell'Artificial Intelligence Laboratory, che fanno capo a Rodney Brooks. Il loro è un approccio completamente nuovo al problema della creazione di una intelligenza artificiale, e il tentativo di far uscire da una lunga impasse gli studi in questo campo. I primi robot realizzati, che hanno nomi come Genghis, Attila o Toto, sembrano grandi scarafaggi meccanici lunghi circa mezzo metro. Il loro comportamento è il risultato dell'applicazione coordinata di un numero limitato di regole del tipo 'nella situazione A, attua il comportamento B', codificate nella memoria dei piccoli computer che li guidano. In questo modo i ricercatori sono riusciti là dove per anni i sofisticatissimi programmi della cosiddetta intelligenza artificiale avevano fallito: far sì che i robot siano in grado di muoversi da un punto all'altro del pavimento del laboratorio evitando gli ostacoli oppure superandoli, senza conoscere il terreno e senza istruzioni specifiche.

Sembra poco, ma è qualcosa che nessun robot era mai riuscito a fare. Ai robot programmati in base all'intelligenza artificiale tradizionale infatti bisogna insegnare tutto dell'ambiente in cui si dovranno muovere. Loro dovranno riconoscerne ogni tratto, confrontarlo con le proprie istruzioni, programmare le proprie mosse, quindi finalmente agire. In pratica, sono lentissimi e al primo imprevisto si bloccano perché non sanno più cosa devono fare. Gli scarafaggi meccanici realizzati da Brooks invece hanno in testa solo poche e semplici regole di comportamento, che provano in successione per vedere quale funziona. Quello che ne viene fuori è un vero comportamento, molto simile a quello di un insetto vero, cioè la capacità di muoversi e risolvere problemi nel mondo reale, che è sempre complicato e imprevedibile. L'obiettivo dei ricercatori è quello di programmare secondo i principi della vita artificiale robot autonomi e affidabili per compiti più impegnativi del semplice scorrazzare sul pavimento del laboratorio, come le esplorazioni spaziali o la riparazione di macchine sui fondali marini o nei reattori nucleari. Qualcuno tuttavia ha fatto notare che un robot il cui 'cervello' elettronico sia programmato secondo i principi della vita artificiale potrebbe facilmente violare la prima legge della robotica immaginata da Isaac Asimov (n.1920): 'Un robot non causerà danno a un essere umano, oppure, non agendo, lascerà che gliene venga causato.' Se una mutazione nel suo codice che gli permettesse di ignorare questa regola dovesse un giorno risultargli vantaggiosa, il robot la farebbe immediatamente sua.

Riprenderemo questo tema direttamente connesso al concetto di cyborg, nell'ultima sezione, in chiusura di tutte le nostre riflessioni.





Privacy




Articolo informazione


Hits: 1904
Apprezzato: scheda appunto

Commentare questo articolo:

Non sei registrato
Devi essere registrato per commentare

ISCRIVITI



Copiare il codice

nella pagina web del tuo sito.


Copyright InfTub.com 2024