Caricare documenti e articoli online 
INFtub.com è un sito progettato per cercare i documenti in vari tipi di file e il caricamento di articoli online.


 
Non ricordi la password?  ››  Iscriviti gratis
 

Architettura di un Computer - Circuiti di Temporizzazioni (Clock)

informatica



Architettura di un Computer


Possiamo ritenere che un computer comprenda i seguenti elementi:

Memorie RAM, ROM, Cache

Bus di comunicazione (tra cui i bus di dati, di indirizzi e di controllo per 848c25i le memorie e il bus di I/O per le periferiche)

Controllore di periferiche (Controller). Le periferiche controllate sono Hard Disk, CD-ROM, Scanner, unita' di Back-up (ad esempio ZIP IOMEGA).



Unità centrale di processo (CPU)

Direct Memory Access (DMA)

Circuiti di Temporizzazioni (Clock)

Circuiti di Interrupt

BIOS

Fig.1 mostra un'architettura molto semplificata del calcolatore in cui sono presenti alcuni tra gli elementi fondamentali.













Fig.1 - Schema a Blocchi di un Computer


Essi sono: la CPU, le memorie RAM e ROM, i bus di dati, di indirizzi e di controllo per 848c25i le memorie e il bus di I/O per le periferiche, i connettori per le periferiche di I/O e il controller per i dischi rigidi (hard disk) e per speciali periferiche di I/O (scanner, CD-ROM, etc.).


1.Circuiti di Temporizzazioni (Clock)


I circuiti di temporizzazioni permettono di generare un segnale ad onda quadra caratterizzata da una particolare frequenza. Si tratta di un segnale che commuta continuamente da un livello basso ad uno alto, molti milioni di volte al secondo. La Fig.2  mostra un esempio di tale segnale.

Fig.2 - Esempio di Segnale di Clock


Per ogni ciclo, i circuiti interni del processore eseguono una operazione o parte di una operazione o piú operazioni a seconda di come sono stati disegnati. In altri termini, il clock sincronizza l'esecuzione di tutte le operazioni all'interno del computer e consente di trasferire dati e segnali in modo corretto alle varie componenti del circuito.

Il megahertz (MHz) è l'unità di misura della frequenza (o velocità del clock) alla quale il processore funziona; indica quanti milioni di oscillazioni al secondo (1 oscillazione al secondo = 1 hertz [Hz]) sono generate dal clock. Nella figura T e' il periodo con cui si ripete il segnale mostrato. La sua frequenza sarà allora f=1/T Hz.

Ogni area del PC che contiene un processore o un microcontrollore e che esegue una attivitá specifica governata da un software necessita di un clock, che puó essere generato in loco o dipendere dal clock principale.

In generale il clock é prodotto da un apposito circuito integrato, la cui oscillazione é controllata da un cristallo di quarzo. Il cristallo di quarzo garantisce una elevata stabilita nel tempo e con il variare della temperatura ed una grande precisione nel valore della frequenza prodotta , quanto meno possibile influenzato dalla temperatura e dall' invecchiamento.

La tendenza attuale é quella di realizzare circuiti integrati particolari, studiati specificamente per questo impiego, contenenti sintetizzatori di frequenza programmabili, in grado di generare piú valori di clock da un solo quarzo.

In generale il quarzo di partenza é il 14.318 MHz ; é stata scelta questa frequenza "strana" solo per il motivo che questo quarzo ha accompagnato il PC dalla sua nascita in quanto indispensabile per alcune temporizzazioni e quindi, trattandosi di un prodotto molto diffuso e costruito in milioni di pezzi, é anche estremamente economico oltre che ben collaudato .

In linea di massima i sintetizzatori piú recenti, partendo dal quarzo a 14.318MHz, generano le frequenze base di 50, 60, 66 e 100MHz, tipiche dei processori Intel.

Giá a partire dalle CPU 486, é diventato comune avere per il processore un clock piú elevato di quello generale del sistema, moltiplicandolo per un fattore variabile da 1.5 in su all'interno della CPU stessa. Questo é possibile perché la struttura interna del chip puó essere progettata senza difficoltá in modo tale da poter operare con valori di clock molto piú elevati di quelli possibili al resto del circuito. La cosa é ovviamente vantaggiosa, in quanto piú veloce é il clock, piú breve é il tempo necessario per svolgere la serie di cicli che compongono una istruzione del software o una attivitá interna del processore; piú clock, piú velocitá e quindi piú prestazione del sistema .

É ovvio che questo beneficio si estende solo all' interno della CPU, ovvero all'unitá logico-aritmetica (ALU), al coprocessore matematico (FPU), ai registri interni ed alla cache interna alla CPU (chiamata cache di livello 1 o L1) e non interessa le altre parti del circuito del PC, se non indirettamente, attraverso le linee di controllo e di scambio dati del processore .


2.Memorie RAM, ROM, Cache

La memoria è essenziale in un computer perché grazie ad essa è possibile mantenere dati e programmi. La durata del mantenimento dipende dal tipo di memoria, e può essere permanente o legato alla presenza di corrente.

L'unità elementare che una memoria riesce a mantenere è il bit. Lo schema di funzionamento di base per la memorizzazione di un bit prevede la presenza di un bus di indirizzi, un bus di controllo ed un bus di dati. La Fig.3 mostra lo schema di funzionamento di una memoria elementare che memorizza m bit (dove m è un numero intero maggiore di 0).

Il bus degli indirizzi permette di specificare quale bit tra gli m disponibili nella memoria si vuole leggere o sovrascrivere. Il bus degli indirizzi è generalmente composto da n fili, dove ogni filo può trasportare l'informazione 1 o 0. I valori presenti negli n fili del bus degli indirizzi individuano il bit che si vuole leggere o scrivere. Ad esempio supponiamo che n=3. In tal caso sono possibili le seguenti configurazioni di valori binari nel bus degli indirizzi: 000, 001, 010, 011, 100, 101, 110 e 111. Ognuna di queste 8 configurazione individua all'interno della memoria una tra 8 possibili locazioni di bit da leggere/scrivere. In generale, dunque, se si dispone di un bus di indirizzi a n fili è possibile gestire memorie con m=2n locazioni disponibili.




Fig.3 - Schema di Funzionamento di una Memoria Elementare


Il bus di controllo consiste essenzialmente di due comandi: read e write per informare la memoria del tipo di accesso possibile. Si noti che in alcune memorie (ROM a sola lettura) è consentita solo l'operazione di lettura e non quella di scrittura.

Infine il bus di dati permette il trasferimento dei bit da leggere o da scrivere. In particolare se il bus di controllo specifica il comando read, allora sul bus dei dati transiterà un bit (relativo all'indirizzo presente sul bus degli indirizzi) uscente dalla memoria. Viceversa il bit entrerà in memoria dal bus dei dati se il comando è write. In tal caso il bit verrà memorizzato nella locazione indicata dal bus degli indirizzi.

Lo schema di funzionamento visto prima ha il limite principale di assumere che l'unità di base che può essere letta o scritta è il singolo bit. Ciò ovviamente è limitativo, per cui si ricorre a schemi più complessi che permettono di leggere/scrivere un numero maggiori di informazioni alla volta. Ad esempio lo schema mostrato in Fig.4 permette di leggere/scrivere un byte (8 bit) alla volta, utilizzando lo stesso bus degli indirizzi e bus di controllo visto prima.

Come visibile in figura utilizzando l'indirizzamento a n fili è possibile, in questo caso, trasferire sul bus dei dati 8 bit alla volta. Ciascuno degli 8 bit è relativo ad una delle 8 memorie da 1 bit, e corrisponde ad una delle m=2n  locazioni di memoria disponibili. Si noti che l'indirizzo di memoria è lo stesso per tutte le 8 memorie.

Un computer tipicamente contiene differenti tipi di memoria, generalmente appartenenti a tre differenti categorie: RAM, ROM e Cache. Nel seguito esse verranno accuratamente descritte.




















Fig.4 - Gestione più Efficiente della Memoria



2.1.RAM

Il termine RAM deriva da Random Access Memory. Tale termine indica che in tali memorie è possibile accedere in qualunque locazione di memoria e per qualunque tipo di accesso (lettura o scrittura). Generalmente sono caratterizzate da dimensioni notevoli. Attualmente assumono valori medi di 64 MBytes, ma possono andare anche oltre a 128 MBytes.

La caratteristica principale delle RAM è il fatto che l'informazione in esse contenute rimane solo quando esse vengono alimentate. La mancanza di tensione provoca la perdita di tutte le informazioni contenute. In presenza di tensione, ciascuna informazione memorizzata rimane fino alla successiva scrittura.

La RAM vengono utilizzate per i seguenti scopi:

memorizzare il Sistema Operativo (ad esempio Windows).

memorizzare i programmi utenti.

memorizzare i dati utenti provenienti dalle periferiche o quelli intermedi.


Dal punto di vista implementativo, le memorie RAM si dividono in due grosse famiglie: RAM dinamiche e RAM statiche.


2.1.1.RAM dinamiche (DRAM)

La RAM dinamica o DRAM usa delle capacità interne per memorizzare i dati. Tali capacità perdono la loro carica dopo un certo intervallo di tempo. Queste capacità necessitano di un costante rinfresco per mantenere inalterata l'informazione memorizzata. Il risultato finale è che tra due accessi consecutivi alla memoria, una carica elettrica viene mandata a rinfrescare la capacità del chip di memoria affinché il dato venga mantenuto nello stato logico corretto. Durante il rinfresco della memoria non è possibile accedere ad essa, rallentando, dunque, le sue prestazioni in termini di accessi in lettura/scrittura.

Le DRAM sono caratterizzate da tempi di accesso (tempi di lettura/scrittura) che vanno dai 10ns ai 70 ns.

Esistono molte varianti delle DRAM. Una tra queste è la EDRAM (DRAM evoluta). Un'altra è la EDO RAM (Extended Data Output RAM). La DRAM più conosciuta è la DRAM Sincrona (SDRAM), la cui caratteristica principale è la capacità di operare in sincronismo con il clock del bus di sistema, di funzionare a frequenze dell'ordine di 100MHz, e di essere caratterizzata da tempi di accesso di 10 ns. Per quanto detto, le SDRAM sono, attualmente, le uniche memorie in grado di dialogare con i bus a frequenza molto elevata.

Le memorie RAM attualmente piu' diffuse sono di due tipi:

Moduli SIMM (Single Inline Memory Module), caratterizzati da un'interfaccia al bus di sistema costituita da 72 piendini. Tali moduli adottano memorie DRAM e EDO RAM.

Moduli DIMM (Dual Inline Memory Module), caratterizzati da un'interfaccia al bus di sistema costituita da 168 piendini. Tali moduli montano memorie SDRAM.


2.1.2.RAM statica (SRAM)

La RAM statica o SRAM è la memoria più veloce  disponibile attualmente e sono caratterizzate da tempi di accesso dell'ordine delle decine di nanosecondi (da 6 ns a 25 ns). Le SRAM sono costose e possono memorizzare solo 1/4 dei dati rispetto le DRAM. A differenza delle DRAM, nelle SRAM non occorre il rinfresco periodico. Generalmente vengono utilizzate per realizzare memoria cache, come verrà spiegato successivamente.


2.2.ROM

Il termine ROM significa Read Only Memory. Indica il fatto che l'unico tipo di accesso in queste memorie è la lettura. In realtà attualmente esistono particolari ROM che possono essere anche scritte. In ogni caso tutte le ROM sono caratterizzate dal fatto che l'informazione in esse contenute rimane anche quando manca la corrente. Nelle ROM che possono essere scritte, l'informazione rimane fino alla successiva scrittura.

Le ROM vengono in genere utilizzate per memorizzare programmi e dati di configurazione essenziali per il funzionamento del computer che devono essere memorizzati anche quando il computer è spento.

Esistono differenti tipi di ROM:

ROM non programmabili. Esse vengono prodotte già inglobando il programma o i dati.

PROM. Sono ROM Programmabili. Esse vengono prodotte senza alcun programma o dati all'interno. Tali programmi e dati possono essere inseriti successivamente attraverso appositi programmatori di PROM. Tale programmazione può avvenire solo una volta.

EPROM. Significa Erasable Programmable ROM. Tali memorie vengono prodotte senza alcun programma o dati all'interno. Tali programmi e dati possono essere inseriti successivamente attraverso appositi programmatori di EPROM. A differenza delle PROM, la programmazione può avvenire più volte, a patto di cancellare la vecchia programmazione tramite raggi U.V.A. (ultravioletti).

EEPROM. Significa Electrical Erasable Programmable ROM. Sono identiche alle EPROM, da cui differiscono solo per il fatto che la cancellazione della vecchia programmazione è realizzata  tramite corrente elettrica.


2.3.Memoria Cache

La memoria cache è generalmente gestita direttamente dalla CPU tramite un bus di dati, e di indirizzi privato. Lo scopo della memoria cache è quello di reperire informazioni utilizzate recentemente senza doverle nuovamente prelevare dalla RAM. Molto spesso, infatti, capita che, durante un'elaborazione, la CPU utilizzi uno o più dati memorizzati nella RAM più volte consecutive. In teoria ogni qual volta la CPU necessita di tali informazioni, deve reperirle nella RAM. Il vantaggio dell'utilizzo della memoria cache è invece quello di memorizzare le informazioni già utilizzate in tale memoria, per poi riutilizzarle in futuro. L'utilizzo della memoria cache rispetto la RAM è più vantaggioso perché:

il bus di indirizzi e dati è locale e non deve essere utilizzato quello comune, che potrebbe essere occupato da altri dispositivi (ad esempio DMA), ritardando l'accesso alla RAM

il tempo di accesso alla cache per lettura/scrittura è molto più basso di quello della RAM (generalmente il tempo di accesso medio alla RAM è 50-70ns, mentre si può arrivare a valori inferiori a 10ns per accedere alla memoria cache).


L'uso della memoria cache prevede, però, opportuni accorgimenti dovuti al fatto che la dimensione di una cache è notevolmente inferiore a quella di una RAM (la dimensione tipica della RAM è di alcune centinaia MBytes, 108 Bytes, mentre la cache ha dimensioni dell'ordine di alcune centinaia di KBytes, 105 bytes). Da ciò si ricava che è impensabile di poter memorizzare nella cache tutti i dati letti dalla RAM, ma sarà necessario sovrascrivere alcuni dati contenuti nella cache, per far spazio a nuovi dati da memorizzare. In particolare, si adotta la politica di sovrascrivere i dati più vecchi, ossia quelli non utilizzati da più tempo.

La gestione della cache, può essere formalizzata nella seguente maniera:

la CPU necessita di un particolare dato

la CPU ricerca in dato nella cache

se lo trova, lo legge e lo utilizza

se non lo trova, lo reperisce nella RAM e lo trasferisce nella cache nella locazione più "vecchia", ossia da più tempo non utilizzata.


Generalmente le memorie cache sono realizzate da memorie RAM statiche, che, come detto, sono quelle caratterizzate da più bassi tempi di accesso. La più vecchia memoria cache è una particolare RAM statica (SRAM) di tipi asincrono, caratterizzata da tempi di accesso dell'ordine di 10 ns. Tale memoria cache veniva usata nel processore 386. Attualmente esistono altri tipi di memoria SRAM, SRAM sincrona con modalità Burst, in grado di raggiungere tempi di accesso minori di 6ns.

Attualmente le memorie cache hanno dimensioni medie di 256Kbyte, con picchi di 512Kbyte fino ad arrivare a valori di 2048Kbytes. Potrebbe sembrare che quanto più grande è la cache, tanto più conveniente sia per le prestazioni della CPU. Questa affermazione è vera relativamente, in quanto, aumentando la cache oltre certi limiti, il rapporto prezzo/prestazioni diventa non conveniente. Per aumentare ulteriormente le prestazioni, la cache può essere incorporata nel microprocessore. La cache su chip comunica più rapidamente con il microprocessore essendo fisicamente più vicina ad esso. Sono definibili due tipi di cache, dette L1 , interna al chip del processore, e L2, esterna. Il processore cerca prima nella cache interna L1 e poi in quella esterna L2.


3.Bus di comunicazione

Un computer presenta differenti bus di comunicazione. Uno tra questi è quello che connette la CPU con i suoi chip di supporto. Un altro è il bus dei dati che connette la CPU alla memoria. Su tale bus transitano tutti i dati letti dalla memoria verso la CPU e dalla CPU in scrittura verso la memoria. Poi vi è il bus degli indirizzi, relativo ad entrambi i bus precedenti. Un altro Bus è quello di controllo per la selezione delle operazioni di scrittura/lettura in memoria. Infine vi è il bus di I/O (o expansion bus), dedicato all'interconnessione con periferiche esterne. In questo paragrafo vengono trattati i bus di I/O.


3.1.Bus di I/O

Il bus di I/O ha il compito di connettere la CPU alle periferiche di I/O (porte seriali, parallele, etc.).

Considerando l'architettura Intel, attualmente esistono i seguenti tipi di bus I/O:

ISA. Il termine ISA significa Industry Standard Architecture. La prima versione del bus ISA era a 8 bit, presente ad esempio negli IBM compatibili AT. Attualmente viene utilizzato un bus ISA a 16 bit. Ha una velocita' massima di trasferimento dei dati di 8Mbit/s. Il trasferimento medio è circa un quarto di quello massimo.

EISA. Il termine significa Extended Industry Standard Architecture. EISA è un'evoluzione del bus ISA ed è teoricamente compatibile con questo. E' caratterizzato da prestazioni superiori rispetto il bus ISA, principalmente dovute alla doppia capacità del bus e all'uso di un proprio dispositivo DMA (Direct Memory Access). Si ricorda che il DMA è una tecnica di gestione del bus che conduce i dati nella memoria RAM, in base alla quale non è necessario l'intervento della CPU per tale trasferimento, ma è un particolare dispositivo DMA che si occupa di effettuare tale trasferimento, alleggerendo la CPU.

MCA. E' un bus proprietario IBM ed è derivato dal bus ISA. Il fatto di essere proprietario implica l'incompatibilità con altri bus di I/O. E' commercializzato in due versioni: a 16 e 32 bit. In termini pratici è capace di trasferire circa 20 Mbit/secondo.

PCI (Peripheral Component Interconnect). E' caratterizzato da una velocità di trasmissione di 264 Mbit/secondo (bus PCI 2.1, che lavora ad una frequenza di 66 MHz). I dati vengono trasferiti in blocchi di 32 bit (a differenza dell'ISA caratterizzato da trasferimenti a 16 bit).

AGP 2X (Accelerated Graphic Port). E' caratterizzato da velocita' trasmissiva a 33 Mb/s a 66 MHz e viene utilizzato esclusivamente per la connessione a particolari schede video accelerate (ossia dotate di processore interno che elabora informazioni visive).


4.Controller

Esistono particolari periferiche, quali dischi fissi, CD-ROM, nastri magnetici (o unita' di back-up), e scanner, che necessitano di particolari circuiti di interfaccia chiamati controller (controllori). Il compito principale di un controllore è quello di garantire il trasferimento dati tra il computer e la periferica, risolvendo alcuni problemi tra cui l'adattamento di segnali elettrici, l'adattamento di impedenza, il collegamento fisico tra il bus del computer e quello relativo alla periferica, ecc.. Dunque il suo ruolo è essenziale al fine di massimizzare il trasferimento dati.

In ambiente Intel sono disponibili due tipi di interfacce per dischi fissi e CD-ROM:

IDE. Significa Integrated Drive Electronics ed è alcune volte chiamata ATA. Tale interfaccia è appositamente progettata per i dischi fissi, ma puo' essere usata anche per i CD-ROM. Il suo principale vantaggio è rappresentato dai suoi bassi costi. Di contro e' caratterizzato da una velocita' di trasferimento dati non troppo elevata e mai superiore a 33 Mb/s. Attualmente esistono differenti versioni di IDE, fra cui quelle più evolute chiamate EIDE o ATA-2. Il vantaggio principale di EIDE consiste nel più veloce trasferimento di dati e nella possibilità di controllare contemporaneamente fino a quattro dispositivi.

SCSI. Significa Small Computer System Interface. Si pronuncia schasi. E' un'interfaccia hardware usata per interconnettere periferiche che usano comandi standard SCSI. Esistono differenti versione degli standard SCSI: SCSI1 a 8 bit, caratterizzato da velocita' massima a 5Mb/s, WIDE SCSI, a 16 bit e velocita' massima 10 Mb/s e SCSI2 o ULTRA WIDE SCSI, a 16 bit con velocita' di 20 Mb/s. SCSI2 è la più recente versione dell'interfaccia SCSI ed è in grado di pilotare scanner, dischi fissi, CD-ROM, nastri magnetici ed altri dispositivi. L'interfaccia SCSI ha dei vantaggi notevoli rispetto quella EIDE/IDE. Tra i più grossi vantaggi nel seguito vengono ricordati quelli più importanti.

Il primo vantaggio è possibilità di connettere un numero elevato di dispositivi (tra sette e quindici).

Con l'interfaccia SCSI è possibile gestire quasi tutti i tipi di periferiche.

Lo standard SCSI prevede l'uso del DMA (Direct Memory Access) per il trasferimento dei dati (rendendo libera la CPU di eseguire altri lavori). Si ricorda che il DMA è una tecnica di gestione del bus che conduce i dati nella memoria RAM, in base alla quale non è necessario l'intervento della CPU per tale trasferimento, ma è un particolare dispositivo DMA che si occupa di effettuare tale trasferimento, alleggerendo la CPU.

Un altro vantaggio dello standard SCSI è che le periferiche con le migliori prestazioni sono disponibili con interfaccia SCSI anziché IDE.


5.Connettori Periferiche di I/O

Esistono differenti connettori che permettono il collegamento con le periferiche esterne (mouse, tastiera, stampante, etc.). Generalmente tali connettori si collegano al bus interno di I/O, descritto precedentemente. I piu' noti connettori sono:

COM1, COM2. Sono porte serali (trasmissione secondo lo standard RS 232), che permettono di collegare mouse, modem e alcune stampanti.

Porta Parallela. Sono connettori a 25 poli femmina, che permettono il collegamento delle stampanti.

USB (Universal Serial Bus). Sono delle interfacce seriali estremamente veloci, poiche' possono arrivare a velocita' di 12 Mb/s. Permettono il collegamento di tastiera, mouse, fotocamere, altoparlanti, etc. Permettono l'inerimento/disinserimento della periferica anche a computer acceso.


6.Unità di Processamento Centrale (CPU)

Un processore può essere visto come un insieme di elementi blocchi funzionali ciascuno dei quali svolge una ben precisa funzione.

Il numero e l'organizzazione di tali blocchi possono essere molto differenziate a seconda degli obiettivi seguiti nella definizione delle caratteristiche dell'unità centrale, per cui in questa sede ci limitiamo ad un esame dei vari blocchi funzionali, cercando di individuare sono le caratteristiche più generali.


6.1.Memoria Cache

La memoria, a rigore, non dovrebbe far parte dell'unità centrale ma attualmente una tendenza che si va consolidando e quella di fornire CPU che presentino al loro interno banchi di memoria allo scopo di reperire velocemente informazioni, senza dover accedere alla memoria centrale. Già nelle sezioni precedenti sono state illustrate le caratteristiche delle memorie cache.


6.2.Registri Interni

Di numero e di caratteristica molto differenziate, i registri interni di lavoro permettono all'unità centrale lo spostamento, la manipolazione ed il deposito temporaneo dei dati senza dover ricorrere alla memoria esterna.

I tipi di registri, le modalità di interconnessione e di comunicazione fra i vari registi sono una caratteristica del processore per cui una trattazione generale risulta inevitabilmente un po' vaga o superficiale.

Possiamo tuttavia individuare un set di registri essenziali per il funzionamento di un qualunque processore, e che, dunque, possono essere ritrovati in una qualunque architettura. Nel seguito tali registri vengono illustrati:


Memory Address Register (MAR). E' il registro specializzato per indirizzare la memoria. Durante l'esecuzione di un programma il MAR contiene l'indirizzo della locazione di memoria centrale (esterna alla CPU) alla quale si vuole accedere in quell'istante. Quindi durante la fase di FETCH (RICERCA) di un'istruzione, il MAR otterrà  l'indirizzo della locazione di memoria in cui si trova l'istruzione che deve essere eseguita, mentre durante la fase di EXECUTE (esecuzione), se si tratta di un'istituzione con riferimento in memoria, contiene l'effettivo indirizzo dell'operando interessato. Più avanti verranno fornite le definizioni di fase di FETCH e EXECUTE e verrà fornito un esempio che illustra meglio il contenuto del MAR.


Program Counter (PC). E' il registro specializzato per contenere l'indirizzo dell'istruzione che deve essere eseguita. Per l'esattezza durante la fase di FETCH (ricerca) il suo contenuto viene portato sul MAR per ricercare l'istruzione corrente; al termine della fase di ricerca il program counter viene incrementato di 1 per cui durante la fase di EXECUTE (esecuzione) contiene già l'indirizzo della successiva istruzione da eseguire. Al sopravvenire di un INTERRUPT (interruzione) o  nel caso di esecuzione di un'istituzione di JUMP (salto) a procedura il valore del program counter, che punta già all'istruzione successiva, viene salvato in un'area di memoria RAM chiamata stack (descritta nel seguito) e il program counter assume l'indirizzo del programma di Interrupt o della procedura da eseguire. Al termine della gestione dell'interruzione o della subroutine, il program counter assumerà nuovamente il valore precedentemente salvato permettendo così la prosecuzione del programma originario.


Memory Data Register (MDR). E' il registro da cui transitano tutti i dati scambiati con la memoria esterna prima di venire smistati, in base al loro significato, presso gli altri registri interni.


Instruction Register (IR). E' il registro che contiene la parte codice operativo di un'istruzione, vale a dire quella sequenza di bit che opportunamente decodificati determineranno le azioni che la CPU deve eseguire.


Accumulatore. E' il principale registro di calcolo dell'unità centrale: e' interessato da tutte le istruzioni aritmetico logiche, dalle istruzioni sui registri, da alcune istruzioni di salto condizionato e dalle istruzioni di trasferimento dati con la memoria. Nelle operazioni di calcolo contiene uno dei due operandi ed il risultato finale. Data la facilità di accesso da parte dell'unità centrale a questo tipo di registro è evidente che quanti più accumulatori si hanno a disposizione tanti più calcoli o elaborazioni parziali possono essere effettuati senza ricorrere al trasferimento di dati con la memoria.


Pointer Registers (PRs). Sono registi specializzati per contenere indirizzi, solitamente di quei sotto programmi ricorrenti con particolare frequenza. Alcuni di essi possono venire specializzati a funzioni particolari. Uno di essi e' lo stack pointer, che indirizza la zona di RAM in cui è stato costruito lo stack. Lo stack e' definita come una porzione di memoria gestita secondo una politica LIFO (Last In First Out). Il funzionamento di tale politica è il seguente: se con una istruzione si  vuol introdurre in esso un dato, i dati già presenti slittano di una posizione verso il fondo. Nell'istruzione inversa di estrazione si preleva il dato in cima allo stack e tutti i dati risalgono di una posizione: nella posizione più profonda entrano tutti 0. L'utilizzo dello stack è estremamente specializzato e ad esso si fa riferimento per memorizzazioni temporanee di dati sia per comodità di programmazione che per sopperire ad un limitato numero di accumulatori. Risulta estremamente comodo per il salvataggio del program counter in caso di interruzione (interrupt) o subroutine; infatti la struttura a LIFO dello stack consente una nidificazione delle subroutine spinta fino al suo massimo grado di profondità. Naturalmente bisogna evitare di introdurre nello stack un numero di parole superiore alla sua capacità perché questo comporti la perdita di dati più profondi: questo può venire con programmi particolarmente complessi ed articolati su molte subroutine. Per questo nei processori e' previsto l'originarsi di una istruzione di interrupt interno chiamata interrupt da stack full, quando lo stack sia riempito sino alla penultima locazione: nella gestione di questo interruzione il programmatore dovrà provvedere al trasferimento in blocco dello stack in una zona RAM.


Status Register. Con registro di stato si intende un registro il cui contenuto è costituito da un insieme di flag aventi un significato individuale, anche se può essere manovrato ed elaborato in parallelo. Il significato dei vari flags costituenti il registro può differire a seconda del microprocessore, ma avremo sempre alcuni flags fondamentali: 

CARRY. Viene manipolato dalle operazioni aritmetiche; viene settato o resettato nel corso di un'istruzione di somma se si è avuto o no un riporto. 

OVERFLOW. Risente anch'esso dell'esito delle operazioni aritmetiche; viene settato a uno se nel corso di una somma o sottrazione si è avuto un trabocco della capacità dei registi. 

INTERRUPT ENABLE. Questo registro abilita la linea esterna di interruzione ad intervenire.

Questi flag possono essere manipolati anche individualmente mediante opportune istruzioni di SET o RESET FLAG. Esistono inoltre delle istruzioni di BRANCH (salto condizionato) legate al valore dei flags di CARRY o di OVERFLOW utilizzabili in sede di elaborazioni aritmetiche complesse. Gli altri bit del registro di stato possono avere significati diversi e rimandiamo il loro esame allo studio dei singoli processori. Possiamo però dire che a volte alcuni di questi flag sono a disposizione dell'utente e sono portati sulle uscite della CPU: essi possono essere utilizzati per generare segnali o stati logici secondo le esigenze del programmatore.


Vi sono altri registri interni alla CPU, registri temporanei di uso esclusivo dell'unità centrale e non accessibili al programmatore, utilizzati per lo più come deposito temporaneo dei dati nel corso di trasferimenti o calcoli. Da notare, per ultimo, che può accadere che alcuni dei registri descritti non compaiono in alcuni processori; questo non deve sorprendere: possono mancare fisicamente ma non manca la loro funzione svolta eventualmente da altri registri o realizzata con strutture alternative.


6.3.Unità Aritmetico Logica o ALU 

L'unità aritmetico logica è in grado di eseguire, sulla base dei segnali di controllo ricevuti, operazioni aritmetiche come somma, sottrazione, o logiche come NOT, AND, OR, EXOR (OR esclusivo), complementazione e shift a 4, 8 o 16 bit  in relazione al parallelismo del processore. Uno dei due operandi e' sempre il contenuto dell'accumulatore (registro interno che verrà descritto successivamente), l'altro può essere il contenuto di una locazione di memoria esterna o di un altro registro interno (la definizione di registro verrà fornita in seguito); il risultato dell'operazione è sempre messo nell'accumulatore.


6.4.Instruction Decoder and Control

Questa parte e' il cuore del processore che viene qui introdotto in termini generali. Questa unità di decodifica e controllo riceve come dato in ingresso il codice operativo dell'istruzione presente nell'instruction register (IR). Questo codice puo' essere pensato come l'indirizzo di partenza di un microprogramma interno che agisce a livello circuitale minimo componendo insieme, in modo opportuno, gruppi di microistruzioni. Queste ultime consistono in definitiva nell'emissione di una serie di segnali e stati logici di controllo che servono a predisporre la ALU a compiere una particolare funzione aritmetico logica, a smistare  attraverso i bus interni i contenuti dei registri interessati, a svolgere i necessari test e gli eventuali scambi di dati con l'esterno.

A titolo esemplificativo vediamo con quali passi può essere eseguita un'istruzione, molto semplice, di somma del contenuto dell'accumulatore con il contenuto del MDR. Questa operazione può essere scomposta in sette passi elementari:

  1. Trasferimento del contenuto dell'accumulatore sul bus dati interno alla CPU.
  2. Trasferimento del contenuto del bus dati nella ALU.
  3. Trasferimento del contenuto del MDR sul bus dati interno alla CPU.
  4. Trasferimento del contenuto del bus dati nella ALU.
  5. Attivazione della logica di somma.
  6. Trasferimento del contenuto della ALU (risultato della somma) sul bus dati.
  7. Trasferimento del contenuto della data bus nell'accumulatore (che conterrà il risultato della somma).

Ciascuno dei cinque passi ora descritti e ciò che abbiamo definito una microistruzione. Combinandone in una sequenza opportuna un certo numero si realizza l'istituzione voluta dal programmatore, istruzione che possiamo chiamare, per distinguerla dalle precedenti, anche se con una terminologia non del tutto corretta, macroistruzione. 

L'insieme di codice binari caratteristici di ogni microistruzione memorizzati all'interno dell'unità di controllo e' quello che abbiamo chiamato microprogramma. 

Il programma esterno, dell'utente, lo chiameremo allora macroprogramma.

Quindi, per riassumere, ogni istruzione del macroprogramma determina l'esecuzione di un microprogramma, pensato come sviluppo sequenziale di gruppi di microistruzioni. La complessità e la potenza delle microistruzioni dipendono direttamente dall'ampiezza del microprogramma che le realizza e dalla complessità di queste dipendono le dimensioni o il costo dell'unità di controllo.


6.5.Esempio di Funzionamento

Finora abbiamo descritto una architettura tipica di un processore soprattutto sulla base di un'analisi funzionale dei singoli elementi prescindendo da una analisi della funzionalità del complesso. In questa sezione verrà fornita una descrizione sul funzionamento generale di un processore, illustrando le modalità con le quali esso esegue una qualunque istruzione utente.

La prima cosa importante da dire è che in qualunque processore l'esecuzione di una generica istruzione avviene in due fasi differenti: la fase di ricerca (FETCH) e la fase di esecuzione (EXECUTE). Essenzialmente la prima fase consiste nel prelievo dalla memoria centrale dell'istruzione stessa e degli eventuali operandi che essa richiede (ad esempio se l'istruzione è la somma essa richiede il prelievo degli operandi da sommare). Una volta conclusa la fase di fetch, e, dunque, avendo disponibile sia l'istruzione che gli eventuali suoi operandi, inizia la fase di EXECUTE, caratterizzata dalla decodifica dell'istruzione e dall'attivazione del microprogramma ad essa associato.

Nel seguito le due fasi verranno più in dettaglio spiegate facendo riferimento ad un semplice esempio.

Supponiamo che l'istruzione sia di somma fra il contenuto dell'accumulatore e il contenuto di una cella di memoria il cui indirizzo sia dato direttamente dalla parte operando dall'istruzione stessa. Supponiamo cioè che la cella di memoria contenente l'istruzione da eseguire sia strutturata come segue:





Di seguito sono riportate le operazioni eseguite durante la fase di ricerca (FETCH):

Il contenuto del Program Counter (PC) è relativo all'indirizzo di memoria che contiene l'istruzione.

Il contenuto del Program Counter è inviato al MAR (Memory Address Register)  per operare il prelevamento dell'istruzione all'indirizzo di memoria contenuto nel MAR.

Il dato prelevato dalla memoria è risposto nel MDR (Memory Data Register).

Il contenuto del MDR, ossia l'istruzione, è messa nel Instruction Register per essere decodificata.

Il Program Counter viene incrementato per puntare all'istruzione successiva.


Ha inizio a questo punto la fase di esecuzione (EXECUTE):

La parte dell'istruzione relativa all'indirizzo del secondo operando viene trasferita nel MAR

L'effettivo operando, prelevato dalla memoria è posto nel MDR.

L'operando viene presentato ad un ingresso della ALU.

All'altro ingresso dell'ALU viene presentato il contenuto dell'accumulatore.

L'ALU, predisposta dall'Instruction Register ad eseguire la somma, pone il suo risultato nell'accumulatore.


La fase di esecuzione è terminata ed il processore prosegue con la fase di ricerca dell'istruzione successiva.


.Direct Memory Access

Il DMA è una tecnica di gestione del bus che conduce i dati nella memoria RAM, in base alla quale non è necessario l'intervento della CPU per tale trasferimento, ma è un particolare dispositivo DMA che si occupa di effettuare tale trasferimento, alleggerendo la CPU.

Il DMA viene utilizzato quando si hanno periferiche veloci che devono accedere alla memoria. In tal caso l'accesso potrebbe essere rallentato dalla CPU, nel caso in cui essa non sia particolarmente veloce o sia occupata in altri lavori. La Fig.5 mostra uno schema di funzionamento del DMA. E' possibile vedere che il trasferimento dei dati dalla memoria alle periferiche di I/O (e viceversa) avviene senza l'intervento della CPU, ma tramite ed attraverso il dispositivo di DMA.











Fig.5 - DMA


8.Circuiti di Interrupt

L'attività che svolge la CPU non è mai continua ma viene sempre interrotta da particolari segnali provenienti principalmente da dispositivi esterni alla CPU stessa. Tali interruzioni hanno lo scopo di comunicare alla CPU la necessità che essa esegua particolari programmi. Ad esempio uno dei più comuni interrupt è relativo all'aggiornamento dell'ora e della data interna al computer. La CPU riceve circa 18 volte al secondo un segnale di interruzione che la obbliga ad eseguire il programma associato di aggiornamento dell'ora e della data.

In termini tecnici queste interruzioni prendono il nome di INTERRUPT. Ogni interrupt è caratterizzato da una sua priorità al fine di poter gestire la contesa nel caso in cui più interrupt arrivino contemporaneamente alla CPU. Ad ogni interrupt è poi associato sempre il programma che deve essere eseguito.

All'arrivo di un interrupt, la CPU deve eseguire le seguenti funzioni:

deve salvare nello stack lo stato corrente del programma che stava eseguendo fino a quel momento (lo stato è dunque rappresentato dal contenuto di alcuni registri quali il Program Counter)

deve identificare l'interrupt ed eseguire il programma di interrupt ad esso associato

alla fine dell'esecuzione del programma di interrupt, deve prelevare lo stato dallo stack e ripristinare lo stato corrente prima che venisse l'interrupt

continuare l'esecuzione dallo stato appena ripristinato


9.BIOS

Il nome BIOS significa Basic Input Output System, ossia sistema di base per ingressi e uscite.

Il BIOS è essenzialmente un "software", ossia un programma. Esso é contenuto in un chip di memoria non volatile, ovvero che mantiene i dati anche in assenza di alimentazione. Nel passato era comune utilizzare ROM, non riscrivibili, oppure EPROM. Attualmente, viste le continue innovazioni, le memorie ROM e EPROM sono state sostituite da memorie che possono essere riscritte senza muoverle dalla scheda madre, ad esempio EEPROM o le Flash Memory.

Le funzioni svolte dal BIOS sono essenzialmente tre:

Funzione di POST (Power-On Self Test). Il BIOS offre un insieme di istruzioni-base che permettono al computer di eseguire la procedura di accensione, di riconoscere l'hardware installato e di caricare il sistema operativo (fase di boot) da Floppy o da Hard Disk; l'insieme di queste procedure viene chiamato POST, Power-On Self Test.

Funzione di Memorizzazione di Configurazione Hardware e di Parametri del ChipSet. Per eseguire le sue funzioni, il BIOS ha bisogno di conoscere le caratteristiche dell'hardware presente nel computer; come detto precedentemente, tali parametri sono permanentemente salvati in una memoria non volatile e possono essere modificati dall'utente in fase di accensione (generalmente premendo il tasto DEL quando richiesto). Il chipset mette a disposizione una serie di istruzioni che permettono alla CPU di dialogare con le altri componenti presenti sulla motherboard (memoria, bus PCI, memoria cache, ecc...); esistono diversi tipi di chipset legati al tipo di hardware. Il BIOS memorizza alcuni parametri del chipset e ne permette all'utente la modifica. In genere ogni versione di BIOS permette di intervenire su taluni parametri ma non su altri; alcuni BIOS sono ricchi di opzioni e permettono di ricercare il massimo delle prestazioni variando i parametri presenti, altri invece (soprattutto quelli dei PC IBM, Compaq, Olivetti, ecc...) non permettono quasi per nulla di modificare i parametri, se non per le impostazioni dell'hard disk e della modalità di risparmio energetico. Soprattutto alla voce Chipset Features Setup (o Advanced Chipset Setup) e possibile intervenire sui tempi di accesso alla memoria e su altri parametri del chipset, così da migliorare anche sensibilmente le prestazioni del computer; c'è il rischio di impostare alcuni parametri troppo performanti per l'hardware installato e il sistema si bloccherà durante il funzionamento (oppure non permetterà di terminare la procedura di POST): non è nulla di preoccupante e non si è danneggiato alcun componente; basterà rientrare nel Setup del BIOS (premendo, in genere, il tasto DEL all'avvio) e reimpostare i valori precedentemente usati.

Interfaccia del Sistema Operativo. Una delle funzioni principali del BIOS è il fare da interfaccia tra il Sistema Operativo e l'hardware presente nel computer. Mentre il Sistema operativo, ad esempio Windows 95, è standard, l'hardware, cioè la parte elettronica del PC, può presentare notevoli differenza da costruttore a costruttore o da modello a modello. Ecco che quindi quando il S.O. deve ad esempio recuperare un file dal disco rigido, esegue tale lettura "chiedendo" al BIOS di leggere il file, senza occuparsene direttamente. In questo modo chi scrive i Software o i Sistemi operativi non deve preoccuparsi di queste differenze, in quanto sarà il BIOS, in modo del tutto trasparente, ad occuparsi di indirizzare ed eseguire correttamente le richieste che pervengono dal Sistema Operativo stesso. Visto che il BIOS e' strettamente legato all'hardware, è facile comprendere è che ogni diverso computer possiede un diverso BIOS. Non è possibile cioè utilizzare il BIOS del computer modello xyz nel computer modello hkw.





Privacy




Articolo informazione


Hits: 7250
Apprezzato: scheda appunto

Commentare questo articolo:

Non sei registrato
Devi essere registrato per commentare

ISCRIVITI



Copiare il codice

nella pagina web del tuo sito.


Copyright InfTub.com 2024