Caricare documenti e articoli online 
INFtub.com è un sito progettato per cercare i documenti in vari tipi di file e il caricamento di articoli online.


 
Non ricordi la password?  ››  Iscriviti gratis
 

SISTEMI STOCASTICI - SISTEMI DETERMINISTICI E SISTEMI STOCASTICI

matematica



SISTEMI STOCASTICI


SISTEMI DETERMINISTICI E SISTEMI STOCASTICI


SISTEMI DETERMINISTICI: il loro comportamento è determinato senza ambiguità all'ingresso.

SISTEMI STOCASTICI: sistemi relativi al caso. Sono prevedibili o parzialmente prevedibili e vengono regolati da leggi di statistica.

L'entrata influenza l'uscita; si tratta però di un'influenza che non è riconducibile a certezza.

Si parla di probabilità che una data entrata produca una data uscita.

Esempio di sistema stocastico:

Entrata (puntata) Roulette Uscita (vincita/perdita)




PROBABILITA' = IGNORANZA

Da un certo punto di vista tutti i sistemi sono stocastici, soggetti cioè ad un certo grado di im 434g69e probabilità. Dal punto di vista opposto non esistono sistemi stocastici, perché non si conoscono tutte le cause (ingressi).

La probabilità potrebbe essere sinonimo d'ignoranza perché adombra un mondo rigidamente deterministico in cui la libertà e lo stesso libero arbitrio appaiono semplicemente illusioni.


SIMMETRIE, STATISTICHE E SCOMMESSE

Prima definizione di probabilità: il primo modo rimanda a una definizione a priori della probabilità:


n° casi favorevoli

p =

n° casi probabili


I casi favorevoli devono avere tutti la stessa possibilità; ciò significa che devono avere tutti la stessa probabilità.

Ad esempio la probabilità di trovare una ben determinata pagina su n pagine è uguale a 1/n pagine.


Seconda definizione di probabilità: una definizione a priori di probabilità ha senso solo perchè si riconnette alla "speranza" di un certo risultato o alla sua previsione:


n° risultati favorevoli

p =

n° prove


Questa definizione non porta ad un risultato univoco, ma è sicuramente utile perché permette di dare una stima della probabilità anche quando la definizione a priori espressa dalla prima definizione non è applicabile.

Si è cosi arrivati alla definizione frequentista della probabilità, cioè alla probabilità di un evento come frequenza relativa con cui l'evento si realizza.

Esempio:


n° risultati favorevoli n° canestri

p = ; p =

n° prove n° tiri fatti



Terza definizione di probabilità: la probabilità attribuita è la convinzione soggettiva dell'osservatore che può essere quantificata in termini di scommessa.


Puntata sull'evento

p =

Somma delle puntate


Esempio: scommettere 9 contro 1 che un cavallo tagli per primo il traguardo, vuol dire che in caso di vittoria (se ho puntato 1000£) percepirò 1000£ in caso di vittoria e in caso di sconfitta dovrò pagare 9000£:


9

p =

9 +1


PROBABILITA' DI EVENTI COMPLESSI

Il tentativo di definire con precisione e univocità il concetto di probabilità sta' in una teoria formalizzata, che non si interessa tanto di come attribuire le probabilità ai singoli eventi elementari, quanto di dare regole per calcolare le probabilità di eventi complessi a partire dagli eventi elementari in cui possono essere scomposti.


SPAZI DI EVENTI E VARIABILI ALEATORIE

W = insieme (spazio) di eventi elementari equiprobabili e disgiunti (che si verificano di volta in volta)

Grandezza x = variabile aleatoria

E1, E2, . En = possibili risultati realizzazione


n° casi in cui si realizza l'evento

p =

n° totale dei casi possibili


Eventi composti da più eventi elementari:

n(A)

p(A) =

n(W

Dove A è l'evento costituito dall'uscita ed è sottoinsieme dello spazio W degli eventi elementari; e dove n(x) è il numero degli elementi dell'insieme generico x.


L'EVENTO CERTO E L'EVENTO IMPOSSIBILE

W (evento composto) è l'evento certo.

Probabilità p(W) = n(W)/n(W) = 1. Cioè uguale certezza.

Insieme è l'evento impossibile, che è sottoinsieme di qualunque insieme e che ha probabilità p( ) = n( ) = 0/n(W


L'EVENTO CONTRARIO

L'evento contrario si verifica ogni qual volta non si verifica A:

W - A; cioè l'insieme degli elementi di W non appartengono ad A.

Probabilità di Ā:



n(Ā) n(W) - n(Ā)   n(A)

p(Ā) = = 1 - p(A)

n(W n(W n(W


PROBABILITA' CHE ACCADA UN EVENTO E L'ALTRO

Il numero n(C) di eventi elementari è uguale al prodotto n(A)*n(B) e analogamente n(W W)= n(W)*n(W


n(C) n(A)*n(B)

p(C )= = p(A)*p(B)

n(W W) n(W)*n(W


La probabilità di una probabilità condizionata dipende dal verificarsi o meno di A; è indicata con P(B|A), cioè "probabilità di B dato A":


p(A*B)=p(A)*p(B|A)


Il nuovo evento B|A, una volta verificatosi A è indipendente da A.

Simmetricamente l'evento A può dipendere dall'evento B:

p(A*B)=p(A)*p(B|A)=p(B)*p(A|B)

Dove p(B|A) è la probabilità che si verifichi A, una volta verificatosi B.

Il risultato può essere riscritto nelle due formule di Bayes:


p(A)*p(B|A) p(B)*p(A|B)

p(A|B)= e p(B|A)=

p(B) p(A)


LE DISTRIBUZIONI DI PROBABILITA'

MEDIA E VARIANZA

Media della variabile aleatoria:

n

< x > = pixi

i=1

Media aritmetica pesata:

n n

< x > = fixi =  1/N* Nixi

i=1 i=1

La media è anche detta valore sperato o speranza matematica.


La varianza fornisce una misura di come i valori osservati dalla variabile aleatoria si raggruppano intorno alla media.

n

s pi (xi - < x >)2

i=1

Più una varianza è grande più c'è dispersione dei valori. Più piccola è minore è l'errore che si commette considerando i valori uguali alla media.


Deviazione standard: la radice quadrata della varianza è detta deviazione quadratica o deviazione standard.


DISTRIBUZIONE DI BERNULLI

Ci sono alcune distribuzioni che si ritrovano spesso nelle applicazioni, una di queste è la distribuzione di Bernulli (o binomiale). Questa distribuzione dice qual è la probabilità che un certo evento di probabilità nota accada esattamente un dato numero di volte su n prove indipendenti.


DISTRIBUZIONE DI GAUSS

Si supponga di avere una grandezza che può assumere il valore d con probabilità P e il valore 0 con probabilità 1-P; se si fanno n misure di questa grandezza e si sommano i risultati, si ottiene una variabile aleatoria per distribuzioni da 0 ad a = nd

Se d è molto piccola i valori di x sono molto ravvicinati.

Si consideri un intervallo Dx compreso tra un particolare valore di x 'e x' +Dx che contenga molti altri valori di x; per la regola della somma di probabilità di eventi disgiunti, la probabilità che il valore di x cada nell'intervallo x', x'+Dx  è Px'/d

1

.p(x) = e

ps

A questo punto si può supporre che i valori x che la variabile aleatoria X può assumere siano distribuiti con continuità sull'asse reale, che cioè d tende a 0 e n tende all'infinito. La formula rappresenta una distribuzione continua di probabilità o densità di probabilità.

Nel caso di una distribuzione continua non ha più senso parlare di probabilità di un singolo valore.

Si noti inoltre che p(x)*Dx è l'area del rettangolo di base Dx e l'altezza p(x).


Si può concludere che:

- p(a x < b) è pari all'area sottesa da p(x) fra x = a e x = b

- l'area sottesa da p(x) su tutto l'asse x è pari a 1, perché comunque deve cadere da qualche parte.

La distribuzione continua è detta di Gauss o distribuzione normale.

Questa distribuzione è una curva simmetrica rispetto al suo valore medio e ciò significa che in questa distribuzione il valore medio è il valore più probabile.

Una gaussiana si presenta ogni volta che una grandezza aleatoria può essere considerata come la somma di tanti contributi elementari con la stessa probabilità di verificarsi o meno.


GLI ERRORI DI MISURA

Anche la distribuzione degli errori di una grandezza fisica è una gaussiana. Bisogna supporre però che le molteplici cause d'errore abbiano la stessa probabilità di verificarsi.

Questo giustifica il fatto di assumere il valore medio come il valore buono di una misurazione.

RUMORE BIANCO


Rumore termico: caso di distribuzione normale.

Il rumore termico è presente in ogni circuito elettrico ed è dovuto al moto di agitazione termica del reticolo e si manifesta come fluttuazioni casuali di tensione nel circuito.

La distribuzione di rumore ha media nulla perché ogni elettrone ha la stessa probabilità di manifestarsi con un segno o con quello opposto.



1

p(Vn) = e

ps


Dove Vn è la tensione di rumore e.


s (< v  >)


Rumore bianco: il rumore gaussiano è detto bianco perché contiene allo stesso modo tutte le possibili frequenze.

Il segnale di rumore può avere variazioni istantanee, cioè contenere tutte le frequenze fino all'infinito.


Teorema limite centrale: date n variabili aleatorie indipendenti e di distribuzione pressoché qualunque, di medie m e varianze s , la loro somma è una variabile aleatoria che al crescere di n tende a una distribuzione di m = m1 + . mn  e varianza s s s n.









Privacy




Articolo informazione


Hits: 4669
Apprezzato: scheda appunto

Commentare questo articolo:

Non sei registrato
Devi essere registrato per commentare

ISCRIVITI



Copiare il codice

nella pagina web del tuo sito.


Copyright InfTub.com 2024