Caricare documenti e articoli online  
INFtube.com è un sito progettato per cercare i documenti in vari tipi di file e il caricamento di articoli online.
Meneame
 
Non ricordi la password?  ››  Iscriviti gratis
 

Psicologia generale - Lineamenti storici

psicologia


Inviare l'articolo a Facebook Inviala documento ad un amico Appunto e analisi gratis - tweeter Scheda libro l'a yahoo - corso di



ALTRI DOCUMENTI

Elementi di Psicologia - CONDIZIONAMENTO E APPRENDIMENTO
La fondazione delle 5 tesi sull'arte
Universo Bernuliano
Man mano che mi sposto a destra e a sinistra i numeri dei punti z diversi da zero
PSICOLOGIA DELL'HANDICAP E DELLA RIABILITAZIONE - I soggetti, le relazioni, i contesti in prospettiva evolutiva.
La Psicologia - Area di psicologia individuale
L'ANZIANO - TIPI DI CAMBIAMENTI
TEORIE SOCIOLOGICHE - TEORIE DELLE AREE CRIMINALI, DISORGANIZZAZIONE SOCIALE
Psicologia del lavoro
DROUP AUT SOCIALE E DISPERSIONE SCOLASTICA.

Psicologia generale

Capitolo I

Lineamenti storici

Le origini

La parola "psicologia" è un composto di due termini greci: psyché (anima) e logos (discorso). Il conio del termine si attribuisce al teologo riformatore Filippo Melantone. Nell'uso scientifico, la parola psicologia entra pienamente solo nel primo settecento, quando Christian Wolff la definisce, insieme a teologia e fisica, una delle discipline "metafisiche speciali", ossia deputate ad indagare i tre soggetti supremi della conoscenza: Dio, la natura e l'uomo.

Fin dall'inizio della ricerca psicologica si delineano due filoni che confluiranno nel sapere psicologico occidentale: quello filosofico e quello medico.

Uno dei temi più rilevanti della filosofia greca è quello della natura dell'anima, e dei suoi rapporti con il corpo. L'identificazione dell'anima come entità distinta è uno dei motivi fondamentali della dottrina della filosofia pitagorica, che prevede la metempsicosi (reincarnazione) e quindi la nozione di un'anima  come nucleo interno, immateriale ed immortale che rimane identica nel ciclo naturale.



Sarà la filosofia di Platone a spostare l'accento sull'elemento psichico, che comprende anche il mondo pulsionale ed emotivo, oltre alla funzione cognitiva: il corpo, attraverso i sensi perviene ad una conoscenza incerta e particolare, mentre l'anima ottiene conoscenze universali attinte al mondo delle idee, cui l'anima è affine.

Con la filosofia di Aristotele viene assunto un punto di vista sostanzialmente diverso. L'anima, in quanto principio vitale del corpo, non è scindibile da esso: l'essere vivente è dunque un organismo integrato; per cui Aristotele, a differenza di Platone, non ammette una suddivisione dell'anima in parti distinte, ma nell'anima si possono individuare diverse facoltà corrispondenti alle attività che l'organismo effettua. Dio particolare importanza è la teoria aristotelica delle sensazioni, nelle quali troviamo  fissata la terminologia con cui ancora oggi descriviamo i processi sensoriali. La sensazione è un effetto esercitato da oggetti esterni che provocano un'alterazione degli organi di senso. I sensi si definiscono come potenzialità ricettive, che attraverso mezzi di propagazione (come l'aria) ricevono stimoli esterni dagli oggetti di cui assimilano la forma e non la materia. L'attività intellettiva è essenzialmente un'elaborazione del materiale dato nella sensazione, secondo il principio che nella scolastica medievale si formulerà così: "Nulla si trova nell'intelletto che non sia stato prima nel senso".

La medicina ippocratica

Anche la pratica medica nella Grecia antica manifesta fin dagli esordi una particolare attenzione per i fenomeni psichici. E' con Ippocrate che viene fondata una scienza medica consapevolmente naturalistica e basata sull'esperienza; egli sviluppò una teoria fisiologica basata sugli umori o liquidi corporei, che ha diretta rilevanza con la storia della psicologia. InfattiInfatti, i quattro umori della fisiologia ippocratica (sangue, flegma, bile nera o gialla) corrispondono, a seconda della prevalenza di uno o dell'altro nell'organismo; ai quattro temperamenti fondamentali, in seguito teorizzati dal medico greco-romano Galeno: sanguigno, flemmatico, melanconico e collerico. Troviamo quindi il primo tentativo di una classificazione psicologica degli individui, il cui influsso è ancora presente ai giorni nostri sia nel linguaggio quotidiano, sia nelle classificazioni tipologiche proposte dalla psicologia scientifica. Ma il contributo della medicina greca alla psicologia non si esaurisce con le proposte teoriche, ma è la pratica medica stessa che richiederà un approccio complessivo, psicologico e fisico alla malattia. Fondandosi su un modello della salute come equilibrio dell'organismo, Ippocrate considera la malattia e conseguentemente la guarigione, come uno stato che coinvolge integralmente il paziente nei suoi rapporti con l'ambiente. Condizioni climatiche  e ambientali, relazioni sociali e stati d'animo dell'individuo, possono contribuire all'insorgere delle patologie... Compito principale del medico è quello di ristabilire l'equilibrio: per Ippocrate nel processo terapeutico è di fondamentale importanza infondere speranza e fortificare la volontà del paziente. Per questo il medico deve conoscere la situazione e affrontare ciascun caso in maniera personalizzata.

Accanto ad un approccio conoscitivo e teorico della natura umana quale troviamo nella filosofia, la cultura greca esprime anche un sapere psicologico orientato al benessere dell'individuo, secondo una visione attuale che coinvolge corpo, psiche e relazioni ambientali. 

Psicologia e filosofia: dal medioevo a Cartesio

Per tutta l'epoca medievale, filosofia, scienza e tecnologia restano intimamente fuse e inscindibili. E' con il rinascimento e con la rivoluzione scientifica secentesca che la psicologia viene ad occupare un ruolo di primo piano in una riflessione filosofica. In questa forma la psicologia si esprime come riflessione sul mondo interiore; la visione dualistica di Cartesio rappresenta un punto di riferimento fondamentale per tutta la concezione moderna dei rapporti fra mente e corpo. Per Cartesio la realtà si divide in due mondi distinti e separati: la res extensa, cioè la sfera della materialità, in cui regnano leggi puramente meccaniche, e la res cogitans, che è invece il mondo immateriale del pensiero. In questa concezione l'essere umano assume una posizione speciale in cui s'incontrano due tipi di sostanza: da una parte l'uomo è identificabile come sostanza corporea, a cui accadono eventi o processi fisiologici; dall'altra l'uomo è una sostanza pensante, a cui accadono eventi psichici, mentali. L'uomo è da una parte un organismo governato da leggi meccaniche, e dall'altra parte un essere intelligente e dotato di libera volontà. Ma la mente può muovere e dirigere il corpo, e attraverso i sensi può ricevere dal corpo stimoli riguardanti oggetti materiali esterni, che devono essere assimilati dalla mente, attraverso un processo di assimilazione equivalente ad una vera e propria codificazione mentale. Gli stimoli devono essere tradotti in un linguaggio intelligibile: devono cioè diventare informazioni. Da questo punto di vista Cartesio è il primo a porre il problema della percezione e dei processi cognitivi, in termini rappresentazionali. La mente essendo di natura immateriale non può contenere altro che idee, che corrispondono o "stanno" per delle cose. Alcune idee sono innate, altre derivano dall'esperienza, altre sono prodotte dalla mente stessa che elabora complessi di idee. Questa concezione dell'attività mentale in termini rappresentazionali sarà rivisitata dalle scienze cognitive e dalla linguistica contemporanea.

Cartesio è il filosofo del dubbio metodico e la sua soluzione prelude ad una tematica fondamentale per la psicologia moderna: l'evidenza fenomenologica degli atti psichici. Di tutto si può dubitare, ma non del fatto che si dubita, e questo "fatto" viene indicato come un evento mentale. L'atto del pensiero implica per Cartesio l'esistenza dell'io pensante, o per usare la sua celebre formula, "penso dunque sono" (cogito ergo sum). Mentre l'esistenza della realtà materiale è incerta, quella dell'io è data al soggetto in modo evidente e immediato, insieme con la qualità fenomenica  delle sue cogitationes.

Cartesio è il primo filosofo moderno ad affrontare sistematicamente il tema delle passioni e dei moti affettivi. Le passioni sono causate dagli oggetti esterni (sensazioni) o dal corpo stesso (fame, sete ecc.), oppure si presentano come stati d'animo diffusi,  non riferibili ad un oggetto immediato (gioia, tristezza ecc.). Egli comprende il ruolo funzionale delle passioni nella vita umana, in quanto indicatori di ciò che può giovare o nuocere all'organismo  e afferma la necessità di controllare le emozioni passandole al vaglio della ragione: solo l'osservazione "spassionata" e razionale può confermare l'utilità o nocività di quello che ci appare come oggetto immediato di desiderio, odio e così via.

Il vetro di Kant e il problema di una psicologia scientifica

Problema centrale tra i successori di Cartesio è quello epistemologico, cioè la riflessione sui limiti e sulle modalità della conoscenza umana, sul suo valore oggettivo e sulla sua struttura. L'orientamento principale per gli sviluppi della psicologia è quello empirista, dominante nell'area inglese agli inizi del settecento.

Critici nei confronti dell'innatismo Cartesiano, e influenzati dal sensismo di Aristotele, questi filosofi fanno derivare l'intera conoscenza umana dall'esperienza, ed in particolare dall'esperienza sensoriale. 

Nelle filosofie empiriste vedono la luce alcune nozioni che segneranno la psicologia: la coscienza come spazio in cui si presentano eventi materiali; il senso interno come facoltà di percezione applicata allo spazio psichico e parallela al senso esterno che si applica al mondo fisico; infine la forza naturale che presiede ai legami tra le rappresentazioni, ossia l'associazione delle idee.

Sul finire del settecento Immanuel Kant conclude un'epoca del pensiero psicologico e al contempo apre la strada aad istanze che proietteranno la  psicologia fuori dalla tutela della filosofia, sancendo la fine della controversia tra razionalismo ed empirismo enunciando il programma del suo "idealismo trascendentale". Per Kant il mondo ci appare in un dato modo in ragione della struttura del nostro intelletto, e le cause di tali apparenze o fenomeni sono le cose in sé, indipendenti dal nostro modo di conoscerle. Per poter conoscere una cosa la mente deve categorizzarla, cioè ricondurla (assumerla) a quelle che sono le proprie strutture. Ciò che è oggetto di conoscenza deve rispettare certi parametri, conformi alle caratteristiche del nostro sistema conoscitivo, quelle che Kant chiama le categorie dell'intelletto. In merito alla concezione del sé Kant recupera la concezione cartesiana del cogito, intendendola però come un evento mentale a sé stante ("io penso") che accompagna ogni attività mentale. Questo assicura l'unità della coscienza, ma apre anche un nuovo fronte di problemi per la legittimità della psicologia. L'io compare nella coscienza come istanza attiva e funzionale, ma non  è rintracciabile nell'esperienza interna come oggetto. Per cui, afferma Kant, per il soggetto non è possibile conoscere il soggetto stesso; l'io è, infatti, il presupposto per conoscere gli oggetti, non un oggetto a sua volta: la nostra dotazione psichica è uno strumento, come un cannocchiale, attraverso cui si possono vedere gli oggetti ma non il cannocchiale stesso. Il senso interno è per Kant una facoltà inadeguata, non potrà mai separarsi dal proprio oggetto, quindi non potrà mai organizzare le proprie informazioni in formule matematiche o geometriche com'è possibile per le scienze fisiche, da cui deriva un vero e proprio veto ad una psicologia come scienza dell'anima. Al più possiamo conoscere le manifestazioni empiriche della soggettività e i suoi prodotti, ma non la psiche stessa, possiamo osservare ciò che fa l'uomo di se stesso, vale a dire i vari modi cui l'uomo, come agente libero, si esprime.  Per questo la psicologia è pensabile solo come antropologia descrittiva, osservazione sistematica dei vari fenomeni umani. Con la sistemazione kantiana la psicologia viene sottratta al regno delle scienze naturali, per entrare in quelle che saranno poi chiamate "scienze umane": storiche, sociologiche, antropologiche.

Le reazioni al veto kantiano non tardarono a farsi sentire: la critica kantiana si rivelò un incentivo allo sviluppo della psicologia. Soprattutto con due tipi di reazioni che segnarono le sorti della psicologia: la reazione di stampo positivista, legata ai nomi di Helmholtz e Wundt, che cercherà di dimostrare la possibilità di una scienza della psiche prendendo a prestito i  metodi sperimentali delle scienze naturali, in particolare della fisiologia, aggirando quindi il problema del senso interno. L'altro è quello antikantiano e neocartesiano di Brentano, che opererà una riconversione concettuale del senso interno, dimostrando che esso non solo non è una facoltà "inetta", ma anzi è la sola fonte d'evidenza di cui disponiamo; questo secondo tentativo darà origine al filone della psicologia fenomenologica.

La psicofisica

L'introduzione di metodi sperimentali nella raccolta dei dati e lo sviluppo di metodologie quantitative nel trattamento degli stessi sono i due mezzi principali grazie ai quali la psicologia otterrà lo status di scienza a pieno titolo.

Impulso decisivo allo sviluppo della misurazione psicologica provenne dagli studi dei meccanismi sensoriali, con la fondazione della psicofisica, il merito di tutto questo va riconosciuto a Fechner, nemico del dualismo cartesiano e sostenitore del monismo ontrologico (convinto cioè che una sola sia la realtà esistente) egli si propose di dimostrare che "spirito" e "materia" non sono che le due facce di un'identica realtà di fondo di natura psicofisica.

Gli studi di Fechner s'incrociarono con quelli di Ernst Weber, riguardanti la capacità umana di distinguere l'intensità di due stimoli sensoriali. Dai suoi studi emergeva che la sensazione avvertita dal soggetto (quindi una grandezza appartenente al mondo psichico) e lo stimolo somministrato (grandezza appartenente al mondo fisico) si trovano in rapporto di diretta dipendenza, sebbene non di proporzionalità diretta. Servendosi di nuovi metodi matematici Fechner giunse ad enunciare l'equazione detta "legge di Weber-Fechner":

E  =  k  logR

dove E è l'intensità della sensazione, R è l'intensità dello stimolo e  k una costante che dipende dal sistema sensoriale ipotizzato. Risulta quindi che la sensazione cresce proporzionalmente al logaritmo del valore dello stimolo.

Per la prima volta un intero ambito di dati psichici usciva dal campo di una determinazione puramente soggettiva e aleatoria per diventare una grandezza osservabile e misurabile almeno direttamente.

Fisiologia e psicologia: Helmholtz

Tema centrale della ricerca dei fisiologi fin dall'inizio del 700 era la natura e il funzionamento del sistema nervoso. Il ruolo delle fibre nervose nella trasmissione degli stimoli era riconosciuto e studiato: per la prima volta s'identificava una via di conduzione diretta tra la realtà esterna e il mondo psichico, e si riconosceva che nessuno stimolo è "conosciuto" in modo immediato. Le caratteristiche dell'apparato mediatore, dunque, dovevano essere studiate e valutate nella loro funzionalità conoscitiva: si doveva capire quanta parte, quali aspetti e quali modalità del mondo esterno ci fanno conoscere. Muller, un fisiologo tedesco, formulò la teoria delle energie specifiche dei nervi, secondo cui i nervi non sono semplici conduttori neutrali che trasferiscono lo stimolo senza elaborarlo, ma ciascun tipo di nervo, in base alle proprie caratteristiche, veicola selettivamente particolari informazioni ed esercita un influsso determinante sulla qualità delle esperienze sensoriali (per es. una stimolazione tattile produce una sensazione visiva se esercitata sul nervo ottico). Perciò, secondo Muller, la nostra percezione non fornisce una conoscenza degli oggetti esterni in quanto tali, ma degli stati e delle proprietà dei nervi stessi. Alle ricerche di Muller si collegò anche il lavoro di Herman von Helmholtz che estese la specificità funzionale dei nervi anche alle fibre componenti: egli ipotizzò la presenza nell'apparato visivo di "recettori" retinici di tre tipi, sensibili a colori diversi (rosso, verde e blu) detti colori fondamentali, la cui combinazione dà luogo a tutti gli altri. Analoga distinzione fu avanzata da Helmholtz riguardo alle fibre nervose coinvolte nella percezione acustica, ciascuna delle quali è sensibile ad una specifica altezza di suono. Altro studio dove portò un livello di chiarezza e di rigore sperimentale è stato lo studio dei tempi di reazione, connesso alla scoperta dei riflessi, cioè di risposte motorie determinate dai nervi afferenti[1] ed efferenti[2] al livello del midollo spinale, quindi senza passaggio dal attraverso il cervello per cui senza il controllo della volontà. Helmholtz riuscì anche a dimostrare che la velocità di propagazione dell'impulso lungo le fibre nervose è finita, indicando anche la possibilità di misurarla. Sempre nell'immediatezza dei fenomeni psichici s'inquadra il modello psicologico-cognitivo di Helmholtz e in particolare la sua teoria, venata da forti componenti filosofiche, riguardante la percezione. La pura stimolazione sensoriale, anche mediata dall'energia specifica delle fibre nervose, non è sufficiente a generare la percezione, in particolare degli oggetti. Per spiegare la correzione e l'integrazione dei dati sensoriali grezzi, ottenuta dagli stimoli sensoriali, in unità oggettuali compiute deve essere postulato un ulteriore processo di mediazione a livello più elevato. Si tratta di processi cognitivi che Helmholtz interpreta come vere e proprie unità di calcolo matematico, presumibilmente basate su schemi di elaborazioni innati, ipotizzando quindi un ruolo attivo della mente nell'organizzare il materiale sensoriale. Malgrado i problemi di ordine logico e concettuale suscitati da questa teoria, la psicologia cognitiva sembra muoversi ancora oggi largamente entro questo paradigma basato sul meccanismo di ricezione/elaborazione (inconscia) dei dati di stimolazione.

La psicologia in laboratorio: Wundt

Tradizione vuole che il primo laboratorio di psicologia sperimentale sia quello impiantato da Wundt nel 1879 all'Università di Lipsia. Analoghe iniziative furono tentate in precedenza ma è solo con l'opera di Wundt che la psicologia raggiunse un profilo istituzionale e accademico del tutto nuovo, sostenuto da un sistematico lavoro teorico e sperimentale, riconosciuto internazionalmente, tanto da richiamare studenti da ogni parte del mondo. Sotto il profilo istituzionale occorre sottolineare tre aspetti dell'attività di Wundt:

1.      la decisione di proporre la psicologia come sapere disciplinare, grazie alla pubblicazione del primo trattato di psicologia sperimentale (Lineamenti di psicologia fisiologica, 1873-74);

2.      l'affermazione della psicologia come progetto di lavoro permanente, con la fondazione della prima rivista settoriale specializzata;

3.      la decisione di definire uno spazio di lavoro della psicologia, il laboratorio psicologico appunto.

Attraverso questi passaggi iniziavano a formarsi una comunità di psicologi che operavano a livello scientifico, e si consideravano scienziati a tutti gli effetti (sebbene la maggior parte -Wundt compresso- fossero di provenienza filosofica).

La visione teorica di Wundt assegna un posto centrale al concetto di esperienza, che può essere considerata dal punto di vista delle informazioni che reca a proposito del mondo esterno, come fanno le scienze fisiche; oppure può essere studiata in rapporto alle sue proprietà intrinseche: e questo è il punto di vista della psicologia. Scopo della psicologia è la descrizione e l'analisi dei contenuti della coscienza, cioè di ciò che si manifesta nell'esperienza momento per momento. La psicologia wundtiana si caratterizza quindi per il suo elementismo e il suo associazionismo: si tratta in primo luogo di analizzare e ridurre l'esperienza ai suoi contenuti elementari, e in secondo luogo di scoprire sperimentalmente le leggi in base alle quali i contenuti semplici si combinano per dar luogo alle formazioni psichiche complesse. La ricerca nel laboratorio di Lipsia si basava soprattutto nell'analisi dei metodi introspettivi, per cui alla somministrazione di uno stimolo in condizioni note e controllate era seguito dal resoconto del soggetto riguardo le proprie esperienze successivamente alla manipolazione  dei parametri di stimolazione da parte dello sperimentatore era seguita da nuovi resoconti introspettivi da confrontare con i primi, combinando l'impostazione sperimentale tipica delle scienze naturali, con la centralità dell'introspezione, tipica, invece, delle psicologie soggettivistiche. "Wundt rifiuta l'introspezione nella sua forma tradizionale, accettandone però l'oggetto" [Danzinger, 1990]

L'impostazione metodologica di Wundt influenzò la concezione generale della psicologia come scienza, per i wundtiani infatti non tutte le aree della psicologia sono idonee allo studio sperimentale: settori privilegiati restano quelli della sensazione e della percezione, mentre altre facoltà cognitive (memoria, immaginazione) si prestano in misura inferiore al metodo dell'introspezione sperimentale. Aree come lo studio degli effetti  e la psicologia sociale esulano, poi, dalla possibilità di sperimentazione in quanto non riconducibili ai contenuti psichici elementari, e si possono solo osservare con metodi osservativi, descrittivi e comparativi, affini a scienze come l'antropologia e la sociologia. L'uso sperimentale dell'introspezione si regge sulla convinzione che sia possibile per il soggetto assumere, mediante la concentrazione attentava, un atteggiamento puramente descrittivo e oggettivo di fronte alle proprie esperienze vissute, che diede origine ad un programma di ricerca guidato dalla scuola strutturalista di Titchener, imperniata sul tentativo di descrivere gli eventi mentali elementari evitando il cd. errore dello stimolo che consiste nel confondere l'esperienza immediata del soggetto con l'oggetto di tale esperienza.

La psicologia fenomenologica

Brentano e la psicologia descrittiva

La "psicologia descrittiva" di Brentano mira alla classificazione  dei fenomeni psichici, ma, differenziandosi nettamente dall'impostazione wundtiana, esclude completamente il metodo sperimentale riservato alla psicologia genetica, cioè alla scienza che studia le origine, le cause e lo sviluppo dei dati psichici. L'interesse dello psicologo descrittivo va invece unicamente alla struttura qualitative del fenomeno psichico e alle modalità con cui esso si rivolge al proprio oggetto. La coscienza non è vista come collezione o flusso di contenuti, com'era per Wundt, bensì come luogo di atti psichici diretti a oggetti; l'oggetto quindi non viene assunto come stimolo casuale, ma unicamente come ciò intorno a cui verte l'atto. L'avere qualcosa come oggetto è la proprietà detta intenzionalità (dal latino in-tendere= mirare, tendere verso) che caratterizza univocamente la sfera del mentale. I diversi modi in cui la coscienza "intende" gli oggetti corrispondono alle classi fondamentali dei fenomeni interni, rappresentazione, giudizio, sentimento: ogni fenomeno psichico contiene in sé qualcosa come oggetto, sebbene non sempre nello stesso modo. Pertanto possiamo definire i fenomeni psichici dicendo che tali fenomeni contengono sempre intenzionalmente un oggetto.

Brentano sottolinea dunque il carattere rappresentativo dei fenomeni psichici, la loro capacità di "stare per" qualcosa, ed è il caso di ricordare come tale carattere simbolico dei contenuti mentali sia entrato stabilmente a far parte dell'apparato teorico delle attuali scienze cognitive. La conoscenza psicologica è eminentemente empirica, in quanto derivata dalla percezione interna. Quando prende in considerazione un oggetto, la mente necessariamente percepisce questo suo atto: la coscienza e nello stesso tempo sempre autocoscienza. Recuperando il cogito cartesiano Brentano si affida dunque all'evidenza interiore della coscienza, immediata e infallibile, per ottenere una fondazione certa della conoscenza psicologica.

William James

Impostazione indipendente da quella di Brentano, ma per molti versi affine al progetto fenomenologica caratterizza la psicologia di James che, pur senza creare una sua "scuola", ha influito profondamente sulla psicologia americana. Anche in lui l'analisi della vita interiore, assunta nella sua immediatezza qualitativa e fenomenica, è il fondamento della conoscenza psicologica. Formula una visione della mente diametralmente opposta a quella dell'associazionismo e dell'atomismo: la teoria cd. del flusso di coscienza che sottolinea l'arbitrarietà dei procedimenti tendenti ad isolare singoli elementi in quello che è invece un flusso di esperienza continuo e organico. La primarietà dell'esperienza viva e dinamica conduce James a criticare anche la nozione di un "io puro" inteso come entità sostanziale cui ricondurre l'identità dell'individuo. In lui prevale l'idea di un self come complesso di costrutti derivanti in parte dalla sfera ambientale e internazionale, in parte dalla propriocezione[3] e dalla memoria. Da ricordare l'importante teoria delle emozioni cui James ha legato il suo nome e detta teoria James-Lange, secondo la quale la risposta fisiologica a stimoli emotivi generati precede l'esperienza emozionale stessa, la generazione dello stimolo stesso, che quindi fa centro non direttamente sullo stimolo, ma sui dati sensoriali provenienti dai mutamenti corporei.

L'evoluzionismo

Nata nell'ambito delle scienze della vita, la teoria evoluzionistica di Charles Darwin influenzò ogni aspetto dell'attività, della cultura umana e della vita sociale. L'applicazione dell'evoluzionismo al campo della ricerca psicologica implicava che non solo i caratteri somatici ma anche le caratteristiche mentali fossero il risultato di un processo di evoluzione biologica e di adattamento all'ambiente. Due sono le principali conseguenze di questa nuova concezione:

1.            Accanto all'apprendimento e all'esperienza si riconosceva il ruolo preponderante di una dotazione psicologica innata e biologicamente ancorata, comprendente capacità mentali (intelligenza ecc.) ma anche schemi di comportamento, ossia connessioni fisse tra certi tipi di stimolo e risposta, di origine istintuale. Il concetto di istinto veniva così a rappresentare un nucleo attorno al quale si riorganizzavano molte osservazioni che la psicologia tradizionale aveva indagato sotto il titolo di passioni, impulsi ecc.

2.            Si riconosceva la continuità tra le caratteristiche mentali umane e quelle dei primati ammettendo tra esse una differenza di grado ma non di tipo. Lo studio del comportamento animale diventava così direttamente rilevante per la ricerca psicologica, sia intrinsecamente, sia comparativamente.

Darwin offrì un contributo diretto alla scienza psicologica con l'opera L'espressione delle emozioni nell'uomo e negli animali (1872), in essa presentava uno studio sui movimenti espressivi e sulla loro ricezione da parte dell'osservatore, identificando un gran numero di comportamenti emozionali come riflessi istintivi e spiegandoli come "relitti" evolutivi di attività che un tempo, nella storia della specie, avevano assolto compiti finalizzati alla sopravvivenza.

Punto cruciale del darwinismo è quello della variabilità naturale necessaria a spiegare l'insorgere dei caratteri selezionati dall'evoluzione. Fu Francio Galton (1822-1911), pioniere della psicometria e della statistica psicologica , a studiare la variabilità dei caratteri mentali, sostenendone la determinazione ereditaria (pur senza conoscere le leggi della genetica scoperte da Mendel nella seconda metà del 800 ma rese note solo a partire dal 900). Nel suo studio sul Genio ereditario (1869) esaminava le capacità intellettuali di un vasto campione d'individui "eminenti" e le confrontava con le capacità attribuibili ai loro antenati, la sua conclusione fu che il livello d'abilità mentale di ciascun individuo è pressoché totalmente determinato per via ereditaria, mentre l'apprendimento e l'ambiente culturale giocano un ruolo del tutto marginale. Benché i metodi per queste ricerche fossero alquanto arbitrari, l'opera di Galton ebbe il merito d'attirare l'attenzione degli psicologi sulle differenze individuali, che la psicologia tradizionale aveva identificato descrittivamente come qualità personali, "carattere" o "temperamento". La teoria evoluzionista forniva ora un quadro coerente a spiegare le differenze psicologiche tra gli individui come varietà di risposte comportamentali ai compiti adattativi.

Pavlov e i riflessi condizionati

La crescente convergenza  tra psicologia e fisiologia nei primi decenni del 900 è ulteriormente testimoniata dall'opera di Ivan Pavlov. Durante le sue ricerche sulla digestione effettuò alcune scoperte destinate ad incidere profondamente sulla conoscenza psicologica. Studiò in laboratorio le secrezioni salivari dei cani a seguito di determinati stimoli (somministrazione di una soluzione acida). In questo caso si tratta di una normale reazione o riflesso neurologico dovuto al contatto dei recettori del gusto con la sostanza. Ma egli osservò anche che se lo stimolo gustativo veniva fatto ripetutamente precedere da un segnale sonoro, l'animale produceva le secrezioni ancor prima di venire a contatto con la sostanza, già alla produzione di questo stimolo associato ("stimolo condizionato") e prima dello stimolo principale (stimolo incondizionato"). Pavlov chiamò "riflesso condizionato" questa reazione prodotta in assenza di stimolazione diretta.

Per Pavlov, il riflesso condizionato è un fenomeno naturale di portata assolutamente generale, almeno per gli organismi superiori, e riguardante non solo le reazioni fisiologiche ma il comportamento stesso. In un primo stadio i processi elementari sono riflessi incondizionati, risposte innate agli stimoli, le quali se sono organizzate tra loro rappresentano gli istinti; in un secondo stadio, proprio degli animali superiori e dell'uomo, i processi sono più complessi, sono riflessi condizionati, risposte acquisite. In un certo senso la teoria dei riflessi condizionati rappresenta così il completamento della dottrina darwiniana: accanto alla componente istintuale del comportamento umano-costituita da connessioni stabili e innate fra stimoli e risposte, riconducibili all'evoluzione biologica e quindi alla struttura genetica della specie-viene identificato su basi fisiologiche uno dei meccanismi fondamentali dell'apprendimento. L'organismo è in grado di riconoscere e registrare stimoli che fungono da segnali, in quanto annunciano altri stimoli; tra stimolo condizionato e stimolo incondizionato non c'è alcuna somiglianza, ma solo un legame derivante dall'associazione costante dei due stimoli nell'esperienza passata dell'organismo, legame che può anche essere annullato o affievolito nel caso che i due stimoli non si presentino più associati.

Il lavoro di Pavlov apriva un filone di studi sui meccanismi dell'apprendimento, in senso biologistico e antispiritualistico, completamente estranei al metodo dell'analisi dei contenuti di coscienza così com'era stato delineato da Wundt. La scoperta dei riflessi condizionati forniava una conferma decisiva della continuità tra i processi neuropsicologici degli animali e quelli umani. La successiva psicologia dell'apprendimento, sarà prevalentemente improntata allo studio del condizionamento che diverrà uno dei temi dominanti della psicologia per il periodo precedente la Seconda guerra mondiale.

La psicologia della Gestalt

Fu un allievo di Brentano e di Meinong, Christian von Ehrenfels (1859- 1932), il primo a parlare di Gestalqualitaten, qualità formali o figurali. Il movimento gestaltista ebbe come centri d'espansione soprattutto le città di Graz e Berlino, importanti diramazioni in Italia e negli USA a seguito dell'ondata di emigrazioni degli scienziati tedeschi durante il nazismo.

La teoria della produzione di rappresentazioni (scuola di graz)

La tematica delle qualità figurali della teoria della percezione deriva dal riconoscimento dell'esistenza di proprietà che risultano attribuibili a un complesso percettivo ma non alle sue parti o costituenti elementari. Esempi classici proposti dai primi teorici sono relativi alla percezione tonale e visiva. Una melodia ha una sua forma o resa percettiva ben definita, che persiste anche quando tutti gli elementi, cioè le singole note,  variano nell'intensità o nel timbro o nella tonalità. La melodia, dunque, è un "intero" non riconducibile alla somma delle parti. Ciò significa che, mentre le singole parti possono sussistere senza l'intero e indipendentemente da esso, l'intero non può sussistere senza le sue parti. A questa distinzione fa riscontro una differenza psicologica tra rappresentazioni elementari e "rappresentazioni prodotte": infatti un oggetto complesso, come una melodia, può essere rappresentato soltanto grazie ad un'operazione attiva della mente, non riducibile ad una sensazione passiva.

La psicologia della forma

La scuola Gestaltista di Berlino, pur muovendo dai medesimi problemi percettologici, avanzò soluzioni diverse e più radicalmente antielementiste rispetto alla scuola di Graz. L'operazione di produzione da parte della mente, postulata da Meinong, sembrò ai berlinesi un residuo intellettualistico, che lasciava intatte le premesse del vecchio associazionismo. Presupposto della teoria della produzione era che le sensazioni avessero una loro realtà ben definita, e determinata in modo univoco dall'azione elementare di un agente fisico singolo sopra l'apparato sensoriale. Nella teoria della Gestalt il concetto di sensazione e il nesso biunivoco stimolo-sensazione (cd. "ipotesi della costanza") viene superato: ogni aspetto della resa percettiva è determinato dall'autorganizzazione del complesso delle  stimolazioni in un campo percettivo che interagisce dinamicamente con il ricevente. Le "forme" non sono quindi prodotte da un'attività intellettuale, ma risultano necessariamente dall'organizzazione di campo. In un certo senso, non è l'intero a "fondarsi" sulle parti, ma le parti a dipendere dall'intero, secondo quella che viene chiamata la "concezione olistica[4]".  

Attraverso una metodologia sempre rigorosamente sperimentale venne recisa la connessione tra la realtà "obiettiva" e il dato fenomenico. Ciò che appare va studiato: il campo fenomenico ha in sé le sue leggi. Una classico esempio è lo studio di Wertheimer sul moto stroboscopico, ossia sulla percezione di movimento indotta mediante l'illuminazione in rapida successione di oggetti fisicamente immobili, mentre in realtà non vi è nessun movimento materiale. Per  Wertheimer non si tratta di un caso limite: la percezione è esattamente la stessa nel caso in cui gli oggetti si muovano fisicamente; dal punto di vista psicologico il movimento è l'impressione del movimento. Assunto che spiega il rilievo assunto dai gestaltisti nell'analisi dei fenomeni di "percezione" apparente che la percettologia ottocentesca aveva tematizzato come illusioni. Attraverso lo studio delle illusioni i gestaltisti si concentrano sulla struttura stessa dell'esperienza; fenomeni come il movimento stroboscopico e il completamento amodale studiato da Kanisza dimostrano che la resa percettiva è determinata unicamente dalle condizioni del campo e non da interferenze o conoscenze pregresse: tanto che certe interferenze risultano del tutto coercitive e appaiono del tutto naturali anche se il soggetto è perfettamente informato della loro irrealtà.

Larga parte del programma di ricerca della Gestalt è dedicata, perciò, a individuare i principi di organizzazione che governano la percezione delle forme: come le parti del campo s'influenzano reciprocamente e dinamicamente, e come interagiscono con le condizioni cognitive del soggetto (quali l'attenzione, l'apprendimento ecc.). Wertheimer ha per primo enunciato una serie di caratteri che contraddistinguono una "buona forma", in quanto unificano le parti del campo in forme coerenti e dotate di senso: si tratta di vicinanza, somiglianza, chiusura, destino comune, pregnanza. A differenza del comportamentismo che enfatizzava l'apprendimento come via attraverso la quale la mente impara ad orientarsi nel mondo esterno, il gestaltismo identifica quindi una serie di leggi dell'organizzazione percettiva che fanno parte della dotazione innata della mente umana.

La psicologia della Gestalt riconosce una relazione di isomorfismo[5] tra la realtà materiale e quella delle forme fenomeniche. Presupposto di questa teoria è che il principio gestaltico non sia limitato alla sfera psicologica, ma governi la dinamica materiale di ogni sistema biologico. Lo stesso cervello non sarebbe un aggregato di molecole, ma un campo dinamico in cui le forze si distribuiscono secondo i principi della buona forma. L'organizzazione del campo percettivo sarebbe allora strutturalmente identica (isomorfa) all'organizzazione del supporto cerebrale su cui s'innesta: un'identità che non va intesa come corrispondenza punto a punto, ma come corrispondenza funzionale o intertraducibilità fra i due sistemi fisico e psicologico. Questa ipotesi dell'isomorfismo è stata intensamente criticata, oggi si tende a considerarla come un assunto filosofico che può essere accettato o respinto indipendentemente dai risultati sperimentali, che rappresentano la parte più durature del lavoro dei gestaltisti.

Lo studio della percezione non rappresenta l'unico ambito in cui la Gestalt abbia portato innovazioni teoriche e sperimentali, vanno ricordate anche le ricerche sui processi cognitivi superiori e sull'intelligenza. In netta contrapposizione alle teorie dell'apprendimento per prove ed errori tipiche di Thorndike e del comportamentismo, i gestaltisti si concentrarono sulla soluzione dei problemi come manifestazione d'intelligenza, introducendo anche qui il principio del campo. La soluzione di un problema non è altro che la ristrutturazione di un campo cognitivo, detta  insight, grazie alla quale elementi precedentemente isolati o caratterizzati da rigidità funzionale vengono rimessi in gioco e in nuovi rapporti dinamici, acquisendo nuove ed originali funzioni. Il comportamento intelligente (negli uomini e negli animali)  è quindi eminentemente un comportamento attivo guidato da un intuire produttivo: l'accumulazione passiva di tentativi ed errori rappresenta solo una parte limitata di questo processo.

Il funzionalismo

Il funzionalismo fu la prima vera e propria scuola psicologica nata e sviluppata interamente negli Stati Uniti. Centro di espansione della scuola fu l'Università di Chicago, dove operarono il filosofo Dewey (1859-1952) e lo psicologo Angell (1869-1949). Per Dewey la distinzione tra stimolo e risposta, così come quello tra vissuto sensoriale e attività pratica, sono distinzioni artificiose, accettabili sul piano descrittivo ma incapaci di spiegare il comportamento reale. La condotta umana va inquadrata in una considerazione di tipo "funzionale" in cui lo stimolo e la risposta vanno identificati insieme: non esiste un evento che possa di per sé rappresentare uno stimolo in assoluto, ma solo in quanto può generare determinate risposte a seconda del contesto e dell'interazione. Questa continuità dell'azione è legata, per i funzionalisti , a premesse biologico-evolutive ben precise: le risposte comportamentali si sono infatti evolute in ragione degli stimoli come reazioni adattative e dotate di scopo, non come processi separati. Inoltre la medesima funzione adattativa e strategica può essere espletata da sistemi fisiologici o processi neuromotori diversi: la funzione appare dunque come un principio organizzativo di ordine superiore, identificato in base a considerazioni contestuali e finalistiche piuttosto che materiali. La cornice in cui s'inquadra il concetto di funzione è quella tipica della biologia organico-ecologica, in quanto la funzione, istintiva o consapevole, rappresenta una forma di soluzione utile al mantenimento dell'organismo in un ambiente determinato.

Risultano quindi delineati i capisaldi che ispirano i programmi funzionalisti:

·                    accentuazione del carattere attivo e dinamico della condotta umana;

·                    attenzione per i problemi dell'evoluzione e dell'adattamento, sia in senso filogenetico che ontogenetico;

·                    metodo basato sull'osservazione empirica del comportamento piuttosto che sull'introspezione analitica.

Si possono individuare tre filoni di ricerca almeno in cui si concentrò il funzionalismo. Anzitutto favorì uno spostamento dell'interesse  dalle leggi universali della psichicità verso i caratteri individuali e l'evoluzione personale dell'individuo attraverso le varie fasi d'età. Incrociandosi con la tradizione europea questo indirizzo contribuì anche a stabilire le basi empiriche ed osservative per la moderna psicologia della personalità e inoltre si indirizzò verso lo studio dell'individuo nella dinamica sociale e di gruppo, elemento quest'ultimo che caratterizzò il nucleo centrale del movimento, che si sviluppò a Chicago in una scuola ai confini tra sociologia, psicologia e antropologia, influenzata dalla figura del filosofo Gorge Mead. Questa corrente mise in luce il ruolo dell'interazione sociale nella costruzione dei processi cognitivi e nella stessa strutturazione del sé. Infine il funzionalismo, ponendo un forte accento sull'apprendimento come strategia adattativa, ispirò nuove idee nella concezione del nesso stimolo-risposta, idee che trovarono espressione nella celebre formula S-O-R (stimolo-organismo-risposta), dove l'organismo, con la sua complessità biologica e pulsionale, viene ad inserirsi come termine di mediazione tra lo stimolo esterno e la risposta comportamentale.

La psicologia come scienza applicata

Una delle condizioni essenziali per lo sviluppo di una psicologia applicata era l'investimento del sapere psicologico generale in termini di conoscenze riguardanti gli individui e le loro differenze. Nell'antichità esistevano forme di valutazione psicologica orientate all'individuo, basate soprattutto sull'interpretazione qualitativa di elementi somatici ed espressivi: è il caso della fisiognomica; altro caso è rappresentato dalla frenologia, che ricavava indicazioni psicologiche in base alla misurazione del volume e della conformazione del cranio. All'ipotesi di una correlazione tra anatomia e psicologia si possono ricondurre anche le successive teorie di Sheldon e Kretschmer, con il loro tentativo di associare certi tipi somatici a certi disturbi mentali o temperamenti.

Queste prime forme di valutazione psicologica individuale, sempre più orientate in senso quantitativo, si trasformarono radicalmente in seguito a due innovazioni metodologiche: L'utilizzo di metodi statistici, applicato per la prima volta da Francio Galton, e l'idea di assumere come oggetto delle misurazioni non più indici somatici ma prestazioni individuali. Da tali premesse si svilupparono metodi basilari della psicologia applicata, quelli della psicometria e dei test mentali, con le quali la psicologia assumeva in modo crescente quell'orientamento alla previsione che le avrebbe permesso di entrare stabilmente fra le discipline "pratiche". Ben presto si elaborarono svariate metodologie per il mental testing e per il monitoraggio della variabili personali: questionari, test di laboratorio come la misura dei tempi di reazione, dell'acuità sensoriale ecc., prove di intelligenza e di abilità mentali, analisi delle produzioni immaginative e così via. Oltre all'applicazione psicodiagnostica, queste metodiche dischiusero una serie di possibilità applicative nel campo della consulenza, della valutazione scolastica e orientamento professionale e della criminologia. Il primo test d'intelligenza fu elaborato da Alfred Binet (1857-1911), su commissione del ministero francese dell'Educazione, con lo scopo di esaminare l'intelligenza dei bambini in età scolare e individuare i soggetti ritardati.

Nel secolo scorso lo studio della dimensione collettiva dell'esperienza umana fu in gran parte affidato alle ricerche sulla "psicologia dei popoli" della scuola wundtiana, che combinava descrizione antropologica e riflessione filosofica. La psicologia sociale è una disciplina antica che per buona parte del suo percorso s'intreccia con la filosofia politica e la sociologia. Sul finire del secolo muoveva i primi passi la psicologia delle masse con gli studi sulla "folla" del francese Le Bon e dell'italiano S. Sighele. Solo nel nostro secolo, tuttavia, che la dinamica sociale assume una diretta rilevanza psicologica e viene sottoposta a studi empirici e sperimentali. Nel loro risvolto applicativo, questi studi s'intrecciarono anche con la psicologia del lavoro, indagando fra l'altro gli effetti della competizione, della leadership e dell'interazione di gruppo sulla produttività. L'affinamento e l'uso su vasta scala del metodo dei questionari, insieme con lo sviluppo del trattamento statistico dei dati diede un grande impulso alle ricerche demoscopiche, che acquisirono notevole visibilità con la previsione dell'esito dell'elezioni americane da parte dell'istituto Gallup nel 1936. Si aprivano ulteriori campi di applicazione nella psicologia della propaganda e del marketing e psicologi di fama (Angell, Watson) iniziarono ad operare come consulenti di reti radiotelevisive e agenzie pubblicitarie. La saldatura tra il sapere psicologico e la sfera socioeconomica poteva dirsi compiuta.

 

Il comportamentismo

Il comportamentismo è stato forse l'unico movimento psicologico l'unico movimento psicologico che abbia impresso il proprio sigillo su un'intera epoca, dagli anni Venti ai Sessanta, in particolare negli USA, finendo per rappresentare il modello standard del lavoro psicologico sia sul piano dei metodi che delle teorie. Le sue radici affondano, da un lato, nelle ricerche sull'apprendimento e sui riflessi condizionati, particolarmente nel campo della psicologia animale e comparata; dall'altro nelle teorie funzionaliste, che sottolineavano l'importanza cruciale dell'azione come categoria esplicativa, oltre ad accogliere in pieno l'influsso della biologia evoluzionista darwiniana.

L'atto di nascita del movimento si può fissare con la pubblicazione, nel 1913, di un articolo programmatico di J. Watson dal titolo La psicologia così come la vede il comportamentista. Obiettivo polemico era la psicologia mentalista di stampo wuntiano, che negli USA era rappresentata soprattutto dallo strutturalismo di Tichener, impostazione intellettualistica rivelatasi incapace di dar conto delle recenti scoperte sul comportamento animale. Watson imputava alla psicologia dell'epoca la mancanza di fatti accertati e non controversi, la presenza di scuole contrapposte e posizioni inconciliabili, l'astrusità dei metodi introspettivi.

La risposta a questa impasse fu in primo luogo una radicale ridefinizione dell'oggetto di studio della psicologia: non più la coscienza con i suoi contenuti privati e accessibili solamente all'introspezione, ma il comportamento osservabile e in linea di principio misurabile, concepito essenzialmente come risposta(muscolare, endocrina ecc.) a stimoli ambientali anch'essi identificabili e quantificabili. Parallelamente la psicologia doveva dedicarsi in pieno ai nuovi metodi oggettivi, respingendo l'introspezione in quanto metodo non suscettibile di riscontri pubblici ed incontestabili. Infine Watson forniva alla psicologia un nuovo compito e nuove potenzialità indicando "la previsione e il controllo del comportamento" come finalità peculiari del lavoro psicologico. Mentre in precedenza le finalità della psicologia erano state quelle delle tradizionali discipline accademiche, cioè le finalità "contemplative" della conoscenza e della spiegazione del mondo psichico, il comportamentismo invocava un ruolo attivo e pratico nella trasformazione del mondo.

Da queste premesse seguì un programma di ricerche che si espresse anche nel privilegio accordato dai comportamentisti a determinati settori, come l'apprendimento, e nello scarso interesse dimostrato per altre tematiche fino ad allora predominanti, come la percezione. Il comportamentismo radicalizzò la teoria James-Lange delle emozioni, asserendo non solo che la reazione somatico-espressiva non è conseguenza di un precedente vissuto emozionale, ma che il vissuto è interamente riducibile al processo comportamentale innescato dallo stimolo.

Non tutti gli psicologi seguirono Watson sulla strada del riduzionismo ma l'idea che il comportamento rappresenti la fonte basilare dei dati rilevanti e che si debba evitare, ovunque sia possibile, di postulare entità mentali non osservabili, costituisce una conquista permanente della psicologia contemporanea.

Quanto al lavoro sperimentale, i cardini della ricerca sul comportamento erano stati stabiliti da Thorndike (1874-1949) che sviluppò le tecniche del labirinto e del puzzle box nella ricerca sugli animali. Thorndike si convinse che le cavie apprendevano a risolvere gradualmente, "per tentavi ed errori" : nessuna fase di questo processo poteva essere identificata come "comprensione", o altri termini mentalisti. Ciò lo condusse a formulare la "legge dell'effetto" : "Ogni atto che, in una data situazione, produce soddisfazione viene ad essere associato a quella situazione, così che, quando la situazione si ripresenta, il ripresentarsi dell'atto è più probabile di quanto fosse in precedenza". Vi è apprendimento, quindi, solo in presenza di una ricompensa effettiva.

Skinner e il neocomportamentismo

Dopo che Watson concluse la sua carriera, il ruolo di caposcuola del movimento comportamentista fu assunto in gran parte da Clark Hull (1884-1952), che sviluppò i principi dell'apprendimento scoperti da Watson e Thorndike, elaborando una teoria estremamente particolareggiata e formulata in termini matematici. Fondandosi sui principi del condizionamento classico e della ricompensa come fattore d'apprendimento, Hull costruì un sofisticato sistema di equazioni che consentivano di dedurre il comportamento di un soggetto a partire dalle variabili ambientali. L'idea Watsoniana della previsione veniva così portata alle estreme conseguenze.

Skinner, i cui lavori principali risalgono agli anni Trenta-Quaranta, ottenne un ampio successo solo più tardi, giungendo a soppiantare largamente la teoria dell'apprendimento di Hulla e diventando uno degli psicologi più influenti di questo secolo. La sua psicologia è dominata dal problema del controllo e della modifica del comportamento su basi scientifiche. Fra il 1930 e il 1945 Skinner svolse un'attività sperimentale studiando il comportamento dei ratti in una gabbia di sua invenzione ("Skinner-box"), il cardine di questi esperimenti è il concetto di rinforzo, ossia ricompensa (o punizione) che aumenta (o diminuisce) la probabilità di un comportamento. A differenza di Thorndike, tuttavia, Skinner non fa alcun riferimento alla "soddisfazione" prodotta dal rinforzo. Senza postulare stati soggettivi interni, è possibile descrivere l'apprendimento puramente in termini di una maggiore o minor frequenza di una risposta comportamentale (variabile dipendente)  in correlazione con un evento-stimolo ambientale (variabile indipendente), negando ogni ricorso a "variabili intervenienti", ossia a strutture interne intermedie tra stimolo e risposta, ammesse invece da Tolman e da Hull. Skinner ribadiva un approccio watsoniano in termini strettamente operazionali, ma con l'aggiunta del riferimento alla comunità linguistica e sociale, che gioca un ruolo fondamentale nel rinforzare in maniera differenziata i comportamenti verbali dei singoli.

Il contributo sperimentale di Skinner è connesso alla distinzione tra il condizionamento classico pavolviano ed un diverso tipo di condizionamento, detto "operante". Mentre Pavolv associava semplicemente uno stimolo incondizionato a uno stimolo condizionato che in precedenza non determinava alcuna risposta, Skinner somministra lo stimolo di rinforzo solo dopo che il soggetto ha effettuato un dato movimento in maniera spontanea. Ciò permette di potenziare la frequenza di quel movimento, realizzando così un effettivo apprendimento. Il condizionamento operante si è rivelato uno strumento estremamente potente nel modellare il comportamento: con esso la scuola skinneriana ha fra l'altro ottenuto eccezionali risultati in programmi d'addestramento sugli animali.

Le relazioni funzionali tra gli stimoli rinforzanti e le risposte condizionate sono, per Skinner, governate da leggi che si possono studiare sperimentalmente: il comportamento è determinato e possiede un ordine regolare che è compito della scienza  indagare. La  sua posizione non va confusa con una teoria meccanicistica secondo la quale la condotta umana sarebbe "automatica" e determinata da connessioni semplici tra stimoli e reazioni. L'individuo va visto come un sistema estremamente complesso in interazione adattativa con l'ambiente fisico e la società. Il fatto che la vita umana sia sottoposta a condizionamenti e controlli non implica una degradazione del nostro ruolo nel mondo: per Skinner hanno tutto da guadagnare nell'identificare i fattori condizionanti, in modo da massimizzare il proprio controllo sulle loro stesse esistenze, anziché lasciarlo ad agenzie esterne che potrebbero manipolarlo indiscriminatamente. Il pensiero di Skinner, come quello della maggior parte dei comportamentisti si inserisce in una visione in ultima analisi ottimistica del destino umano, che grazie alla scienza può svilupparsi in direzione di una sempre maggiore autonomia.

Il cognitivismo e le scienze cognitive

Gli anni Sessanta e Settanta hanno visto un ritorno dei concetti mentali e intenzionali, dell'interesse per le capacità simboliche umane, per la percezione e per tutti quei processi cognitivi che il comportamentismo aveva ignorato quando non programmaticamente negato. Dal punto di vista storico, il movimento comincia a riconoscersi come tale a partire dal libro di Ulric Neisser Psicologia cognitivista (1967); decisive anticipazioni si erano avute con le teoria dell'informazione di Shannon e con la linguistica generale di Chomsky. 

Sono almeno tre i fattori che contribuiscono a spiegare come la rivoluzione cognitivista non sia sorta dal nulla:

1.            Le linee di connessione tra il cognitivismo e il suo "predecessore", ossia il comportamentismo, al di là delle polemiche iniziali, sono assai fitte, tanto da far affermare che il cognitivismo è una diretta filiazione del comportamentismo. Anche se Skinner negava ogni utilità ai concetti mentali, Tolman (1886-1959), lavorando ad un programma di esperimenti su topi immessi in un labirinto-in puro stile Thorndike-l'aveva condotto a formulare una teoria dell'apprendimento radicalmente nuova. Negli esperimenti di Tolman gli animali avevano la possibilità di "visitare" precedentemente il labirinto senza ricevere rinforzi; ciò nonostante, in queste visite sembrava realizzarsi un apprendimento che si palesava poi con l'adozione di strategie efficaci in risposta a ostacoli improvvisi o a ricompense differenziate. Si trattava di una palese violazione alle leggi di Thorndike, che ammettevano un apprendimento solo in presenza di un rinforzo. Tolman interpretava questo apprendimento come un apparato tipicamente mentale (benché ancorato all'osservazione del comportamento), in termini di "ipotesi", "rappresentazioni delle mete" e "mappe cognitive". L'immagine del comportamento che emergeva dalle teorie di Tolman era dunque assai più complessa di quella del modello S-O-R , e comprendeva un ricco apparato di variabili intervenienti di tipo intenzionale. Il comportamento intenzionale di Tolman rappresenta così una delle fonti dirette del cognitivismo. Fonte analoga è costituita dagli studi di Miller, Galanter e Pribram (1960): anche loro si identificavano come psicologi comportamentisti, pur proponendo una teoria del comportamento basta su mete, aspettative e verifiche, che esulava ormai completamente dal quadro watsoniano-skinneriano.

2.            Nei presupposti teorici del movimento cognitivista troviamo realizzata nel modo forse più appariscente una tendenza "perenne" della cultura filosofica occidentale, da Platone al neopositivismo, che possiamo identificare come tendenza intellettualistica: una concezione fortemente centrata sulla rappresentazione simbolica come funzione centrale del linguaggio e del pensiero (a scapito della funzione comunicativa-sociale, che abbiamo visto sottolineata da Skinner) e che individua nella coscienza un'istanza incaricata di elaborare, codificare e immagazzinare le informazioni. Per questo motivo il cognitivismo riannoda i fili tra psicologia e filosofia, che si erano interrotti nei decenni precedenti.

3.            Negli anni successivi alla Seconda guerra mondiale si è assistito a sviluppi materiali e tecnologici che hanno reso possibile l'elaborazione di un quadro teorico in grado di unificare novità di portata storica che hanno realmente indotto trasformazioni nel modo di vita. Di fronte a queste trasformazioni la scienza cognitiva si pone sempre di più come "prima linea di expertise a cui fanno riferimento tutte le scienze e le tecnologie avanzate, tanto da assumere un ruolo di disciplina paradigmatica comparabile a quello svolto nel Settecento dalla meccanica razionale newtoniana. La centralità della persona si è attenuata in questo processo, o è stata demandata a sottodiscipline particolari. Infatti nel passaggio dalla "psicologia"£ alla "scienza cognitiva"  in senso ampio è stato ridefinito l'oggetto stesso della psicologia; nella scienza cognitiva  l'oggetto d'indagine è ormai la cognizione in quanto tale, cioè intesa come funzione astratta implementabile[6] in diversi sistemi materiali, si tratti del cervello umano o dell'hardware di un computer. Il comportamento si spiega essenzialmente in ragione della conoscenza in possesso dell'agente, e tale conoscenza consiste in rappresentazioni mentali della realtà, definite in forma simbolica o preposizionale. Le attività mentali complesse si possono decomporre in unità funzionali più semplici. Il funzionamento della mente consiste allora nell'elaborare le informazioni (input) provenienti dall'esterno attraverso il sistema percettivo, manipolandole in base a regole che sono per lo più intese dai cognitivisti come esperienze innate e inscritte nel software dell'organismo. Tale elaborazione si  struttura come una sequenza di operazioni computazionali seriali che in un tempo definito danno luogo ad un output e possono inoltre modificare lo stato interno del sistema. A partire dagli anni Ottanta si sono moltiplicate le voci critiche nei confronti del modello cognitivisti qui delineato, che per molti aspetti appare oggi "esaurito". Un altro insieme di sviluppi ha ripensato alla analogia mente-computer partendo dall'estremo opposto, chiedendosi, cioè, se la rappresentazione della conoscenza fornita dai sistemi computazionali seriali non sia inadeguata rispetto all'effettivo funzionamento dell'elaborazioni di informazioni così come avviene nelk sistema nervoso. Si tratta della corrente nota con il nome di "connessionismo" che si fonda caratteristicamente  sui presupposti delle neuroscienze integrandoli nel tentativo di studiare i processi cognitivi mediante reti neurali. A differenza del modello computazionale standard il connessionismo assume che l'attività cognitiva si effettui in parallelo anziché in serie, vale a dire attraverso vasti sistemi di attivazione o inibizione. Le operazioni svolte dalla mente non sarebbero dunque manipolazioni di simboli rappresentazionali, ma pattern[7] di attivazione della rete.

A partire dalla fine degli anni Ottanta il lavoro teorico sulle reti neurali ha cominciato ad avere ripercussioni tecnologiche, con la realizzazione dei primi computer progettati secondo principi parallelistici, dai quali si attendono ulteriori sviluppi.

  

 

Capitolo II

METODI DI RICERCA IN PSICOLOGIA

La psicologia viene comunemente definita come la scienza che studia il comportamento. L'analisi del comportamento avviene secondo metodi differenti che vanno dall'osservazione fino al cosiddetto esperimento di laboratorio.

La psicologia è una scienza perché:

·        è empirica, perché si fonda sull'osservazione diretta dei fenomeni;

·        è obiettiva perché si fonda su osservazioni che non dipendono dalla soggettività del ricercatore;

·        ha dei meccanismi di autoregolazione, ovvero dati nuovi  che  possono metter in dubbio dati vecchi;

·        è guidata dal "principio della parsimonia", cioè privilegia la soluzione più semplice rispetto a quella più complessa e suggestiva.

La ricerca è, in sintesi, guidata da regole precise e rigorose che, se rispettate, consentano di generalizzare ed estendere i risultati ottenuti su un numero limitato di soggetti a gruppi molto più estesi. Lo psicologo non si limita a prendere atto di certi comportamenti, ma cerca di risalire a una legge generale e di stabilire in quali condizioni questa legge si dimostra valida.

Si parte dalla definizione precisa del fenomeno che si vuole analizzare, la variabile in esame, selezionando i comportamenti che influiscono su tale fenomeno in modo da poterlo misurare. La ricerca empirica parte sempre da una ipotesi, che dovrà essere verificata. Un'ipotesi può nascere da studi precedentemente condotti, può essere suggerita da una teoria o essere frutto di un'intuizione.

Bluma Zeigarnik, una psicologa sovietica formatasi alla scuola della Gestalt è nota nella storia della psicologia per aver scoperto un particolare fenomeno che va sotto il nome di "effetto Zeigarnik" (1927). Detto in breve la tendenza a ricordare meglio i compiti non portati a termine rispetto a quelli portati a compimento. La Zeigarnik intuì che i compiti non portati a termine e quelli terminati avevano destini differenti in termini di memoria e avanzò l'ipotesi che i compiti non terminati generavano un "sistema di tensione" che ne facilitava il ricordo. In brevi parole, i compiti interrotti vengono ricordati meglio di quelli conclusi, esito questo coerente con la concezione gestaltista della motivazione e, nello specifico, con l'idea che quando non viene raggiunto l'obiettivo che ci si è prefissati, la motivazione a raggiungere questo obiettivo produce una tensione che persiste fino a quando non viene raggiunto lo scopo.

Il percorso per arrivare ad effettuare la ricerca passa per:

·        la formulazione di una ipotesi a partire da una intuizione e con il sostegno di una teoria;

·        la possibilità che si possano ricreare in laboratorio situazioni specifiche in risposta alle quali si verificano determinati comportamenti, vale a dire come si proceda per verificare un'ipotesi.

E' possibile giungere alla verifica di una ipotesi seguendo le regole del metodo sperimentale, uno dei metodi di ricerca di cui lo psicologo può usufruire; oppure possono essere usati altri metodi, quali l'osservazione partecipante, il metodo dell'inchiesta o quello dei test. La scelta del metodo e delle tecniche di indagine è influenzata sia dal fenomeno che si decide di analizzare, sia dalla natura del campione sul quale si deve svolgere l'indagine: in alcune situazioni e su alcuni soggetti non è possibile applicare indifferentemente tutte le tecniche d'indagini disponibili. Perché si comprenda come è possibile tradurre dei fenomeni in indici numerici, è necessario ricorrere al concetto di variabile.

Il concetto di variabile

Nel linguaggio della psicologia scientifica uno dei termini che ricorre con maggior frequenza è senz'altro quello di variabile. Possiamo intendere la variabile come una condizione, un attributo o una caratteristica di una persona o un evento che varia a seconda delle situazioni o degli individui. Quando parliamo di variabili ci riferiamo a delle categorie all'interno delle quali gli individui possono assumere diverse posizioni: individuata una categoria ( età, sesso, colore dei capelli ecc.) all'interno della quale ogni individuo assumerà una certa posizione in base ai valori che quella variabile può assumere; per ciò che concerne il sesso, ad esempio, le variabili che si possono assumere sono solo due poiché le persone possono appartenere al sesso maschile o femminile, se ci si riferisce al colore dei capelli le variabili che si possono assumere sono numerose rispetto a le tante sfumature di colori possibili. E' utile considerare le variabili come domande i i valori come risposte. Per meglio comprendere cos'è una variabile è utile fare riferimento al concetto di proprietà: "La proprietà è un qualcosa che caratterizza alcuni oggetti ma non altri". Quando queste proprietà sono trattate come variabili bisogna porre un certo ordine nella vasta gamma possibile. La variabile è un insieme dì proprietà che si escludono a vicenda. Una persona, una situazione, un oggetto, possono possedere alcune proprietà: un tavolo può essere di foggia antica o moderna, ma non può essere contemporaneamente antico e moderno. Le proprietà, dunque, si escludono a vicenda. Le diverse proprietà che può assumere una variabile sono dette valori, il cui numero varia in funzione del tipo di variabile considerato. Vi sono, ad esempio, variabili quantitative e variabili qualitative: le prime variano in grandezza, le altre cambiano di genere (il sesso o la professione sono variabili qualitative). Altra distinzione va operata tra variabili continue e variabili discontinue o discrete. L'intensità del suono costituisce un esempio di variabile continua, in quanto tale intensità può assumere un qualsivoglia valore in un insieme continuo. Le variabili discrete, invece, non prevedono valori intermedi: il colore dei capelli è una variabile discreta, il valore che può assumere è infatti solo un numero finito.

Variabili indipendenti e variabili dipendenti

Una distinzione centrale va fatta tra variabili indipendenti e variabili dipendenti. La variabile indipendente è quella che lo sperimentatore manipola direttamente, mentre la variabile dipendente è una misura del comportamento del soggetto, e nel linguaggio della psicologia degli stimoli e delle risposte possiamo dire che essa è la risposta, per analogia la variabile indipendente rappresenta lo stimolo, la causa.

Per esempio, immaginiamo che un ricercatore decida di osservare il comportamento di alcuni soggetti in seguito alla somministrazione di un farmaco (variabile indipendente). Potrà non solo variare il dosaggio, ma anche decidere di somministrare il farmaco solo ad alcuni soggetti e non ad altri. In questo caso lo sperimentatore manipolerà la variabile indipendente. Nella ricerca psicologica si possono scegliere anche delle variabili indipendenti che restano tali sebbene lo sperimentatore non le manipoli affatto, ma semplicemente le controlli. La variabile "sesso" è una variabile indipendente che non può essere manipolata. Il sesso, lo stato socio-economico o il livello d'istruzione sono tutte variabili impiegabili in un esperimento e che pur non direttamente manipolate dallo sperimentatore conservano lo status di variabili indipendenti. In sintesi, la variabile indipendente è un fattore di cui si vogliono studiare gli effetti.

Nel momento in cui ad una variabile vogliamo associare delle grandezze numeriche, quindi vogliamo in un certo senso tradurre questa variabile trasformando le grandezze ad essa associate in numeri effettuiamo un'operazione abbastanza complessa che è quella della misurazione; misurare significa assegnare valori numerici agli oggetti e agli eventi in base a regole e procedimenti specifici. L'assegnazione di valori deve comunque rispettare certe regole, che hanno lo scopo di rappresentare certe proprietà delle cose attraverso certe proprietà dei numeri. Ad esempio, trattando una variabile dicotomica (quella cioè che può assumere soltanto due valori) quale il sesso, stabiliamo di assegnare 1 ai maschi e 2 alle femmine, avremmo tradotto una proprietà in un numero e adottato la regola che ai maschi va sempre assegnato 1 e alle femmine 2.

Le scale

Negli esempi citati si faceva riferimento a variabili sostanzialmente diverse che possono essere misurate su tipi diversi di scale che implicano livelli diversi di misuarazione. NMello specifico Stevens nel 1951 ha proposto di utilizzare quattro livelli di misurazione, vale a dire quattro tipi di scale: nominale, ordinale, a intervalli e di rapporto che analizzeremo.

Scale nominali

Una scala nominale permette di classificare eventi e oggetti in categorie. A queste categorie può essere assegnato un valore numerico puramente nominale (nel senso che i valori numerici vengono usati come fossero nomi). Possiamo assegnare a delle particolari categorie per classificarle senza nessun ordine particolare, ma esclusivamente per distinguerle numeri o lettere che ribadiamo non indicano valori o indici di importanza né qualitativi né quantitativi. Quella nominale è il tipo più semplice di scala e semplice è la regola che si applica per l'assegnazione dei valori numerici alle classi: importante è che non si assegni lo stesso numero a classi diverse, né numeri diversi alla stessa classe.  

Scale ordinali

Una scala ordinale è quella che dispone gli oggetti e gli eventi in base alla loro grandezza. Servono a ordinare, appunto, gli oggetti a cui si riferiscono. Se le scale nominali si basano su regole arbitrarie in merito alla grandezza che si attribuisce agli oggetti, così non è per le scale ordinali per cui esiste un ordinamento, una graduatoria che ha un preciso significato. Supponiamo che si assegnino dei numeri a delle classi particolari, secondo un ordine crescente proporzionale rispetto al numero degli appartenenti alle classi stesse, tra di esse vi sarà sempre una relazione di grandezza che ne regola i rapporti. In una sorta di classifica per scolarizzazione assegniamo il numero 1 agli secolarizzati a livello secondario, il numero due a quelli a livello secondario e il numero tre a quelli non secolarizzati, supponiamo anche che il numero maggiore delle persone prese in esame sia fra quelli secolarizzati a livello secondario, successivamente quelli secolarizzati a livello primario e infine gli analfabeti, ecco che abbiamo ottenuto una corrispondenza ordinale tra il numero degli appartenenti ad una determinata classe e l'ordine di importanza della scala affidato a quella classe. Nelle scale ordinali gli intervalli tra le classi non hanno un valore omogeneo, nel senso che la distanza che separa le classi tra loro non è necessariamente uguale.

Scale a intervalli

La differenza tra i valori numerici che una scala può assumere acquisisce significato nelle scale a intervalli. In qualsivoglia scala a intervalli si parte dall'assunto che esista, almeno per convenzione, un punto zero. Un esempio di scala ad intervalli  è fornito dalla misurazione della temperatura, per esempio supponiamo di misurare 20° e successivamente 30° poi in seguito 40°, gli intervalli tra queste temperature sono tutti uguali. Un esempio convenzionale di scala a intervalli in psicologia può essere rappresentato dal quoziente d'intelligenza, tuttavia poiché nelle misurazioni del quoziente d'ntelligenza non esiste uno zero assoluto, gli intervalli non sono regolari, cioè non possiamo dire che un punteggio di 140 equivale ad un'intelligenza doppia di un punteggio di 70.

Scale di rapporto

Le scale di rapporto (o scale a rapporti) sono caratterizzate da un punto zero reale (non arbitrario o convenzionale come nel caso delle scale a intervalli) e da differenze significative fra i valori numerici. Il peso o la lunghezza, per esempio, sono valori misurabili su scale di rapporto. Le informazioni che possiamo ottenere tramite una scala di rapporto sono estremamente precise e dettagliate.

L'esperimento di laboratorio

Nella ricerca psicologica tutto prende le mosse dall'osservazione: quanto più accurata è l'osservazione dei fenomeni, tanto più sono attendibili le conclusioni che da essa si possono trarre. Il livello più accurato di osservazione è la cd. "osservazione controllata", principio cardine del metodo scientifico. Nella ricerca scientifica è l'esperimento di laboratorio quello che meglio soddisfa l'esogenza  dell'osservazione controllata. In maniera semplice, un ricercatore  per mettere alla rpova l'ipotesi che una variabile indipendente A  produce un determinato effetto su un'altra variabile B  (variabile dipendente) deve dimostrare oltre ogni ragionevole dubbio che A, e solo A, è la causa di B.  Ciò che costituisce il carattere distintivo dell'esperimento vero e proprio è la diretta manipolazione della variabile indipendente da parte dello sperimentatore, che crea le condizioni e osserva l'effetto che producono sulle variabili oggetto di studio. In un esperimento ciascun valore della variabile indipendente si definisce condizione sperimentale. 

Il campionamento

Nella descrizione di qualsivoglia ricerca una sezione è dedicata al campione sul quale lo studio è stato svolto e alle modalità di selezione dei soggetti.  Dire che un'indagine ha riguardato una determinata categoria di soggetti significa fornire informazioni sul gruppo di soggetti che si è deciso di prendere in considerazione  per via di una o più caratteristiche che essi hanno in comune. Ma cos'è in realtà un campione? Quando svolgiamo una ricerca noi selezioniamo  un insieme di elementi di un certo tipo ( possono essere individui, oggetti o delle misure) da un insieme più ampio, cioè da una popolazione o universo. Il campione, quindi, è un'immagine in miniatura della popolazione cui appartiene, avendone le stesse caratteristiche. Affinché l'osservazione su un determinato e limitato gruppo di persone o cose sia ritenuta valida è necessario che le stesse siano scelte solo secondo una selezione casuale.

L'errore sperimentale

Si ha un errore sperimentale quando il mutamento della variabile dipendente è prodotto da una qualsiasi altra variabile, diversa dalla variabile indipendente. In termini semplici si direbbe: l'effetto c'è ma la causa potrebbe essere un'altra. Nell'esperimento di laboratorio ciò che interessa verificare è l'effetto della variabile indipendente sulla variabile dipendente, se esistono altre variabili che hanno un rapporto causale con la variabile dipendente e sono confuse  con la variabile indipendente, esse producono un errore sperimentale.

Importante è trovare l'errore poiché esso minaccia la cd. validità interna dell'esperimento. Si dice che un esperimento ha validità interna quando ci sono fondati motivi per ritenere che esista una relazione di causa ed effetto fra la variabile indipendente e la variabile dipendente. In poche parole dobbiamo essere certi che la variabile indipendente, e solo questa, ha causato la variabile dipendente. Due sono le procedure che si possono eseguire per correggere l'errore: il controllo e la randomizzazione. Per controllare una variabile che potrebbe confondersi con la variabile indipendente, dobbiamo semplicemente limitarci a tenerla costante. Altra strategia utile per correggere l'errore sperimentale è la randomizzazione (dall'inglese random, vale a dire "a caso"): assegnando casualmente i soggetti alle diverse condizioni sperimentali saremo certi che qualsivoglia variabile sarà distribuita per l'appunto secondo, il caso.

Accertata  la validità interna dell'esperimento va presa in considerazione anche la sua validità esterna. Accertata la prima, dobbiamo garantire la seconda. Con il termine validità esterna si fa riferimento alla possibilità di generalizzare i dati di una ricerca, di estendere i risultati ottenuti a individui e contesti più ampi. In sostanza ripetendo l'esperimento si dovrebbe sempre riscontrare questa associazione casuale tra variabili indipendenti e dipendenti considerate. Se ciò si verificherà si potrà concludere che l'esperimento ha una buona validità esterna.

I quasi esperimenti

Un requisito fondamentale per un esperimento di laboratorio è la diretta manipolazione della variabile indipendente da parte dello sperimentatore e l'assegnazione casuale dei soggetti alle diverse condizioni sperimentali. In talune occasioni non è possibile manipolare la variabile indipendente oppure non è possibile controllare l'assegnazione casuale dei soggetti alle condizioni sperimentali. In questi casi parleremo di quasi-esperimenti: essi si richiamano ad un modo di analisi e di sperimentazione proprio del metodo sperimentale, senza tuttavia soddisfare tutte le esigenze di controllo del metodo sperimentale stesso. E' fuori discussione che il vero esperimento sia in linea di principio preferibile al quasi esperimento, tuttavia vi sono molti casi in cui non è possibile procedere ad un'assegnazione casuale dei soggetti alle condizioni sperimentali e in questi casi si usa il quasi esperimento semplicemente perché è meglio di niente.

La ricerca osservazionale

Tutte le indagini che non rispettano i requisiti del metodo sperimentale vanno definite, com'è ovvio, ricerche non sperimentali.

Alle volte per il buon esito di una ricerca è fondamentale che i soggetti vengano studiati in una situazione naturale (tra l'altro difficile da riprodurre in laboratorio), in più è importante che l'osservazione sia il meno possibile intrusiva per non influenzare il comportamento che s'intende studiare. L'osservazione in quanto metodo di ricerca implica la selezione di un fenomeno e la raccolta di informazioni su di esso e si differenzia dal metodo sperimentale per una serie di ragioni abbastanza evidenti: non comporta la manipolazione diretta della variabile indipendente, e inoltre la ricerca osservativi è più orientata a descrivere che a spiegare; anche se le descrizioni possono raggiungere un elevato grado di precisione, prossima ai quasi-esperimenti.

L'osservazione può svolgersi sul campo, ma anche in un laboratorio; si può stabilire di procedere ad un'osservazione completa dei fenomeni che si manifestano o portare l'attenzione su aspetti specifici di essi. In linea di principio, quando l'osservatore non disturba con la sua presenza il comportamento dei soggetti parliamo di osservazione naturalistica; laddove l'osservatore si "mescoli"  ai soggetti sui quali sta compiendo i  rilievi, si parla di osservazione partecipante. Nell'osservazione naturalistica è di fondamentale importanza che il ricercatore non sia "visibile" a coloro che sono oggetto della sua analisi. Ma il metodo osservativi non si esaurisce nell'osservazione informale, compatibilmente con gli obiettivi dei nostri studi, è possibile rendere l'osservazione più sistematica: stabilire di osservare solo un determinato comportamento, di analizzarlo solo in un determinato periodo, per ottenere delle informazioni che non risentano dell'oggettività dell'osservatore si possono utilizzare coppie di osservatori che seguano contemporaneamente lo stesso oggetto, oppure si può far uso di strumenti di registrazione per porli a giudizio di più persone. Il ricorso a queste metodiche definisce il passaggio dall'osservazione informale (quella naturalistica), che resta eminentemente descrittiva, all'osservazione formale (osservazione in condizioni controllate) che va oltre la descrizione dei fenomeni e che può essere guidata anche dalla formulazione di un'ipotesi che si intende mettere alla prova. Per quanto accurata possa essere, l'osservazione non comporta alcuna manipolazione della variabile indipendente e, quindi, non consente di verificare se esistono, ad esempio, relazioni di causa ed effetto tra due variabili, ma solo di rilevare se due variabili sono correlate tra loro, vale a dire solo se tra di esse vi è una relazione sistematica.

L'osservazione consente di andare, per alcuni versi, oltre i limiti imposti dall'esperimento di laboratorio: in tutti i casi in cui, ad esempio, non sia possibile riprodurre in laboratorio un determinato fenomeno, il metodo dell'osservazione può costituire la via più idonea per procedere nell'indagine.

Il metodo osservativi presenta dunque dei vantaggi controbilanciati da una serie di limiti: numerose possono essere le fonti d'errore che minacciano la validità della ricerca. Esiste per esempio l'errore legato alla soggettività dell'osservatore, cui un ottimo elemento di correzione può essere quello di non far conoscere all'osservatore le ipotesi della ricerca ma solo le cose da porre sotto osservazione, altro metodo è quello di utilizzare più osservatori e verificare la congruità dell'osservazione stessa; quello della reattività dei soggetti, per cui chi è osservato sapendolo non si comporta naturalmente e ovviamente un certo margine di soluzione potrebbe essere quello di tenere l'osservatore nascosto agli osservati.

Il metodo dell'inchiesta

Nell'ambito della cd. ricerca non sperimentale un posto a sé va assegnato all'inchiesta. Sotto questa etichetta ricadono varie tecniche di raccolta dati, in particolare i questionari e le interviste.

Se posto a confronto con  il metodo sperimentale o con quello dell'osservazione, l'inchiesta sembra un percorso meno tortuoso, ma come gli altri metodi presenta vantaggi e svantaggi. Attraverso l'intervista e i questionari il ricercatore può raccogliere una grande quantità di informazioni su campioni anche molto estesi in un arco di tempo relativamente limitato; tuttavia si troverà ad affrontare problemi di altra natura, dovrà, ad esempio tener conto del fattore "desiderabilità sociale", quella componente che non fa rispondere in maniera sincera a determinati argomenti per non fare una brutta figura. La desiderabilità sociale può inquinare la ricerca, anche se il ricercatore esperto è in grado di far fronte al problema con tutta una serie di accorgimenti a partire dagli strumenti di utilizzo della ricerca stessa.

L'intervista

In via preliminare va chiarito che le interviste possono essere classificate come strutturate ( o standardizzate), semistrutturate e non strutturate. Nel primo caso l'intervistatore pone le domande seguendo un modulo e rispettandone rigorosamente l'ordine di successione;  Nell'intervista semistrutturata, l'intervistatore dovrà porre un certo numero di domande seguendo un modulo, ma potrà aggiungerne o eliminarne alcune; non strutturata, l'intervistatore avrà solo uno schema da seguire e potrà modificare omettere o sostituire le domande a suo piacimento.

In linea di principio, quindi, l'intervista standardizzata limita al massimo l'iniziativa dell'intervistatore consentendo di ottenere risultati più omogenei nel caso in cui gli stessi siano numerosi, facilitando le comparazioni favorendo anche i confronti a distanza di tempo essendo riproponibile il set di domande agli stessi soggetti dopo un intervallo di tempo. Al polo opposto si colloca l'intervista non strutturata, che rappresenta un valido strumento di conoscenza  nelle mani di un ricercatore abile: infatti le risposte degli intervistati permettono di costituire spunti per domande da porre in seguito, verso delle direzioni che il ricercatore ritiene più interessanti, permettendo di esaminare a fondo aspetti che in precedenza non erano stati pienamente considerati.

Metodo clinico piagetiano (da Piaget): l'intervistatore pone la prima domanda e in base alla risposta che riceve formulerà le altre domande. Si basa su una interazione verbale a catena tra intervistatore e intervistato, in cui le domande successive dipendono dalla risposta del soggetto.

La scelta di un tipo d'intervista rispetto a un altro dipenderà dagli obiettivi che la ricerca si pone, dalla complessità del fenomeno in osservazione, dal numero degli intervistatori coinvolti e, non ultimo, dal gusto degli autori della ricerca stessa. 

Quale che sia la via prescelta per raccogliere le informazioni è essenziale che l'intervistatore non influenzi in alcun modo l'intervistato quindi: non dovrà far trasparire reazioni né opinioni alle risposte, dovrà essere distaccato ma non freddo, dovrà vestire in modo semplice e adeguato, dovrà sembrare il più possibile vicino all'intervistato (per posizione sociale, età, ecc.) e deve apparire spigliato.

Ultima questione da prendere in esame riguarda le modalità di registrazione dei dati di un'intervista. In alcuni casi ci si può limitare alla trascrizione degli aspetti salienti delle risposte fornite dai soggetti, in altri casi può essere utile l'utilizzo di un registratore, anche se non incontra sempre il favore dei soggetti, in quanto ad alcuni la presenza di uno strumento di registrazione può creare imbarazzo.

Il questionario

Il questionario è un elenco di domande a cui il soggetto risponde per scritto. Le domande in un questionario possono ricadere in due grandi categorie: domande aperte e domande chiuse. Le domande aperte sono quelle che non prevedono risposte prefissate mentre si dice questionario a domande chiuse quello in cui chi risponde è "costretto" a scegliere tra un certo numero di opzioni. Le domande chiuse prevedono in genere una voce "altro", per indicare una risposta non prevista dal ricercatore. La maggior parte dei questionari contiene entrambi i tipi di domanda: quando ad una domanda si prevedono risposte troppo numerose, oppure il ricercatore non riesce a individuare a priori le risposte possibili, è preferibile utilizzare le domande aperte; in altri casi può essere vantaggioso utilizzare le domande chiuse, che riducono di  molto il tempo per la raccolta e l'analisi dei dati.  Le domande devono essere chiare: no a domande troppo lunghe, doppie o che possono in qualche modo influenzare la risposta del soggetto.

Per le domande chiuse si possono usare le scale nominali e ordinali, ma anche scale dì accordo o di disaccordo. Uno dei metodi più frequenti per misurare gli atteggiamenti è la cd. scala di Likert che fornisce dei valori (in genere 5, 7 o 9)  che  consentono di valutare l'intensità , oltre alla direzione di un'opinione. L'intensità della posizione può essere quantificata utilizzando la scala che prevedono uno zero e valori sia positivi che negativi, al massimo dei quali si trovano le modalità di risposta "sono assolutamente d'accordo" oppure "sono assolutamente in disaccordo", e le posizioni intermedie quantificabili dai numeri forniscono appunto risposte intermedie offrendo all'intervistato la distanza dell'intensità dai due estremi.

In qualunque questionario dovrebbero essere riportate chiaramente le istruzioni per la corretta compilazione, poiché più chiare saranno le istruzioni più probabilità vi sono che gli intervistati rispondano e soprattutto che lo facciano in breve tempo.

Il metodo dei test

Un test è uno strumento di misura che comprende prove di diversa natura. Difficile è tracciare una definizione esauriente per la parola test: un test psicologico consiste essenzialmente in una misurazione obiettiva e standardizzata di un campione di comportamento.

Un test psicologico risponde al requisito dell'obiettività se la sua somministrazione, la determinazione e l'interpretazione dei punteggi prescindono dal giudizio soggettivo della persona che somministra il test. In linea teorica una persona dovrebbe riportare sempre lo stesso punteggio a un determinato tipo di test a prescindere dall'esaminatore. Un test dovrebbe essere una sorta di termometro, misurare cioè qualcosa stabilmente fatto salvo che non sia cambiato il valore della grandezza da misurare. La standardizzazione si riferisce proprio all'uniformità delle prove, delle condizioni di somministrazione e delle procedure di determinazione del punteggio. Le regole che guidano l'uso del test devono essere rigorosamente e inequivocabilmente definite; devono inoltre essere sensibili, vale a dire possedere la capacità di discriminare, differenziare i soggetti relativamente all'attributo che stanno misurando; essere fedeli, cioè attendibili: se sottopongo gli stessi soggetti allo stesso test devo ottenere risultati simili; infine devono essere validi, devono cioè adempiere alla loro funzione. In merito alla validità il discorso è un tantino più complicato. La validità può riguardare il contenuto del test, ma può anche essere riferita in rapporto al criterio di scelta del test stesso. Ogni volta che ci interroghiamo sulla capacità di un test di predire il comportamento di un individuo in determinate situazioni (la cd. validità predettiva) dobbiamo assumere un criterio, cioè una misura diretta e indipendente di ciò che il test intende misurare. Accanto alla validità predettiva va citata la validità concorrente; in questo caso si mettono in relazione i risultati ottenuti nel test con quelli riportati dagli stessi soggetti in prove che misurino lo stesso attributo.

Esistono vari tipi di test: carta e matita, ovvero che assomigliano al questionario. test di abilità nel manipolare un oggetto, test che richiedono l'uso di apparecchi specifici ecc.

Tante sono anche le finalità del test, dalla personalità al profitto, all'abilità al Q.I. Uno steso test può impiegare diverse tecniche.

Test di Rorcharch è il test con le macchie d'inchiostro.

Test proiettivo: data una domanda, una figura, una frase si proiettano in essa idee, bisogni, ansie ecc.Molto utile per i test sulla personalità.

E' bene ricordare che soprattutto in ambito clinico l'utilizzazione dei test è regolata da norme rigide ed è riservato esclusivamente agli specialisti del settore.



La percezione

Salviati espone il fondamento di tutte le scienze moderne, ovvero l'obbligo di astrarre dal dato sensoriale quando si devono spiegare i fenomeni osservati. I dati sensoriali, fin dagli albori della scienza moderna, possono essere accettati come completamente veridici in alcuni casi, oppure possono essere completamente rifiutati. In questa contraddizione sta il problema filosofico della percezione: fino a che punto dobbiamo dare credito alle nostre percezioni?

Si tratta di un problema che ognuno di noi risolve, il più delle volte inconsapevolmente, nel momento stesso del percepire, ma non si tratta di una soluzione definitiva da cui possa essere tratta una regola generale di veridicità e scientificità provata del percetto stesso.

Un diversa impostazione del problema

Oggi sappiamo che l'ambigua svalutazione dell'attività percettiva discende  da una errata impostazione del problema, dal ritenere cioè che scopo e funzione della percezione sia la registrazione accurata di ciò che è presente nel mondo osservato e man mano che si accumulavano constatazioni d'infedeltà, distorsioni e mancate corrispondenze tra mondo osservato e mondo reale cresceva la convinzione che si trattasse di un sistema di registrazione inadeguato e poco preciso, inaffidabile.

Oltre un secolo di sperimentazione ha fornito un gran numero di prove che l'attività percettiva non è un mero sistema di registrazione dei dati ma è, invece, un complesso e sofisticato meccanismo, al cui funzionamento concorre quasi una metà della neocorteccia, la parte più recente e sviluppata del cervello, preposta alla raccolta e alla elaborazione in tempi molto brevi  di una grande quantità di informazioni. Un sistema intelligente che opera in maniera veloce, pur se in larga misura inconsapevole e che affronta situazioni  sempre differenti adeguandosi con immediatezza ed elasticità, capace di lavorare anche in situazioni sfavorevoli per la carenza delle informazioni, come quando ci muoviamo di notte a tentoni. Si tratta di un sistema che assolve al compito di fornire tutte le informazioni di cui il sistema cognitivo e quello motorio necessitano per raggiungere i loro obiettivi, e prima di tutto quello della sopravvivenza. Persino quando si verifica qualche inefficienza e imprecisione, in presenza di dati insufficienti o dovendo operare in fretta, l'attività percettiva riesce sempre ad azzardare un risultato.

Tra le attività sensoriali, la percezione visiva, almeno per l'uomo, è ritenuta la più articolata, ricca e discriminativa. Per questa ragione cercheremo di concentrare maggiormente l'attenzione sulla percezione visiva, ma importante è tener presente  che aspetti altrettanto interessanti riguardano le altre modalità sensoriali. In questo capitolo quindi cercheremo di spiegare il funzionamento dell'attività percettiva, considerata come l'insieme  concatenato dei processi di raccolta, elaborazione, trasformazione e organizzazione delle informazioni disponibili nell'ambiente in cui viviamo.

L'interazione con il mondo e con i nostri simili è possibile solo grazie, e attraverso, l'attività percettiva, si tratta di una via obbligata e affinché abbia luogo devono essere contemporaneamente presenti tre condizioni. In mancanza di una sola di esse il processo non può avere luogo. Queste condizioni sono:

1.      un pezzo di mondo che emetta e/o rifletta qualche tipo d'energia;

2.      un tipo d'energia che sia in grado di modificare gli organi sensoriali di un essere vivente;

3.      un sistema di elaborazione che sia in grado di decodificare ed interpretare le modificazioni che l'energia ha prodotto negli organi periferici di registrazione sensoriale.

Questi tre momenti vengono definiti: stimolo distale  il primo, che si trova di solito distante dall'osservatore; stimolo prossimale il secondo, che consiste nella stimolazione dei recettori sensoriali periferici; percetto il terzo, che è il frutto dell'elaborazione finale. L'insieme dei percetti costituisce il nostro mondo fenomenico, definito in questo modo per distinguerlo dal mondo fisico, quello in cui le cose e gli eventi vengono misurati con strumenti diversi dal nostro sistema percettivo. Nel mondo fisico, ad esempio, il Sole sta fermo e la Terra si muove, mentre nel mondo fenomenico è il Sole che sorge e tramonta. 

Energia e sensazione, la psicofisica

Il ruolo di mediatore fra gli stati del mondo esterno e la conoscenza che ne possiamo avere è dato dall'energia a cui il sistema percettivo è sensibile: essa può essere di tipo fisico, come nel caso della vista e dell'udito; chimico, come nel caso di gusto e olfatto; meccanico come nel caso del tatto.

Fechner definì "psicofisica" la disciplina che doveva studiare il rapporto fra il mondo degli stimoli fisici e quello delle esperienze psicologiche da essi prodotte. Già E. H. Weber si era reso conto che il modificarsi della quantità d'energia che colpisce i nostri organi di senso non produce una modificazione equivalente della sensazione. La sensazione quindi non dipende solo dal modificarsi dell'intensità dello stimolo, ma dal livello complessivo di energia che colpisce l'organo di senso in un dato momento. La relazione fra intensità dello stimolo e intensità della sensazione non è lineare, cioè non corrisponde ad una variazione dell'intensità la stessa variazione della sensazione ad essa associata. La psicofisica ha introdotto due criteri di misurazione della sensazione: la soglia assoluta e la soglia differenziale. La prima si riferisce alla quantità minima d'energia necessaria perché si produca una sensazione consapevolmente riconosciuta dal percipiente. Ad esempio l'altezza minima che deve avere una determinata frequenza sonora per essere udita. L'intensità minima di uno stimolo non solo non è uguale per tutte le persone, ma è soggetta ad una certa variabilità per lo stesso soggetto a seconda dei momenti. Si è allora deciso di assumere convenzionalmente come valore soglia l'intensità di uno stimolo la cui presenza venga colta mediamente 50 volte su 100 presentazioni.

La soglia differenziale è la variazione che deve subire l'intensità di un dato stimolo perché un soggetto ne colga il cambiamento, oppure, che è lo stesso, dati due stimoli uguali, di quanto deve essere ridotto o aumentato uno dei due perché venga colta la differenza. Ad esempio, dato un segmento di un metro, allungato di 1mm alla volta fino a che un osservatore riesce a cogliere un mutamento della sua lunghezza. Supponiamo che ciò avvenga dopo 12mm, questo sarà allora il valore della soglia differenziale (detta anche differenza appena percepibile) relativa ad uno stimolo di un metro, e non generalizzabile ad altre lunghezze. Infatti se mostrassi un segmento di 10 cm, troverei una soglia differenziale assai minore. Anche la valutazione della soglia differenziale è soggetta a oscillazioni e interferenze, quindi la sua misura è data, come per la soglia assoluta, dal valore che viene riconosciuto mediamente 50 volte su 100 presentazioni.

Stabilito che il valore della soglia non è costante, ci si può chiedere se lo sia il rapporto fra quella differenza e l'intensità dello stimolo di partenza. Weber nel 1834 affermò che la soglia differenziale è una frazione proporzionale costante dell'intensità dello stimolo iniziale, tale costante, detta "costante di Weber" ha un valore specifico per ogni modalità sensoriale (peso, luce, calore, e così via) e misura l'intensità di uno stimolo, dicendoci di quanto esso debba variare per essere percepito come diverso da un altro, ma non ci dice niente sulla variazione della sensazione. Nel 1860 Fechner trovò che fra l'intensità della sensazione e quella dello stimolo vi è una relazione che consente di stabilire l'intensità della prima in base al secondo. Relazione espressa dalla formula  S = C log I , dove "S" è l'intensità della sensazione, "I" è la misura fisica dell'intensità dello stimolo, "C" è una costante relativa alla modalità considerata. Sia la costante di Weber, che le leggi di Fechner, si sono dimostrate non sempre corrette, soprattutto a livelli alti di intensità

Stevens (1856) ha dimostrato che è possibile far valutare direttamente l'intensità delle sensazioni alle persone chiedendo loro di associare una sensazione con un numero. Il metodo (definito magnitude estimation) consiste nell'assegnare un valore numerico convenzionale ad uno stimolo, successivamente modificare l'intensità della stimolazione e chiedere al soggetto di valutare la nuova intensità in rapporto alla prima. Nonostante sembri un metodo approssimativo si rilevò una notevole omogeneità nelle valutazioni dei soggetti e se ne ricavò una legge che porta il suo nome (Stevens) espressa dalla formula   S =  k  I b , secondo cui la sensazione è uguale all'intensità dello stimolo elevato ad una data potenza "b", dove "k" è una costante che dipende dall'unità di misura. In tal modo Stevens ricava un esponente diverso per ogni tipo di sensazione, come ad esempio la chiarezza, la lunghezza, lo shock elettrico.

Informazione e attività percettiva

Gli studi di psicofisica sono importanti perché indagano la natura dei rapporti che intercorrono fra il mediatore energetico che riflette lo stato del mondo osservato e il nostro sistema sensoriale che è attivato da quel mediatore. Si tratta del primo livello di interazione fra individuo e ambiente. Ogni atto percettivo ci rende consapevoli di cose ed eventi, anche complessi, che riguardano non solo le caratteristiche strutturali delle cose (come forma, dimensione, volume, posizione nella prospettiva, colore) ma anche aspetti del loro modo di essere rispetto a noi (come la pericolosità, l'aggressività, la funzionalità, la disponibilità, l'attrazione o la ripugnanza). Tutto è veicolato dal mediatore energetico. Nel caso della visione il mediatore è la luce, che attraverso le sue modulazioni ordinate e mai casuali veicola informazione. Nell'attività percettiva per informazione intendiamo ogni generico aumento di conoscenza cui si accompagna una riduzione dell'incertezza e dell'ambiguità. L'attività percettiva raccoglie da una stessa porzione di realtà informazioni diverse, in buona misura tra loro indipendenti, al servizio di due processai fondamentali della nostra vita: quello conoscitivo e quello motorio.

Quali informazioni: dieci casi

Il nostro sistema percettivo riesce a decidere e a selezionare in maniera veloce ed autonoma, il più delle volte senza che ne diventiamo consapevoli, che cosa utilizzare e preservare di una grande quantità di dati registrati in un'unità di tempo di pochi centesimi di secondo. Un processo veloce ed automatico che è utile e funzionale alla sopravvivenza e all'adattamento all'ambiente, e che proprio per le sue caratteristiche così improvvisate crea non poche difficoltà a chi studia tali fenomeni. Bisogna per questo predisporre condizioni di osservazione controllata per capire quali elementi informativi il sistema percettivo estragga di volta in volta per il suo funzionamento.

Procedendo con l'osservazione di un cerchietto bianco su una pagina nera osserviamo i vari livelli di attività percettiva da cui intendiamo partire per le nostre analisi.

1.      Nello stato 1 osserviamo la presenza di un punto e la nostra percezione è quella di un pallino chiaro su una superficie scura.

2.      Nello stato 2 aggiungiamo un secondo pallino, si vedono adesso una coppia di cerchietti bianchi: anche se in maniera debole, i due cerchietti tendono ad aggregarsi, a non essere visti come entità  completamente separate, e se fossero tangenti diventerebbero una cosa sola costituita da due parti.

3.      In un ambiente completamente oscurato, in cui sia visibile solo un pallino bianco che si può spegnere mentre accendiamo l'altro in un intervallo tra i 50 ms e i 100 ms otteniamo il rendimento percettivo di un salto, uno spostamento del primo pallino nella posizione del secondo. Non verrà cioè visto lo spegnersi di un cerchietto e l'accensione di un altro, bensì lo spostarsi nello spazio del primo nella posizione del secondo.

4.      Modifichiamo ora le dimensioni dei due cerchietti in maniera che uno sia notevolmente più piccolo dell'altro,  guardando con attenzione possiamo vedere non solo due cerchiai diametro diverso (che diverrà cmnq la soluzione percettiva preferita) ma anche due cerchi di dimensione circa uguali posti a distanza diversa dall'osservatore: il cerchio grande apparirà più vicino di quello piccolo.

5.      Se mettiamo quattro pallini bianchi della stessa dimensione su una superficie scura, otteniamo questa come soluzione percettiva, ma se i pallini sono disposti in maniera simmetrica, per esempio allineati a due a due ed equidistanti sia verticalmente che orizzontalmente, la soluzione percettiva preferita sarà ancora di due punti, ma collegati fra loro in una forma quadrata. Vediamo più dsi due pallini disposti a caso: vediamo una forma.

6.      Se aggiungiamo a quelli presenti altri dodici pallini, allineati in quattro righe e quattro colonne, la forma quadrata appare più strutturata e unitaria.

7.      Modificando la posizione dei pallini raddoppiando la distanza fra le colonne e dimezzando quella fra le righe vediamo cha al posto del quadrato compaiono quattro colonne indipendenti di quattro cerchietti bianchi ciascuna.

8.      Se riduciamo la distanza fra i pallini, in maniera proporzionale e man mano che ci allontaniamo dalla base il risultato percettivo ottenuto sarà quello di una figura che si allontana in profondità: otteniamo cioè l'effetto allontanamento dei punti.

9.      Nello stato 9 otteniamo l'eguaglianza fisica e fenomenica, disponendo i cerchietti dello stesso colore in una griglia alternata costituita da fasce orizzontali bianche e nere dello stesso spessore, otteniamo un effetto percettivo di differenza di colori tra le due serie di cerchietti, più chiari quelli posizionati su fondo scuro e viceversa.

10.  Nello stato 10 verifichiamo che la percezione della quantità non è solo questione di numero: disponendo infatti sedici strisce in verticale e sedici inclinate sul piano  in modo tale che la base e l'altezza coincidano otteniamo l'effetto percettivo di diversa quantità del numero di righe tra l'insieme di strisce diritte e quelle inclinate, in maniera tale che sembrano più numerose quelle inclinate.

In sintesi dunque: nello stato tre viene visto il movimento là dove sono stati descritti processi di accensione e spegnimento di due punti, ed è quello che viene definito movimento apparente di gran uso nelle tecniche di animazione cinematografica. Nello stato 4 si vede una diversa profondità a fronte della mutevole dimensione di due oggetti aventi la stessa forma. Anche in questo caso si tratta di un fatto di costanza percettiva. Nello stato 5 e 6 emergono forme quadrate, quando si erano solo avvicinati ed allineati una serie di punti nello spazio, se ne ricava che particolari forme, distanze e allineamenti possono costituire nell'insieme la percezione di una forma. Nello stato 8 una superficie frontale viene vista inclinarsi nella terza dimensione è ciò solo per effetto della variazione di distanza fra le righe e i punti, fino alla variazione dei diametri dei punti stessi. Nello stato 9 viene visto come diverso il colore dei cerchietti nelle file a sfondo diverso, ciò ci fa intuire che il colore percepito dipende dal rapporto fra il colore del cerchio stesso e il colore dello sfondo dove il cerchio stesso è posizionato. Nello stato 10 due segmenti composti dallo stesso numero di strisce appaiono di numero diverso e ciò dipende dal fatto che la percezione del numero degli elementi di una collettività dipende anche dalla loro distribuzione nello spazio: quando occupano un area maggiore appaiono di numero maggiore.

In definitiva possiamo stabilire che cosa costituisca informazione per il sistema percettivo: non risiede negli elementi di una scena, ma nelle relazioni che si istituiscono fra gli elementi e fra le loro caratteristiche.      

Altre informazioni, altre relazioni

Il rendimento percettivo, in quanto risultato dell'elaborazione di informazioni raccolte in una porzione osservata di realtà può essere facilmente descritto. Costituisce il mondo "reale" in cui si svolge la nostra vita e siamo altresì in grado, anche se alle volte con difficoltà, di descrivere le caratteristiche fisiche di quella stessa porzione di realtà. Partendo dal presupposto che non vi è una corrispondenza punto a punto fra questi due mondi, sappiamo che non vi può essere il primo senza il secondo. Anche se il rendimento percettivo appare per certi versi indipendente dal dato stimolatorio, non può tuttavia avvenire in sua assenza. Importante è rendersi conto che, per capire il funzionamento dei processi percettivi, è necessario prestare attenzione anche ad aspetti sottili e poco appariscenti, che spesso possono essere colti solo se si assume un atteggiamento controintuitivo. In altre parole, bisogna accettare tutto come potenziale fonte di problemi, soprattutto ciò che a prima vista sembra non presentarne.

Per le illustrazioni vedi libro pag.106

Nella figura è riprodotto il completamento amodale un importante fenomeno percettivo, si parla di completamento perché le due forme paiono completarsi dietro al rettangolo forato, "amodale" perché la parte nascosta è presente nella nostra esperienza, ma non è specificata nella modalità sensoriale. L'informazione utile perché si produca l'effetto di completamento è data dal modo in cui i margini della figura incompleta incontrano i lati di quella fenomenicamente occludente. La formazione di giunzioni a "T" produce l'effetto del "continuare sotto"; si parla di giunzioni a "T" quando l'estremità di un segmento combacia con un punto qualsiasi di un altro segmento che non sia però uno dei suoi estremi. Altra fonte aggiuntiva d'informazioni che favorisce il completamento con l'unificazione di parti è data dalla "buona continuazione", dal fatto, cioè, che i lati della figura sono allineati, il che rinforza la possibilità di vederle come parti di una stessa figura. La buona continuazione è uno dei fattori di organizzazione figurale individuati e descritti nell'ambito della psicologia della Gestalt da Whermeir, altri e due fattori sono la vicinanza e la chiusura e costituiscono un contributo fondamentale nella storia degli studi sulla percezione perché è intorno ad essi che si struttura organizzativamente il mondo delle nostre esperienze sensoriali. In definitiva, il completamento amodale, associato alla buona continuazione, consente di inseguire e di collegare in un'unica struttura forme che di fatto sono tra loro separate e indipendenti. L'inseguimento delle linee di un intreccio mettono ben in evidenza il lavoro di aggregazione e segregazione svolto dai meccanismi percettivi.

Esistono poi le cd. figure ambigue, quando il nostro sistema percettivo non riesce a decidere tra due o più soluzioni possibili in figure geometriche che hanno un ambivalenza cmnq logica. Per cui si entra in una spirale ricorsiva oscillante fra diversi risultati percettivi, nessuno dei quali si impone in maniera definitiva. Importanti le figure ambigue, perché costituiscono una dimostrazione che l'attività percettiva è un processo attivo, in cui l'elaborazione delle informazioni continua anche dopo che un primo rendimento accettabile è stato raggiunto. Importante è osservare che dal punto di vista fisico niente si modifica nello stimolo, mentre sul versante percettivo si generano, a fronte della stessa condizione simulatoria, due o più rendimenti fra loro alternativi e sempre ben strutturati; in definitiva sono le figure ad apparire ambigue, anche se nelle figure non cambia niente e ciò che cambia è solo nell'osservatore. Per cui possiamo dire che ogni oggetto nell'ambiente naturale è di solito inserito in un contesto di riferimento che ne definisce posizione, orientamento e dimensioni. Per cui l'attività percettiva tiene conto innanzi tutto delle relazioni che si instaurano fra ogni oggetto presente nella scena e la scena nel suo insieme.

Fattori formali e testo scritto

Nei testi scritti le lettere dell'alfabeto si susseguono da sinistra a destra, raggruppandosi e separandosi per formare le parole, ma anche per facilitare ed accelerare la lettura. La lettura è un'operazione di decodifica e di comprensione di alto livello, che utilizza meccanismi veloci ed automatici. Questo è necessario perché qualsiasi affaticamento percettivo sottrae risorse al processo di comprensione, per questo i caratteri devono essere chiari, simili tra loro, ben delineati e opportunamente distanziati. Una delle ragioni per cui riusciamo a leggere bene ed in maniera veloce è perché la scrittura rispetta in maniera rigorosa quelle proprietà formali che sono alla base dell'organizzazione figurale quali vicinanza, somiglianza e continuità di direzione. Annullando uno solo di questi parametri organizzativi il processo di cognizione ed apprendimento per quello che è scritto viene a complicarsi in maniera notevole. Vdi libro pag. 114

Nascondere, mostrarsi

I processi di unificazione-separazione su cui si basa l'organizzazione del nostro mondo visivo, che rendono individuabili gli oggetti separandoli dallo sfondo, possono anche funzionare in maniera contraria, rendendo difficoltoso o impossibile il loro riconoscimento. Sparire/apparire entrambi questi obiettivi si ottengono grazie al funzionamento degli stessi processi percettivi, innanzitutto in base alla relazione della figura con lo sfondo. Se l'ambiente ha un colore uniforma anche coloro che ci vivono (animali) assumendo lo stesso colore ottengono una cd. mimetizzazione, in maniera tale da diventare indistinguibili. Altro modo per non essere riconosciuti consiste nell'assumere l'aspetto di qualcos'altro. Kohler ha messo in evidenza che per ottenere il mascheramento non è sufficiente aggiungere tracce casuali (cd. rumore di fondo) perché ciò avvenga, ma affinché si produca il mascheramento è necessario che alcune delle caratteristiche figurali salienti entrino a far parte di un'altra figura diversamente organizzata. V.di foto libro 117

Percepire la tridimensionalità e la profondità

L'ambiente naturale, al cui interno si muovono con sicurezza gli esseri viventi, ci appare stabile e ben strutturato. Tuttavia il funzionamento della percezione della profondità spaziale ha sempre posto problemi di non poco conto, a cominciare dalla individuazione delle informazioni che a questo scopo vengono utilizzate. I recettori retinici sono i "bastoncelli" e i "coni"; i primi funzionano bene a livelli di illuminazione anche molto bassa, ma sono poco sensibili ai colori e si trovano alla periferia della retina, i secondi funzionano bene solo in condizione di buona illuminazione, sono sensibili alle differenze cromatiche e si trovano al centro della retina in un'area detta "fovea". Questo tappeto bidimensionale di fotorecettori viene attivato in maniera identica dalla luce riflessa da oggetti che si trovano vicino a noi, oppure da oggetti molto distanti. Poiché sulla retina i fotorecettori sono su di un piano si pone il problema di come venga recuperata nel rendimento percettivo la profondità spaziale persa al momento stesso della registrazione sensoriale. Le soluzioni proposte, per quanto numerose, possono essere ricondotte a due soli ambiti teorici, l'uno definito con l'etichetta di "percezione diretta" e l'altro con l'etichetta di "percezione indiretta".

Berkley (1700) fu il primo fautore della percezione indiretta. Riteneva che la percezione della profondità spaziale fosse il frutto dell'integrazione dei dati visivi inevitabilmente bidimensionali, con le conoscenze acquisite attraverso le esperienze tattili e motorie. I)n base ai principi empiristi, in base ai quali la conoscenza è frutto solo e unicamente dell'esperienza sensoriale, la profondità e la distanza possono essere esperite solo mediante il tatto e il movimento. Le esperienze visive quindi possono essere apprese e associate in questo modo.

Von Helmotz riteneva che i dati raccolti dagli organi di senso periferici consentissero al percipiente di formulare solo delle ipotesi  sulla tridimensionalità del mondo osservato in quanto essi si dimostrano incompleti e frammentari. Chiamò allora "interferenza inconscia"  quel processo che suppliva, sulla base dell'esperienza passata e delle conoscenze acquisite, i dati insufficienti raccolti dagli organi di senso.

Rock (1983) ha formulato l'ipotesi che l'attività percettiva funzioni in maniera analoga a quella del pensiero quando si cerca di risolvere un problema. Ogni atto percettivo, in quanto basato su un numero carente di informazioni, dovendo decidere fra più soluzioni possibili si pone come un problema la cui soluzione dipende dalle integrazioni che la conoscenza posseduta dal percipiente riesce a fornire.

I fautori della percezione diretta si riconoscono nell'ottica ecologista di Gibson (1979) e sostengono che l'informazione raccolta dall'occhio è tutta quella necessaria per raggiungere una percezione esauriente dell'ambiente che ci circonda e quindi anche della profondità. Il punto di forza di questa teoria risiede nella convinzione e constatazione che la luce non deve essere intesa come una condizione amorfa, ma deve essere considerata un veicolo strutturato e ben ordinato d'informazione. La luce, infatti, converge negli occhi dell'osservatore formando degli angoli la cui ampiezza varia ordinatamente in funzione della distanza e della posizione delle superfici da cui proviene. L'insime degli angoli solidi che sono proiettati da una scena statica negli occhi di un osservatore, anch'egli statico è definito assetto ottico. Si parla di flusso ottico quando all'assetto ottico si accompagna il movimento. Nel flusso ottico gli angoli che si formano fra i raggi luminosi riflessi dalla scena e che convergono nell'occhio di chi guarda, si modificano in continuazione in maniera non casuale e disturbante, ma in maniera ordinata e coerente e quindi informativa. Per i sostenitori della percezione diretta la luce produce una stimolazione retinica strutturata che si modifica e si riorganizza nello spazio e nel tempo secondo regole ben precise di tipo proiettivo. In ciò risiede una fondamentale differenza  della loro teoria rispetto a quella della percezione indiretta, secondo cui la luce sarebbe soprattutto un fluire di fotoni che eccitano in maniera disordinata il mosaico dei fotorecettori.

Gli indici della profondità

Si definiscono indici della profondità tutti i dati che contribuiscono a determinare e incrementare il rendimento percettivo di profondità spaziale nella terza dimensione. I sostenitori della percezione diretta e quelli della percezione indiretta elencano gli stessi indici, con la differenza che solo in un caso tali indici sono ritenuti convogliare tutta l'informazione  necessaria al rendimento percettivo della profondità (percezione diretta).

Alcuni degli indici della profondità  -accomodazione, convergenza e disparità binoculare-dipendono dal funzionamento degli organi sensoriali.

L'accomodazione è il processo attraverso cui viene modificata la curvatura del cristallino, per consentire la messa a fuoco sulla retina. Durante questo processo avviene anche la convergenza, ovvero la rotazione degli occhi nella loro orbita, in modo da puntare entrambi sull'oggetto osservato. Convergenza e accomodazione  si attivano per la presenza di uno stimolo esterno collocato a distanza compresa fra i 10 cm. e i 6-8 mt. Gli sforzi muscolari per regolare la curvatura del cristallino e la convergenza costituiscono l'informazione propriocettiva sulla distanza dell'oggetto osservato.

La disparità binoculare o retinica dà luogo a livello cerebrale alla fusione in un'unica immagine delle due immagini leggermente diverse registrate da ciascun occhio producendo una dislocazione di profondità. In breve vengono registrate due immagini proiettive leggermente diverse che a livello cerebrale si fondono in una sola, capace di conservare viva la plasticità e la tridimensionalità dell'oggetto nello spazio.

La coppia di immagini leggermente diverse, che mostrano lo stesso oggetto ripreso da due punti che distano fra loro 6-8 cm. in senso orizzontale, si chiama stereogramma.

Gli indici pittorici della profondità

Le informazioni sulla profondità spaziale si ritrovano anche nella struttura dello stimolo osservato. Si tratta  degli indici pittorici della profondità, usati da artisti e disegnatori per produrre effetti di tridimensionalità e profondità dello spazio su superfici piane.

Ogni volta che un oggetto si viene a trovare fra l'osservatore e un secondo oggetto più lontano, di cui nasconde una parte del contorno, si parla di sovrapposizione, occlusione o interposizione.

L'altezza del campo visivo, costituisce un'informazione di profondità, in quanto ciò che si trova nella parte alta del campo visivo viene in genere visto come più lontano rispetto a ciò che si trova nella parte inferiore, per cui le figure collocate più in alto nel disegno ci appaiono più lontane di quelle disegnate più in basso.

L'orientamento delle ombre, determina il modo in cui le variazioni di una superficie saranno viste. In pratica in assenza di altre informazioni il sistema percettivo interpreta le modificazioni nella luce riflessa da una superficie come se la luce provenisse dall'alto a sinistra. Oltre alle ombre proprie di un oggetto, quelle di cui abbiamo parlato, vi sono anche le ombre portate, ovvero le ombre di un oggetto che la luce proietta su un altro oggetto. Anche le ombre portate sono veicolo di informazione spaziale.

Prospettiva lineare e prospettiva aerea, per cui alcune rappresentazioni grafiche hanno una efficacia coinvolgente e una forza illusiva  tale nelle rappresentazioni prospettiche che si ritiene che utilizzino buona parte delle informazioni di cui si serve il sistema percettivo. Alcune caratteristiche di queste rappresentazioni grafiche sono:

a)      linee parallele che in profondità convergono verso un unico punto;

b)      la grandezza relativa degli oggetti disegnati decrescono man mano in funzione della distanza;

c)      il gradiente di tessitura di eventuali disegni rappresentanti il pavimento s'infittisce verso il fondo, così come si riduce la distanza di ogni oggetto disegnato

d)      gli oggetti disegnati in primo piano sono rappresentati con tratto marcato e deciso, mentre man mano che ci si allontana il tratto di contorno diviene sempre più flebile e indeciso.

Va notato che la perdita d'informazione subita dagli oggetti più lontani, i contorni mal definiti e confusi, vengono utilizzati dal sistema percettivo come incremento di informazioni circa la lontananza degli oggetti stessi.

La grandezza relativa è un indizio di profondità che è sempre presente nelle rappresentazioni prospettiche.

Il gradiente di tessitura, è uno degli indici a cui i fautori della percezione diretta attribuiscono un notevole peso nell'organizzazione visiva della profondità spaziale. Il termine "tessitura" si riferisce alla grana più o meno grossolana ed evidente che caratterizza ogni superficie colpita dalla luce. La micro struttura di ogni superficie riflette la luce in maniera diversa (sistematicamente e progressivamente più densa quanto più e lontana da chi guarda) a seconda del suo orientamento in profondità.  V.di libro pag 129.

Le costanze percettive

"Meccanismi di costanza" sono stati chiamati quei processi che si ritiene che contribuiscano a mantenere fenomenicamente immutate quelle caratteristiche degli oggetti (forma, dimensione, colore) che non appaiono immutate nonostante le continue variazioni delle loro registrazioni ottiche. Per il loro funzionamento abbiamo solo delle ipotesi, la più diffusa e quella che dice che si tratta di processi che non utilizzano conoscenze apprese mediante esperienza recente, ma si tratterebbe di processi già iscritti nel nostro patrimonio genetico, per cui sio tratta di esperienza millenaria dell'evoluzione che ha selezionato quanto utile per la sopravvivenza.

La costanza di grandezza è il risultato di quel processo visivo per effetto del quale le variazioni registrate di grandezza sono attribuite a variazioni di distanza, mentre la grandezza percepita si mantiene costante. Libro pag 131-132

La costanza di forma riguarda quei processi in cui i mutamenti di forma non vengono visti come tali, ma come cambiamenti di orientamento dell'oggetto. Ciò accade ogni volta che cambiamo il nostro punto di vista.

I processi di costanza sono collegati fra loro: ciò che è stato detto per la costanza di grandezza serve anche a spiegare il funzionamento della costanza di forma, da capire è dove risieda l'informazione utilizzata dal sistema percettivo. 

Un modo per ricavare l'informazione utilizzata dal sistema per raggiungere un dato risultato percettivo, consiste nell'analisi dell'indeterminazione ottica (Gerbino, 1994) con cui ci si riferisce al fatto che la stessa proiezione retinica può essere prodotta da un numero praticamente infinito di forme diverse, tutte però sottese allo stesso angolo visivo (v.di figura pag 135). Quasi sempre, però, il rendimento percettivo è uno solo ed è dettato da una regola precisa: verrà vista la forma più semplice e regolare. Per questa ragione i parallelogrammi e i trapezi sono visti preferibilmente come rettangoli inclinati in profondità e non come parallelogrammi o trapezi frontali. Frost e Attneave hanno dimostrato che una figura disegnata su una superficie bidimensionale sarà vista inclinata nello spazio qualora questa disposizione consenta di vedere una figura più semplice.

Percepire per agire e conoscere

È una cosa praticamente impossibile per noi mantenere gli occhi fissi su un singolo punto di un oggetto per più di qualche secondo. I nostri occhi si muovono indipendentemente dal nostro volere, quindi il raggio riflesso di ogni singolo punto di un oggetto non colpisce gli stessi recettori (coni e bastoncelli) per più di qualche millesimo di secondo. Si pone, quindi, il problema di quali siano i processi che ci consentono di discriminare le trasformazioni che avvengono sulla retina per effetto degli spostamenti dell'osservatore e quelli dovuti alla dinamica degli oggetti. Si ritiene che insieme ai segnali di queste variazioni al cervello ne siano inviati altri che hanno il compito di controllare la corrispondenza fra le variazioni delle stimolazioni retiniche e quelle effettivamente determinate a causa degli spostamenti reali degli oggetti. Nel caso che le informazioni sugli spostamenti registrati siano quelli effettivamente attesi dai movimenti oculari allora il centro di controllo annulla le informazioni di movimento e registra una semplice immagine statica.

Recentemente ci si è resi conto che la percezione deve assolvere a due funzioni diverse: raccogliere ed elaborare le informazioni necessarie sia al sistema cognitivo sia al sistema motorio. Riflettere sulla percezione nel contesto dell'attività motoria comporta necessariamente un modo diverso di vedere le cose, ad esempio un conto è che fissiamo un oggetto per compierci delle operazioni motorie (afferrarlo, spostarlo, ecc.) un conto è che l'oggetto stesso lo guardiamo per compiere delle operazioni di tipo cognitive (descriverlo verbalmente, memorizzarlo, riprodurlo graficamente), nel qual caso diventano importanti aspetti che vengono trascurati da un'operazione motoria. L'idea che una differente elaborazione dell'informazione visiva in funzione dello scopo ha trovato sostegno in alcune ricerche neuropsicologiche che hanno scoperto l'esistenza di due sistemi funzionalmente distinti per la trasformazione dell'informazione spaziale.

Vedere il movimento: il movimento apparente

La capacità di percepire il movimento è fondamentale per la sopravvivenza ed è una delle competenze più precoci sia nei bambini molto piccoli, che nei cuccioli di molte specie animali, anche a livello molto basso nella scala evolutiva. Sappiamo che le informazioni utilizzate dal sistema percettivo riguardano le relazioni che si stabiliscono fra gli elementi e fra alcune caratteristiche di ciò che stiamo osservando. Questo modo di procedere della percezione dovrebbe emergere in maniera ancora più evidente nella percezione del movimento, dal momento che non esiste nell'esperienza percettiva il movimento in sé: esistono le cose che si muovono, e comunque in relazione a qualche altra cosa che si muove e così via. Nessuno degli abitanti della terra ha la percezione di viaggiare insieme alla terra, che viaggia insieme al sistema solare ad un a velocità elevata. 

Anche dal movimento apparente o stroboscopico che ricordiamo rappresentano una serie di accadimenti tipo l'accensione e lo spegnimento veloce di alcuni punti luminosi, percepiti come oggetti in movimento. Dagli esempi riportati ci appare evidente che i meccanismi percettivi su cui si fonda il movimento apparente sono gli stessi grazie ai quali vediamo il cinema o vediamo scorrere le lettere nei tabelloni luminosi. Numerose ricerche sul movimento apparente hanno comunque messo in luce come l'attività percettiva tenda a conservare il più possibile la stabilità di un ambiente in cui avvengono continui spostamenti e trasformazioni.

Vedere il movimento: movimento indotto e analisi vettoriale

Il fenomeno del movimento indotto si verifica quando il movimento di un elemento della scena osservata viene attribuito ad un altro elemento della scena osservata viene attribuito ad un altro elemento. Questo perché, secondo Duncker (1929), l'attività percettiva opera una separazione dei sistemi: la scena osservata si segrega e si ordina in maniera gerarchica. Il movimento percepito dipenderà  dalla relazione che ogni oggetto intrattiene con quella parte di scena che assume il ruolo di riferimento, e poiché lo schema di riferimento viene assunto come maggiormente stabile rispetto ai  singoli elementi al suo interno, il movimento sarà sempre attribuito al singolo elemento, anche quando è  lo schema di riferimento che si muove, a meno che non siano disponibili informazioni atte a stabilire che cosa effettivamente si muova. Il sorgere e il tramontare del sole è forse l'esempio più evidente e convincente di movimento indotto.

Negli studi sui movimenti biologici si  è verificato che persone vestite di calzamaglia nera, illuminati solo ai polsi e alle caviglie da 12 lampadine, finché erano perfettamente immobili venivano percepiti solo dodici punti luminosi, ma come iniziavano a muoversi, bastavano 100 ms. per riuscire a percepire il movimento umano, non solo, gli spettatori riuscivano anche a percepire la qualità del movimento (saltare, correre, zoppicare) e numerosi soggetti anche a percepirne il sesso di chi effettuava i movimenti. Cuttin, Profitt e Kozlowski (1978) scoprirono che vi è un punto del nostro corpo con cui sono in relazione geometrica tutte le parti in movimento; tale punto, definito centro di movimento è quello in cui si intersecano i tre piani di simmetria di una persona che cammina. Questo centro è più basso negli uomini che nelle donne, e i tre studiosi verificarono che l'82% delle persone  riconoscevano il sesso di chi effettuava il movimento. Anche in questo caso si tratta di informazioni di tipo relazionale fra componenti cinematiche dello stimolo che l'attività percettiva utilizza per ordinare ed organizzare la nostra esperienza degli eventi dinamici.

La luce e il colore

Introduciamo in cinque sintetici punti alcuni aspetti della percezione di luce e colore, limitandoci al solo colore acromatico, quello cioè compreso tra le varie scale dei grigi compresa fra gli estremi del bianco e del nero. Nella percezione del colore ci possiamo aspettare che le informazioni utilizzate dal sistema percettivo siano ricavate dalle relazioni fra luci e colori della scena (sfondo), e all'interno di questa condizione generale è importante capire di quale relazioni si tratta.

1.      Innanzitutto la luce, che crea le condizioni per la visione e rappresenta un veicolo di informazione. Per la fisica elettromagnetica, la luce rappresenta solo un particolare tipo di onde in una gamma compresa fra i 390 e i 690 nm. Per cui per i fisici la luce è solo un problema  psicologico, essa esiste solo perché esistono esseri viventi in possesso di un sistema sensoriale che si modifica in sua presenza e che è in grado di percepirla. In un mondo privo di esseri viventi la luce in quanto tale non esisterebbe.

2.      Che cosa è il colore. Allo stesso modo della luce, il colore è un fatto puramente psicologico. Quasi tutti gli esseri viventi sono sensibili alla luce, ma un numero assai minore è sensibile al colore, che esiste solo perché alcuni fotorecettori si attivano in maniera differenziata nelle diverse lunghezze d'onda dello spettro. Abbiamo già detto che vi sono due tipi di fotorecettori, i bastoncelli che lavorano bene in  condizioni di scarsa luminosità e che non sono sensibili ai colori, e i coni che lavorano bene solo in condizione di buona illuminazione. Tra i coni vi sono quelli sensibili a lunghezze d'onda differenti, che quando attivati codificano questa attività come colore. Alcuni coni sono sensibili solo a colori opposti, ad esempio il rosso e il verde, o giallo e blu, nel senso che hanno campi recettivi il cui centro è sensibile al rosso e la periferia al verde, o viceversa.

3.      Le parole della luce. La difficoltà non sta solo nel capire il funzionamento della luce, ma anche parlarne perché bisogna avere a disposizione dei termini che ci consentano di dar conto contemporaneamente sia ad aspetti quantitativi che qualitativi di ciò che vediamo. Questo perché tra un osservatore ed uno strumento che è in grado di misurare la luce, vi saranno sempre delle disparità di giudizio per cui il fotometro stesso non rappresenta un buon predittore del nostro rendimento percettivo. Si è reso quindi necessario trovare dei termini che cosa misura il fotometro e cosa misura l'osservatore umano nelle varie condizioni fisiche a cui la luce è sottoposta. Le dimensioni fisiche della luce sono la luminanza, che specifica la quantità di luce che colpisce una determinata superficie, e la riflettenza, che riguarda la proprietà che una superficie ha di riflettere una maggiore o minore quantità di luce (un foglio bianco avrà una riflettenza molto maggiore di un foglio nero). Le dimensioni fenomeniche della luce sono:  

1.      la chiarezza, uguale alla luminanza apparente e che si riferisce all'impressione che l'osservatore ha dell'intensità dei mutamenti nella luce che colpisce gli oggetti;

2.      la bianchezza, che è uguale alla riflettenza apparente e si riferisce all'impressione che l'osservatore  del diverso colore (o in situazioni acromatiche dei diversi livello di grigio) degli oggetti a parità d'illuminazione.

4.      Costanza di colore, che rappresenta il meccanismo per cui l'essere umano giudica dello stesso colore due toni di grigio nonostante si trovino in diverse condizioni d'illuminazione e quindi riflettano una diversa quantità d'energia. Si tratta di un meccanismo di costanza, in particolare di costanza di colore. Si parla di costanza quando il rendimento percettivo riguardante un aspetto di ciò che si osserva rimane invariato al variare delle condizioni stimolatorie che lo specificano.  Nel caso di costanza di grandezza, abbiamo visto che le dimensioni fisiche di uno stesso oggetto appaiono inalterate anche se cambia la grandezza dell'immagine retinica, analogamente nel caso della costanza di colore vediamo un oggetto mantenere costante la bianchezza (ovvero il colore) anche quando l'energia che riflette cambia (e quindi il colore) per effetto di una diversa illuminazione.

5.      Contrasto di bianchezza. Il fenomeno del contrasto di bianchezza ci fa capire che l'informazione su cui si basa il rendimento percettivo della bianchezza di una data superficie è ricavata dal rapporto della bianchezza della superficie con la bianchezza di quelle che la circondano. Per cui, ad esempio, dei quadrati più piccoli tutti uguali nel colore (supponiamo grigio) circondati da quadrati più grandi di diverse tonalità di grigio ci appaiono differenti, pur essendo dello stesso colore. Questo fenomeno è stato definito "contrasto simultaneo di bianchezza".

L'apprendimento

Il concetto di apprendimento si riferisce al cambiamento relativamente stabile del comportamento di un soggetto di fronte ad una specifica situazione sperimentata ripetutamente.

Dunque l'esperienza, in particolare la ripetizione dell'esperienza, è la condizione necessaria perché si verifichi un apprendimento.

Occorre però distinguere i comportamenti nuovi che sono il prodotto di un apprendimento, da quelle modificazioni comportamentali che possono essere spiegate come tendenze innate a fornire certe risposte (es. la comparsa del primo sorriso sociale nel lattante) o come risultato di maturazione (es. la capacità di parlare o camminare) o di stati di temporanea alterazione delle condizioni psicofisiche (es. comportamenti particolari sotto l'effetto di alcool o droghe). L'apprendimento si riferisce all'acquisizione non solo di nuove conoscenze e capacità, ma anche di atteggiamenti, valori e abitudini; esso riguarda perciò tutta la sfera della personalità e non solo l'ambito delle conoscenze e delle capacità esecutive.

Nonostante un sostanziale accordo sulla definizione di apprendimento, posizioni teoriche talvolta contrapposte riguardano  la sua interpretazione. Da una parte si collocano le teorie associazionistiche (o teorie stimolo-risposta), di derivazione empirista, che confluiscono nell'approccio comportamentista e che sostengono che il meccanismo di acquisizione di comportamenti nuovi avviene attraverso l'associazione tra eventi o stimoli presenti nell'ambiente e le risposte emesse dai soggetti. All'opposto vi sono le teorie cognitive classiche come la Gestalt, la teoria di Piaget, fino alla psicologia cognitivisti contemporanea, che fondano l'apprendimento su un processo di elaborazione intelligente degli stimoli presenti nell'ambiente.

Il comportamentismo assume che il soggetto si limiti a registrare passivamente gli stimoli ambientali: pertanto ciò che si impara è una copia di ciò di cui si è fatta esperienza. In questa prospettiva teorica l'apprendimento si identifica con l'acquisizione di abitudini, di capacità "a fare qualcosa", e con tutte quelle acquisizioni che si possono esprimere nel comportamento manifesto.

Le teorie cognitive dal canto loro affermano che il soggetto interviene sull'ambiente attivamente, utilizzando diverse funzioni cognitive ( percezione, attenzione, memoria, pensiero, ecc.) per elaborare stimoli nuovi. Ciò che si inserisce nel repertorio comportamentale di un individuo è il frutto di un complesso processo di elaborazione e non la riproduzione fedele del mondo percepito. Per cui l'apprendimento implica la modificazione di strutture cognitive che non necessariamente si esprimono in comportamenti espliciti.

Dai riferimenti storici alla psicologia ricordiamo che il comportamentismo escludeva dalla propria indagine qualsiasi riferimento all'attività mentale ( la mente in quanto "scatola nera", non era di per sé indagabile), e cioè alla mediazione dell'attività cognitiva tra stimoli ambientali e risposte apprese. L'unico oggetto di studio scientificamente misurabile era il comportamento manifesto dei soggetti, esibito a seguito dell'esposizione ripetuta e controllata a stimoli ambientali. 

I contributi di questa scuola di psicologia sono stati fondamentali per la comprensione degli apprendimenti condizionati (anche alcuni sintomi psicopatologici) e delle abitudini.

Il condizionamento classico (o pavloviano)

Si parla di apprendimento tramite condizionamento quando i comportamenti o le risposte vengono appresi in associazione alla comparsa di specifici stimoli. Nel caso del condizionamento classico ci si riferisce esclusivamente a risposte fisiologiche di tipo riflesso (salivazione, chiusura delle palpebre) cioè a comportamenti automatici, mediati dal sistema nervoso, che vengono evocati da specifici stimoli. L'apprendimento consiste quindi nell'emettere queste risposte riflesse a seguito di stimoli "condizionati", vale a dire a stimoli che per loro natura non sarebbero idonei a provocarle.

Gli stimoli condizionati sono in grado di evocare certe risposte solo dopo essere stati ripetutamente percepiti dal soggetto come abbinati agli stimoli che naturalmente evocano quelle risposte. Un certo profumo, associato ad un cibo di cui si è ghiotti provoca "l'acquolina in bocca", cioè provoca salivazione, che è la risposta fisiologica automaticamente prodotta dal cibo

Si deve ad Ivan Pavlov (1849-1936) la formulazione della teoria del condizionamento classico, che scaturì da studi sull'apparato digestivo dei cani che sottoposti a questi esperimenti iniziavano a salivare prima  di ricevere il cibo, alla sola vista della ciotola o dei rumori che costantemente precedevano l'arrivo del cibo. I segnali che accompagnavano l'offerta del cibo erano quindi in grado di suscitare la risposta riflessa (salivazione) riferita al cibo. Pavlov definì questo tipo di risposta "secrezione psichica", per indicare che il fenomeno esulava dall'indagine fisiologica.

Tipico esempio degli esperimenti di Pavlov è quello in cui immediatamente prima che venga somministrato cibo al cane viene fatta suonare un campanello, ripetendo questa procedura numerose volte l'animale inizia a salivare già al suono della campanella, ancora prima che il cibo gli venga somministrato, anzi anche in assenza del cibo stesso.

Lo stimolo neutro (nell'es. il suono del campanello) viene definito stimolo condizionato (SC), mentre lo stimolo che naturalmente evoca il riflesso, cioè il cibo, viene definito stimolo incondizionato (SI). La risposta data al cibo è la risposta incondizionata (RI), mentre la risposta appresa  è un riflesso condizionato o risposta condizionata (RC).

Pavlov riuscì a dimostrare che uno stimolo inizialmente neutro, presentato per molte volte in stretta contiguità temporale con uno stimolo che per sua natura evoca una risposta riflessa è in grado di evocare una risposta riflessa simile.  

Acquisizione della risposta condizionata

Questo tipo di apprendimento non è immediato; richiede ripetute prove. Esiste un periodo di acquisizione della risposta condizionata e la procedura di apprendimento è efficace solo se lo stimolo condizionato viene presentato prima dello stimolo incondizionato, in modo che il primo venga percepito come precursore dello stimol che per sua natura evoca la risposta riflessa. Lo stimolo condizionato deve avere la funzione di segnalare all'organismo che un certo evento sta per accadere.

Estinzione e recupero spontaneo della risposta concionata

Dopo un certo numero di prove  nelle quali lo stimolo condizionato non sia seguito da quello incondizionato la risposta acquisita si estingue gradualmente. Questo non significa però che l'associazione tra gli stimoli si sia annullata, infatti se sottoposti di nuovo alla procedura di condizionamento questi mostrano un riapprendimento che avveniva dopo un numero di prove inferiori a quello che era stato necessario per ottenere il primo apprendimento. Si verifica un risparmio in termini di numero di prove, il che dimostra che parte degli effetti del condizionamento permangano nostante non si manifestino più delle risposte esplicite.

Le variabili nel condizionamento classico

I fattori che influenzano il condizionamento classico sono tre:

1.      l'intensità e/o la salienza degli stimoli incondizionati e di quelli condizionati, che varia a seconda delle specie dei soggetti (cani di Pavolvàqualità del cibo, intensità del suono del camapanello);

2.      l'intervallo di tempo che intercorre tra SC e SI, che deve essere molto breve;

3.      la frequenza degli accoppiamenti degli stimoli, poiché è proprio dalla ripetizione dell'associazione tra lo stimolo neutro e quello incondizionato che si stabilisce una relazione tra i due, per cui anche se lo stimolo incondizionato non è frequente di per sé, ma è sempre preceduto dallo stimolo incondizionato, l'apprendimento sarà rapido perché cmnq uno stimolo predice l'altro.

Il condizionamento avversivo

Con il condizionamento classico possono essere indotte delle risposte che anticipano un evento piacevole o desiderabile, ma possono essere provocate altresì risposte che si producono a seguito di stimoli incondizionati spiacevoli e dolorosi. In questo caso gli stimoli incondizionati sono chiamati avversivi, e sono caratterizzati da risposte riflesse diverse da specie a specie.

L'accoppiamento di uno stimolo neutro, come un flash luminoso (che poi diverrà lo stimolo condizionato) a uno stimolo avversivo come una scossa elettrica produrrà una risposta inizialmente incondizionata, che nel tempo verrà emessa come risposta condizionata alla semplice comparsa della luce. La procedura del condizionamento è identica a quella attuata con gli stimoli desiderabili. Tuttavia esistono alcune peculiarità del condizionamento avversivo. Innanzitutto talvolta è sufficiente un singolo accoppiamento di SC-SI per produrre il condizionamento. Questo in particolare negli esseri umani, dove questo fenomeno si presenta legato alle risposte emozionali (cd. risposte emotive condizionate).

Altra peculiarità è relativa all'intervallo di tempo che intercorre tra la presentazione di SC ed SI. Perché uno stimolo neutro possa divenire stimoli condizionato, il tempo ottimale richiesto tra la sua presentazione e quella dello stimolo incondizionato deve essere brevissimo; va rilevato tuttavia che nel caso del condizionamento avversivo si osserva molta variabilità. Gli animali, in presenza di un cibo che provocava una forma di nausea a causa dell'odore oppure del sapore mostravano avversione a quel cibo, nonostante la nausea sopraggiungesse dopo molte ore dalla somministrazione del cibo stesso, rendendo perciò più difficile, dato il tempo più dilatato, l'associazione cibo-nausea. Stesso fenomeno si riscontra negli esseri umani, che possono sviluppare una qualche avversione a dei cibi che hanno loro prodotto delle intossicazioni o altri malesseri, anche per molto tempo.

Condizionamento di ordine superiore

Abbiamo visto che uno stimolo condizionato è in grado di evocare una risposta simile a quella dello stimolo incondizionato anche senza che quest'ultimo compaia, inoltre è possibile che un altro stimolo neutro, che sistematicamente precede lo stimolo condizionato, dopo un certo lasso di tempo è capace di evocare la stessa risposta dello stimolo condizionato.

Un condizionamento di questo tipo viene definito come condizionamento di ordine superiore. Stimoli inizialmente neutri, acquisiscono le proprietà di uno stimolo condizionato, grazie al solo e ripetuto abbinamento con un altro stimolo condizionato.

Il condizionamento di ordine superiore è anch'esso influenzato dalla frequenza dell'accoppiamento tra i due stimoli condizionati e dalla loro intensità.

Generalizzazione e discriminazione

Con il termine generalizzazione ci si riferisce a quel a quel fenomeno di estensione delle risposte condizionate  a tutti gli stimoli molto simili a quello condizionato. La risposta generalizzata è tuttavia correlata alla somiglianza con lo stimolo condizionato originario. Tanto più gli stimoli sono simili, tanto più la risposta sarà simile; tanto minore è il grado di somiglianza, tanto minore sarà l'intensità della risposta.

Il processo di generalizzazione è automatico dal momento che la tendenza a generalizzare l'apprendimento è spontanea e presente in tutte le specie.

Diversamente è se si vuole che l'apprendimento condizionato si riferisca ad uno stimolo preciso e non a molti stimoli somiglianti, in questa caso è necessario sottoporre il soggetto a un'ulteriore procedura di addestramento, che viene definita condizionamento discriminativi. Si tratta di seguire la stessa procedura del condizionamento classico, con la differenza che per stimoli somiglianti a quello del riflesso condizionato non vengono fatti seguire dallo stimolo condizionato. In questo modo il soggetto apprende che stimoli simili all'originario, non precedono il cibo, ma solo il suono specifico è associato all'attesa del cibo.

Nell'uomo la generalizzazione del condizionamento sembra ulteriormente facilitata dalle sue capacità cognitive che consentono di utilizzare anche il linguaggio e le attività simboliche per trovare connessioni o somiglianze tra stimoli.

La pubblicità fa molto affidamento sulla condizionabilità delle risposte umane, associando ripetutamente stimoli che per loro natura suscitano risposte emotive positive (es. elementi di particolare bellezza ed erotismo) ai prodotti che devono essere reclamizzati. Si pensi alla maggior parte delle pubblicità dei profumi, in cui il contenuto degli spot non ha quasi alcuna relazione con il prodotto.

Il condizionamento operante

La relazione con l'ambiente descritta nel condizionamento classico prevede che il soggetto sia passivamente reattivo agli stimoli, tuttavia noi abitualmente dobbiamo apprendere comportamenti nuovi producono dei cambiamenti in funzione del raggiungimento di uno scopo.

Le modificazioni del comportamento che aumentano la capacità o le conoscenze in funzione di un'interazione attiva e funzionale con l'ambiente vengono definite risposte strumentali,  proprio perché strumenti che permettono di raggiungere degli effetti desiderati. Skinner le chiamerà risposte opearanti (da cui la definizione di condizionamento operante la procedura necessaria per apprenderle) perché operano sul mondo al fine di ottenere un certo effetto. 

Il primo ricercatore che si occupò di questo tipo di apprendimento fu Thorndike  (1874-1949) che individuò la forma più caratteristica d'apprendimento sia degli animali che degli uomini nell'apprendimento per prove ed errori (o per selezione e connessione).

Nei suoi esperimenti condotti sui gatti, deprivati del cibo da molte ore e immessi in una gabbia-problema in cui l'innesco di un determinato meccanismo avrebbe liberato l'animale permettendogli l'accesso al cibo da cui era  invogliato a farlo in quanto si trovava appena fuori dalla gabbia, Thorndike aveva notato che il gatto faceva numerosi tentativi per provare ad uscire ma l'azione giusta veniva compiuta in maniera del tutto casuale. Dopo il primo tentativo, lo stesso animale reintrodotto nella stessa gabbia compiva un numero di azioni minori, e più volte veniva ripetuto l'esperimento, più il numero di tentativi vani diminuiva fino al punto che l'animale riusciva a liberarsi e ad accedere al cibo con un solo movimento. Thorndike definì questa procedura come "apprendimento per prove ed errori", per sottolineare che non vi era un intervento intelligente dell'animale nel trovare la soluzione, ma l'animale procedeva a caso fino a che raggiungeva lo scopo. Il soddisfacimento prodotto dall'azione  che portava al successo il raggiungimento del cibo rendeva più probabile il ripetersi dell'azione, per questa ragione nel corso delle prove il gatto evitava i movimenti che non avevano prodotto l'effetto desiderato.

Questa relazione tra tentativi casuali ed azione efficace fu chiamata legge dell'effetto, e si può sintetizzare così: le azioni che producono effetti soddisfacenti hanno più probabilità di essere ripetute quando si ripresenti la medesima situazione, mentre quelle che producono effetti spiacevoli o inefficaci hanno progressivamente meno probabilità di essere riprodotte. Veniva così introdotto il concetto di motivazione, che sarà molto rilevante per la comprensione dell'apprendimento umano.

Il successo che si ottiene attraverso un comportamento agisce come premio e rinforzo per l'azione compiuta, che avrà quindi maggiore probabilità di essere ripetuta e la ripetizione è ciò che causa il rafforzamento dell'apprendimento.        

Thorndike aveva verificato che la punizione era assai meno efficace nel diminuire le probabilità che un certo comportamento si verifiche di quanto lo sia il premio nell'aumentarne le probabilità. Il premio ha maggior potere della punizione.

Corollario della legge dell'effetto e la legge dell'esercizio: l'apprendimento per prove ed errori sarà  anche in funzione della quantità di volte in cui l'azione viene riprodotta. L'esercizio è alla base di questo tipo d'apprendimento e del suo consolidamento.

Anche questi apprendimenti sono suscettibili di generalizzazione; Thorndike parlava di irradiazione dell'effetto, cioè una circostanza gratificante viene connessa non solo a un comportamento specifico, ma anche a comportamenti ad esso simili o assimilabili. Analogamente anche gli apprendimenti per prove ed errori possono essere condizionati alla discriminazione, facendo in modo che l'effetto positivo di un'azione (o una sequenza motoria) sia selettivamente la conseguenza di quell'azione e non di azioni simili. 

Skinner e l'apprendimento per condizionamento operante

Skinner (1904-1990) è lo psicologo che ha dato i maggiori contributi nell'ambito dell'apprendimento condizionato, approfondendo le conoscenze che derivavano dalla legge dell'effetto di Thorndike. Fu lui a definire risposte operanti quei comportamenti che producevano un effetto sull'ambiente e condizionamento operante quel processo di apprendimento per il quale gli effetti di una risposta operante (ricompensa o punizione) determinano la probabilità che quella risposta sia emessa. Ideò un dispositivo sperimentale per condurre i suoi studi, che consisteva in una gabbia (cd. skinner box) che aveva al suo interno una leva o una barra su cui l'animale poteva agire in modo da produrre un preciso effetto, ad es. ricevere del cibo o dell'acqua. Il pavimento era costituito da una griglia di metallo, elettrificabile nel caso si volessero fornire stimoli negativi (avversivi) come uno shock elettrico. Gli animali all'inizio dell'esperimento erano deprivati di cibo o acqua a seconda dello stimolo di rinforzo che s'intendeva dare.  La prova consisteva nel far si che l'animale premesse accidentalmente il meccanismo, a seguito di questa azione l'animale riceveva cibo o acqua a seconda di quello di cui era deprivato. In questo modo si otteneva che l'animale apprendesse un certo comportamento, e a questa azione veniva fatto seguire un effetto (Il cibo) che fu definito rinforzo.

Acquisizione  Nel condizionamento operante un apprendimento, cioè una modificazione del comportamento relativamente stabile, viene acquisito solo a condizione che il nuovo comportamento sia seguito da un rinforzo. Per cui se una risposta operante cessa di essere rinforzata, la sua frequenza diminuisce gradualmente in modo analogo a quello che si verifica nel condizionamento classico. Il concetto di rinforzo è dunque centrale in questa teoria.

Estinzione   L'estinzione è quel processo di riduzione della probabilità che un comportamento venga emesso in assenza di rinforzo. Ad es. se il bambino viene portato a letto con i genitori ogni volta che piange, apprenderà questo tipo di comportamento come utile per raggiungere l'effetto desiderato e sarà dunque stabilmente appreso; se il rinforzo diminuisce, ma viene ridato saltuariamente, il comportamento viene acquisito ugualmente ma con più forza (rinforzo parziale); se i genitori resistono e non portano a letto con loro per più notti il bambino il comportamento di richiamo diminuisce gradualmente, dal momento che non sortisce alcun effetto.

L'estinzione è misurata in termini di tempo o di risposte necessarie perché un comportamento non rinforzato cessi. Ogni comportamento ha una resistenza differente all'estinzione, che dipende ovviamente dalle specie cui appartengono i soggetti, dalla natura dei comportamenti appresi e dalle caratteristiche  dei rinforzi. Quando i comportamenti appresi diventano automatizzati o diventano abitudini, i rinforzi non sono più necessari e il comportamento non si estingue, a meno che non intervenga un nuovo condizionamento di comportamenti incompatibili con quello già appreso.

Anche nel condizionamento operante troviamo un effetto di recupero spontaneo delle risposte dopo un periodo di riposo che segue l'estinzione della risposta. Così come il riapprendimento di risposte risulta più rapido se vengono ricondizionate dopo che siano già estinte.

Generalizzazione e discriminazione    Il processo di generalizzazione automatica che si verifica nel condizionamento classico si manifesta anche in quello operante. Il rinforzo dato a un certo comportamento estende il suo effetto anche a comportamenti simili, lo stesso vale per la discriminazione, la quale richiede, come nel condizionamento classico, che i soggetti siano sottoposti a una procedura specifica di condizionamento, nel quale venga rinforzata solo la risposta desiderata e non le risposte simili a cui il soggetto estende automaticamente il rinforzo

I rinforzi

Per rinforzi s'intendono quegli stimoli o effetti che seguono una risposta e che determinano la probabilità che la risposta medesima sia emessa. Il rinforzo è condizione necessaria e sufficiente perché si realizzi un apprendimento.

I rinforzi possono essere classificati in base a tre criteri:

1.      la valenza che hanno per il soggetto e ciò implica la distinzione rinforzi positivi e negativi;

2.      i bisogni sui quali agiscono, sulla base dei quali si distinguono i rinforzi primari dai rinforzi secondari;

3.      la modalità di somministrazione, che può essere continua, intermittente o parziale.

I rinforzi positivi sono quelli che generano un effetto piacevole e di soddisfacimento per il soggetto, essi fungono da ricompensa a un certo comportamento messo in atto, e aumentano la probabilità che un certo comportamento sia ripetuto e quindi appreso.

I rinforzi negativi non vanno confusi con stimoli di segno contrario a quelli positivi, in altre parole non sono punizioni, ma ciò che aumenta la probabilità di far cessare delle punizioni o di rimuovere uno stimolo negativo o spiacevole per il soggetto, tramite un comportamento di evitamento o di fuga. Si tratta sempre di rinforzi che generano un apprendimento, ma vengono definiti negativi perché insegnano a sopprimere o a evitare qualcosa di doloroso per il soggetto. Sono rinforzi negativi la soppressione di stimoli avversivi come l'evitamento di uno schiaffo, di una scarica elettrica, di un rimprovero, di un giudizio negativo, e così via.

Anche le risposte di evitamento  o di fuga rientrano nella classe dei comportamenti appresi tramite rinforzo negativo. Un bambino che abbia associato che un certo tono di voce del padre procede uno schiaffo, farà in modo di modificare il suo comportamento non appena percepisce la voce alterata per evitare la punizione. Nella vita quotidiana si apprendono un'infinità di comportamenti di evitamento e/o di fuga.

I rinforzi primari e secondari   Distinzione che si riferisce ai tipi di bisogni a cui i rinforzi si riferiscono. I primi riguardano ciò che ha importanza per la sopravvivenza dell'organismo (cibo, acqua, ecc.) i secondi sono invece stimoli neutri che non hanno inizialmente un valore intrinseco, ma lo assumono nel corso dell'esperienza e sono spesso legati a fattori culturali e servono generalmente a modificare il comportamento umano.  Possono essere il denaro, il giudizio sociale, i doni, i rimproveri, gli apprezzamenti, ma anche l'autovalutazione, e così via.

Rinforzi continui e parziali    Le modalità in cui i rinforzi vengono somministrati costituisce un'ulteriore variabile che incide sull'apprendimento condizionato. C'è differenza infatti nell'efficacia di un rinforzo a seconda che questo venga dato a seguito di ogni risposta desiderata oppure saltuariamente, purché secondo criteri precisi. Nel primo caso si parla di rinforzo continuo, nel secondo di rinforzo parziale. Sebbene nelle prime fasi di un apprendimento è quasi sempre necessario un rinforzo continuo, successivamente sembra più efficace un rinforzo parziale.

Skinner aveva messo a punto e studiato quattro modalità di rinforzo parziale, due tengono conto dell'intervallo temporale tra uno stimolo di rinforzo e l'altro, mentre gli altri e due calibrano la somministrazione del rinforzo sul numero di risposte fornite dal soggetto

1.      Schema a intervallo fisso: si prevede che una risposta sia rinforzata dopo un periodo di tempo prefissato, sempre uguale. Situazione che vivono gli studenti quando ci sono le interrogazioni programmate: immediatamente dopo l'interrogazione smettono di studiare e riprendono solo vicino alla nuova interrogazione, che avverrà in un momento previsto. In questo modo gli studenti avranno una preparazione che procede a singhiozzo.

2.      Schema a intervallo variabile: si prevede che una risposta sia rinforzata dopo un periodo di tempo variabile, perciò non prevedibile da parte del soggetto. In uno schema a intervallo variabile si prevede un andamento casuale delle interrogazioni. Al termine del quadrimestre lo studio sarà stato presumibilmente più costante e l'apprendimento più efficace.

3.      Schema a rapporto fisso: si prevede che il rinforzo sia fornito dopo un numero prefissato di risposte. Un esempio potrebbe essere quello del lavoro a cottimo, situazione in base alla quale le persone vengono pagate in base a quello che producono, per cui vi è una sollecitazione a lavorare in fretta per guadagnare di più. Schema sicuramente più efficace di quello basato sul tempo prefissato che prevede anche lunghi periodi di "non esercizio".

4.      Schema a rapporto variabile: si prevede che il rinforzo sia fornito dopo un numero di risposte variabili e impredicibili dal soggetto stesso. Il bambino che piange di notte e spera di essere portato nel letto dei genitori, molto spesso è involontariamente rinforzato nel suo comportamento proprio dall'applicazione involontaria di questo schema parziale. Questa è una modalità molto efficace per indurre un certo comportamento, poiché può accadere che anche dopo una sola risposta segua il rinforzo e l'animale come l'uomo sono indotti a emettere continuativamente e rapidamente risposte per ottenere il premio, riducendo gli intervalli di riposo. Skinner dimostrò che lo schema a rapporto variabile è in assoluto il più efficace dei quattro.   

La punizione

La punizione è in un certo senso l'opposto del rinforzo poiché riduce la probabilità che un comportamento venga emesso. La punizione è anche diversa dall'estinzione di un comportamento che consiste nella graduale attenuazione di una risposta quando non si ottiene più alcun effetto.

La punizione inibisce un comportamento, non lo estingue. È dunque poco efficace nel tempo, dal momento che il comportamento indesiderato, non essendo disappreso, può tornare a manifestarsi. La punizione è, d'altra parte, un mezzo molto comune e talvolta necessario per controllare e modellare il comportamento inibendo quello indesiderato nell'immediato e forse rendendolo meno probabile anche nel futuro prossimo, ma la sua efficacia è molto inferiore a quella del rinforzo. Skinner riteneva che un metodo assai più efficace per sopprimere un comportamento indesiderato fosse quello di rinforzare un comportamento con esso incompatibile, insisteva sulla necessità di fornire al soggetto un'alternativa, facendogliela apprendere tramite rinforzo positivo. Procedura che produrrebbe una naturale estinzione della risposta inadeguata.

Se un alunno sbaglia un compito di algebra, sarebbe più opportuno fornirgli un'alternativa (rispiegargli la regola) e premiarlo immediatamente dopo il primo esercizio corretto, piuttosto che punirlo con varie insufficienze. Va notato che in certe situazioni è necessario valutare se il soggetto conosca o meno un comportamento alternativo a quello indesiderato. Nel caso in cui si abbiano buone ragioni di credere che il soggetto sa come comportarsi, ma per qualche ragione non ha agito di conseguenza, si può ricorrere alla punizione; ma se si valuta che il soggetto "non sa" come comportarsi adeguatamente, allora la punizione non ha senso, perché si otterrà solo un'inibizione che lascerà il soggetto senza via di scampo.      

Problema importante  a proposito della punizione è quello relativo al suo potere di inibizione: se una punizione viene ripetuta molte volte, senza che il soggetto abbia o conosca un'alternativa, senza cioè che conosca un comportamento diverso ed adeguato, l'inibizione si generalizza e può estendersi a comportamenti simili fino ad investire intere aree di comportamento (motorio, cognitivo, affettivo). I cani che nell'esperimento non hanno la possibilità di sottrarsi allo stimolo avversivo non erano in grado di apprendere compiti di evitamento: anche alla cessazione della scossa restavano sdraiati nella gabbia senza tentare alcun comportamento di evitamento o di fuga. Selingman definì questo comportamento impotenza appresa.

La punizione produce anche un'emozione negativa che talvolta può generare altri comportamenti indesiderati; inoltre può verificarsi un'associazione tra punizione e chi la emette (genitore, insegnante, ecc.)  per cui nei confronti della stessa si può generare un sentimento negativo. Skinner riteneva che la punizione, come stimolo avversivo, fosse efficace solo per il condizionamento classico, soprattutto delle emozioni, ma non per il condizionamento operante.

Le variabili nel condizionamento operante




Alcune variabili influenzano il condizionamento operante, riguardano sia i rinforzi sia le punizioni somministrate a seguito di un certo comportamento:

a)               la forza o la salienza dei rinforzi o delle punizioni, cioè maggiore è la ricompensa o l'intensità della punizione per una certa risposta tanto maggiore è la probabilità che quest'ultima venga ripetuta o inibita;

b)              l'intervallo di tempo tra il comportamento e il rinforzo ( o la punizione), che tanto sarà più  breve tanto sarà maggiore la probabilità che la risposta venga appresa o inibita;

c)               la frequenza delle conseguenze: come abbiamo già visto a proposito delle modalità di somministrazione dei rinforzi, l'acquisizione dei comportamenti ha un andamento diverso a seconda della procedura di rinforzo che si adotta (rinforzo continuo, parziale a intervallo fisso o variabile, a rapporto fisso o variabile).

Il modellamento

Nel condizionamento operante il rinforzo viene emesso solo dopo che il comportamento desiderato è stato emesso, ma non è sempre possibile che i soggetti siano in grado di emettere spontaneamente quel comportamento, come nel caso dei comportamenti più complessi che sono il risultato di acquisizioni più semplici che gradualmente si sommano. In questi casi si procede per approssimazioni successive, cioè con un procedimento che consiste nel rinforzare ogni risposta che si approssima sempre di più a quella desiderata fino a che questa non compaia, questo procedimento viene detto modellamento (shaping).

Se dobbiamo insegnare ad un bambino a giocare a pallone, all'inizio lo loderemo per ogni azione corretta, poi man mano che impara solo per quelle più complesse ed eviteremo l'apprezzamento per quelle più elementari.

Il condizionamento operante nell'uomo

La maggior parte degli esseri umani viene condizionata con rinforzi secondari come il denaro, le lodi, i premi, ma anche con giudizi positivi non solo espressi da altri, ma anche da se stessi. Ciò è valido nei programmi d'istruzione autogestiti, come quelli per l'apprendimento delle lingue straniere nei quali al termine di ogni unità i soggetti sono invitati a risolvere degli esercizi abbastanza semplici che servono per l'autovalutazione, il cui successo costituisce un rinforzo e un incentivo a proseguire nello studio.

Molti dei comportamenti umani consapevoli ed inconsapevoli sono prodotti e modulati da condizionamenti operanti. Esiste un principio detto "principio di Premack" che estende il valore del rinforzo anche nelle attività e afferma che un'attività piacevole può agire come rinforzo per un'attività spiacevole. Principio usato dai genitori quando dicono ai figli che potranno giocare solo dopo aver fatto i compiti. Skinner era particolarmente critico verso l'utilizzo delle punizioni soprattutto in ambito scolastico dal momento che queste producono risposte emotive condizionate (secondo i principi del condizionamento classico) che sono difficili da estinguere e interferiscono con la possibilità di nuovi apprendimenti. Nell'apprendimento umano sono molto comuni i rinforzi parziali, un esempio classico è quello dei giocatori d'azzardo che anche se vincono occasionalmente sono portati a ripetere gli stessi gesti nella convinzione che essi possano prima o poi garantirgli la vincita, ed è proprio la casualità del successo (rinforzo a rapporto variabile)  che lo incentiva a continuare a giocare con costanza.

Anche il condizionamento operante, come quello classico, ha applicazioni cliniche molto importanti. Nella terapia del comportamento abitualmente si lavora sul processo di rinforzo per portare i pazienti a modificare i comportamenti indesiderati.

Altra tecnica terapeutica che deriva dalla teoria del condizionamento operante è quella del biofeedback, utilizzata soprattutto per curare problemi di natura fisiologica come l'emicrania o l'ipertensione. Il biofeedback è una procedura di autoregolazione di una funzione fisiologica basata su un'informazione di ritorno (feedback) che giunge al soggetto tramite un segnale (suono o luce) che gli indica quando è stato in grado di produrre un certo cambiamento fisiologico desiderato. Il soggetto viene addestrato a mantenere questo stato e la luce o il suono fungono da rinforzo in quanto segnalano un successo nel mantenimento del controllo della funzione fisiologica.

Il comportamentismo intenzionale di Tolman

Nella concettualizzazioni di Watson il comportamento appreso viene rigidamente studiato e interpretato come risposta osservabile a stimoli di varia natura. Alcuni psicologi comportamentisti sostenevano che potevano essere ipotizzati dei costrutti mentali-che in quanto tali non erano direttamente osservabili-in grado di spiegare e prevedere più adeguatamente il comportamento dei soggetti.  Alcuni di questi autori (Woodworth, Hull) divennero sostenitori della teoria  S-O-R  dopve la variabile O che sta per organismo, indica un qualche tipo di mediazione mentale tra stimolo e risposta. Il primo autore che mostrò questa apertura alla considerazione di costrutti mentali ipotetici è stato Tolmann (1886-1959) che nella sua opera più sistematica, Comportamento intenzionale negli animali e negli uomini (1932) definì la sua teoria come comportamentismo intenzionale, e si fondea su alcuni assunti base:

a)               ogni comportamento che può essere appreso fa riferimento a un'azione o a una serie di azioni finalizzate a uno scopo, presuppone perciò un'intenzione da parte del soggetto;

b)               esistono delle variabili interferenti (o intervenienti)  che sono responsabili della mediazione tra la situazione stimolante e la risposta dei soggetti; tali variabili possono essere rappresentate dalle caratteristiche dei soggetti, dalla loro intelligenza, dalla natura o intensità dei bisogni che orientano allo scopo; esse non sono indagabili direttamente, ma vanno tenute in conto come costrutti ipotetici.

Tolman riuscì a dimostrare come i soggetti (ratti nei suoi esperimenti) nel metter in atto un comportamento utilizzano i dati presenti nell'ambiente e la sua organizzazione spaziale, costruendosi nel corso dell'esperienza una rappresentazione mentale dell'ambiente, definita mappa cognitiva. L'apprendimento non è dato semplicemente da una sequenza di movimenti o azioni ricompensate, ma dalla rappresentazione mentale della meta e dello spazio per raggiungerla, è un apprendimento di significati che guida la scelta delle azioni. Dimostrò inoltre che i soggetti scelgono di eseguire quelle azioni che permettono loro di raggiungere lo scopo nel modo più breve e facile secondo un principio di parsimonia, detto principio del minimo sforzo. (libro pag. 175)

Altro fenomeno importante che mise in evidenza Tolman fu quello dell'apprendimento latente. In cui dimostrava che gli animali imparano l'organizzazione spaziale dell'ambiente, attraverso l'esplorazione, anche senza rinforzi; tuttavia questi ultimi sono necessari affinché l'apprendimento venga manifestato. L'apprendimento si verificherebbe cmnq in risposta alla semplice immissione in una situazione problematica, ma questo non verrebbe esibito rimanendo latente fino a che non si individua uno scopo da raggiungere. Per cui il rinforzo non era necessario per apprendere, come nella concettualizzazioni di Skinner, ma per manifestare un apprendimento, cioè utile per dare una prestazione.

Una volta inseriti in una situazione di apprendimento i soggetti acquisiscono una conoscenza che può rimanere latente fino a che non si produca una motivazione a servirsene. Premi e punizioni nella teoria di Tolman sono necessari per regolare le prestazioni più che le acquisizioni, anche se ovviamente non si nega la loro importanza come rafforzatori dell'apprendimento.

La teoria dell'apprendimento sociale: l'apprendimento osservativo

Le teorie dell'apprendimento trascurano la spiegazione di una vasta gamma di comportamenti che si sviluppano e si modificano nel corso dell'esperienza e sono appresi attraverso l'osservazione piuttosto che a seguito di un'azione diretta.

La teoria dell'apprendimento osservativo, formulata da Bandura (1969-1969°--1971), rappresenta una sintesi tra i principi del condizionamento operante e quelli di un approccio cognitivo. Si colloca nella prospettiva cognitivista e un ruolo centrale nell'apprendimento viene attribuito ai processi mentali quali l'attenzione, la memoria, il pensiero. In quest'ambito vengono presi in considerazione una gamma assai ampia di comportamenti, che comprendono anche l'acquisizione di capacità sociali e individuali che sono alla base della formazione della personalità. La teoria dell'apprendimento sociale sostiene che gran parte del comportamento umano, e in una certa misura anche quello animale, si ottiene in modo indiretto, osservando le risposte date da un altro soggetto (un modello) e poi cercando d'imitarlo.

Numerosi sono i fattori che intervengono a determinare l'efficacia dell'apprendimento imitativo. Bandura ne ha messi in evidenza quattro, sottolineandone l'interazione.

1)      Innanzitutto l'attenzione: la possibilità d'apprendere da un modello dipende da quanta attenzione il soggetto presta al modello.

2)      In secondo luogo vi sono i processi di rappresentazione in memoria di ciò che è stato osservato e che dovrà essere espresso in un momento lontano nel tempo.

3)      La capacità di riproduzione motoria, per cui un soggetto potrebbe aver compreso un comportamento osservato ma potrebbe non essere capace di eseguirlo a livello motorio.

4)      Il rinforzo che Bandura, come Tolman; riteneva che fosse soprattutto legato al ruolo dell'esecuzione della risposta più che all'apprendimento. Il rinforzo crea la motivazione anticipando il vantaggio dell'esecuzione di un certo comportamento. Una persona sarà portata a eseguire o a inibire un certo comportamento appreso che preveda (anticipi cognitivamente) di essere ricompensato o punito in seguito a quella risposta.

Solitamente i comportamenti del modello, rinforzati positivamente vengono meglio appresi, nel senso che vengono più frequentemente esibiti di quelli che non sono stati rinforzati, e ancor di più di quelli puniti. Bandura ha dimostrato però che i soggetti che avevano osservato comportamenti premiati e puniti erano in grado di riprodurre quei comportamenti se veniva loro offerta una ricompensa diretta, indipendentemente dal fatto che il modello fosse stato premiato o punito, cioè i soggetti avevano comunque appreso la risposta, ma la esprimevano solo se erano premiati, cioè se potevano trarre un vantaggio. Ciò non esclude che il rinforzo, in quanto elemento che genera motivazione, influenzi anche direttamente l'apprendimento. Un modello che venga ricompensato per una certa azione spingerà il soggetto a voler compiere quell'azione per avere un'analoga ricompensa. Anche il valore attribuito al modello può essere un importante elemento di rinforzo che modula l'attenzione e la codifica del comportamento osservato. I modelli a cui è riconosciuto uno status elevato, che sono più autorevoli, sono più imitati, così come più imitati sono i modelli che hanno un maggior grado di somiglianza con il soggetto. L'ammirazione per il modello, così come il desiderio di identificazione, può fungere da rinforzo.

Nella prospettiva dell'apprendimento sociale un efficace programma di apprendimento umano dal punto di vista pratico dovrebbe basarsi:

a)      sull'osservazione di un certo comportamento (meglio se seguito da un premio);

b)      sul rinforzo diretto fornito al soggetto, dopo che ha emesso la risposta appresa per imitazione.

La differenza fondamentale tra questa teoria e quelle del condizionamento operante risiede proprio nel riconoscimento del ruolo centrale dei processi mentali nella pianificazione delle azioni. In questa teoria vengono analizzati i sistemi di rappresentazione e i processi simbolici che servono a spiegare l'apprendimento, così come giocano un ruolo centrale la valutazione del potere dei rinforzi, la valutazione delle azioni alternative, ecc. I principi sono stati estesi anche a comportamenti sociali come la competitività, l'aggressività, l'adozione di ruoli sessuali, ecc. La teoria dell'apprendimento osservativo resta tuttavia un'utile cerniera tra gli studi classici comportamentistici e la più recente psicologia cognitivista. Sottolinea il ruolo che certi fattori quali la motivazione, la ricompensa, le aspettative giocano, accanto a quelli strettamente cognitivi, nel controllo del comportamento.

L'apprendimento nella teoria della Gestalt

A differenza dei comportamentisti i gestaltisti erano interessati soprattutto alla leggi generali che governano la percezione umana e i processi di soluzione di problemi, mentre l'apprendimento era considerato un fenomeno secondario, derivato dai primi due e non di particolare interesse. L'apprendimento infatti era determinato dal modo in cui i processi di soluzione  di problemi conducevano ad analizzare la situazione presente (secondo le leggi dell'organizzazione percettiva) e le tracce dell'esperienza passata; il risultato di tale lavoro cognitivo poteva condurre alla formazione di comportamenti nuovi, ma si trattava cmnq di comportamenti appresi attraverso la soluzione individuale di un problema. I gestaltisti attaccarono soprattutto Thorndike e l'apprendimento per prove ed errori, sostenevano che la casualità della soluzione al problema da parte degli animali studiati da Thorndike era dovuta alla specifica condizione sperimentale che non consentiva in alcun modo all'animale di esprimere un comportamento intelligente.

Kholer con gli scimpanzé  riuscì a dimostrare che l'apprendimento è frutto di un'elaborazione di dati: di fronte a un problema il soggetto analizza la situazione e l'ambiente e trova la soluzione all'improvviso, come appunto un'intuizione (insight) utilizzando procedure intelligenti per raggiungere uno scopo.

L'interpretazione che diede era che i tentativi erano intelligenti nella misura in cui l'animale, messo di fronte ad un problema esaminava il luogo e le condizioni dell'ambiente, selezionava gli elementi pertinenti alla soluzione organizzandoli in una nuova totalità dotata di significato e quindi verificava la soluzione. Queste ristrutturazione cognitiva dei dati a disposizione avveniva improvvisamente, come un'intuizione (per questo insight). Come se improvvisamente gli scimpanzé vedessero la soluzione e il valore strumentale del bastone come prolungamento del braccio per arrivare alla banana (pag 182). Una volta trovata la soluzione gli animali posti in una condizione analoga ripetevano con successo l'azione utile: questa ripetizione del comportamento dopo l'insight fu definita apprendimento per insight.

Per i gestaltisti l'apprendimento è guidato e determinato dalle leggi della percezione: le tracce che abbiamo immagazzinato in memoria riproducono l'organizzazione degli eventi percepiti, la possibilità di risolvere o meno un problema dipende da come il problema viene percepito.

La memoria

La memoria si esprime come capacità di ricordare gli eventi passati, le immagini, le idee, le informazioni e le abilità precedentemente apprese. Non è un sistema unitario, ma è costituita piuttosto da un insieme di componenti e da un insieme di processi che sono responsabili sia dell'elaborazione, sia del suo immagazzinamento ed eventuale consolidamento nel tempo, sia infine del suo recupero attraverso varie forme di rievocazione. Il tempo di permanenza di un'informazione nella memoria può variare da frazioni di secondo ad anni, alla vita intera, così come la capienza che può variare dalle poche unità della memoria di lavoro a tutta la conoscenza generale del mondo, che è contenuta nella memoria semantica.

Tradizionalmente si pensava che l'apprendimento riguardasse la fase di acquisizione e delle conoscenze che precede  la fase del loro immagazzinamento e quindi della loro memorizzazione. Ma un comportamento appreso non può che esprimersi dopo che è stato acquisito e conservato nella memoria, per cui la distinzione sembra abbastanza artificiosa. Il comportamentismo escludeva dalla propria indagine qualsiasi processo mentale e non prendeva in considerazione cosa succede nella mente alle informazioni una volta che siano state percepite, quali siano i processi elaborativi a cui sono sottoposte, e perciò non considerava la memoria come oggetto di studio. L'approccio cognitivista, che come è noto si interessa del modo in cui funziona la mente, non distingue tra processi di apprendimento e memoria.

Si tratta infatti di capire quali tipi di elaborazioni subiscono le informazioni che arrivano al sistema cognitivo, in che modo vengono conservate e recuperate producendo una modificazione del comportamento.

Se lo studio della memoria è focalizzato sulla comprensione dei meccanismi di elaborazione, di mantenimento e di ricordo dell'informazione, non c'è ragione di mantenere la distinzione con l'apprendimento, al contrario è il caso di attribuire alla memoria anche quella serie di operazioni cognitive che permettono e facilitano l'apprendimento.

I meccanismi di elaborazione e codifica

Il funzionamento della memoria fa riferimento a un insieme di processi in cui sono coinvolte anche altre funzioni cognitive come l'attenzione, la percezione, il ragionamento, nonché tutte le abilità che hanno a che fare con l'intelligenza generale e le emozioni.

Le informazioni che devono essere apprese entrano nel sistema cognitivo attraverso meccanismi di codifica che possono essere attivati intenzionalmente, cioè secondo delle strategie pianificate, oppure in modo automatico, tramite meccanismi cognitivi accidentali.

 Nel caso dell'apprendimento cd. incidentale, vale a dire non volontario e quindi non pianificato secondo precise strategie, l'efficacia della codifica dipende da quanto il materiale è stato elaborato. La codifica incidentale, a differenza di quella intenzionale, non è consapevole; lo diventa soltanto nel momento del richiamo dell'informazione; vi è un apprendimento involontario ed un recupero volontario.

Nella memoria immediata o a breve termine l'informazione viene codificata temporaneamente. Il processo di elaborazione consiste in una forma di ripasso o reiterazione (rehearsal) del materiale nel formato spazio-visuale o quello fonologico ( i suoni delle parole di una lingua) a seconda che si tratti di immagini o di parole. Una ripetizione meccanica (che ha lo scopo di mantenere l'informazione disponibile nella memoria, quando è necessaria per svolgere altri compiti), che serve soltanto a conservare l'informazione per breve tempo e che viene detta anche ripasso di mantenimento e non comporta l'immagazzinamento nella memoria a lungo termine. Al ripasso di mantenimento viene contrapposto il ripasso elaborativo che ha invece lo scopo di mantenere disponibili le informazioni per il tempo necessario perché vengano interpretate e integrate con altre conoscenze già possedute. Ad es. in un compito di completamento di frasi viene chiesto ai soggetti di decidere se una parola sia adatta o meno ad essere inserita in una frase, per cui i soggetti dovranno elaborare il significato delle parole e prendere una decisione, un tipo di elaborazione che ha come esito l'immagazzinamento nella memoria a lungo termine e di conseguenza  la revocabilità delle informazioni anche dopo un lungo periodo. Ciò che sembra cruciale per l'efficacia della codifica e la conseguente possibilità di ricordo è la cd. profondità di elaborazione, che è definita come la misura di quanto il fuoco dell'elaborazione si sposta dagli aspetti percettivi superficiali dell'informazione a quelli concettuali.  

Quanto più il processo di codifica si focalizza su aspetti concettuali, tanto più sarà efficace la codifica e quindi migliore il ricordo.

Perché l'elaborazione del significato (semantica) è la più efficace? Probabilmente perché comporta la rappresentazione di un numero considerevole di particolari relativi all'informazione che possono costituire altrettanti legami con altre conoscenze già presenti in memoria. Maggiore è la ricchezza dei particolari dell'informazione che vengono elaborati, maggiore è l'organizzazione con le conoscenze pregresse e maggiore sarà la possibilità di rievocazione.

I processi di codifica possono utilizzare diversi codici che vanno intesi come formati in cui la mente immagazzina l'informazione, ad es. un codice visivo, acustico, verbale, tattile, semantico, e codici diversi possono essere utilizzati da sistemo diversi.

Nel caso della memoria a lungo termine interessante è l'ipotesi proposta da Paivio 1991 cd del "doppio codice" secondo la quale ci sarebbero due meccanismi indipendenti e interconnessi di codifica, verbale e immaginativo. Indipendenti perché ogni meccanismo può lavorare autonomamente, e interconnessi perché un'informazione può essere trasferita da una codifica all'altra. Per cui avviene un processo additivo secondo cui se si effettua una codifica immaginativa delle parole, o la codifica verbale di figure, viene facilitato il ricordo. Se devo ricordare delle aprole sarò aiutato dall'averle anche immaginate.

In definitiva l'informazione che è stata sottoposta a diversi meccanismi di codifica, ed è quindi rappresentata in memoria in più codici, è meglio ricordata di quella codificata in una sola modalità.

L'organizzazione delle tracce mnestiche

Altra strategia per migliorare significativamente il rendimento della memoria è l'organizzazione delle singole informazioni .

L'idea che l'organizzazione sia importante per l'apprendimento è sostenuta da tre tipi di evidenze che si sono ricavate da molti esperimenti:

a)      il materiale organizzato è più facile da apprendere di quello disorganizzato;

b)      le persone cui viene presentato del materiale disorganizzato tendono spontaneamente ad organizzarlo;

c)      l'uso di strategie per organizzare il materiale aumenta l'apprendimento

L'organizzazione, dunque, può essere suggerita dalla natura delle relazioni che presentano le informazioni da apprendere, cioè dall'organizzazione già presente nel materiale da elaborare, oppure può essere imposta dal soggetto, tramite l'utilizzo di strategie. Ad es. se penso al treno, l'aereo, la nave, l'automobile, ho la possibilità di ricordare meglio le parole se le suddivido nella categoria dei trasporti; la strategia della categorizzazione comporta che si utilizzi un processo guidato  dai concetti che si possiedono in memoria e s'imponga al materiale da ricordare un'organizzazione che corrisponde a quella dei concetti del soggetto. Gli individui posseggono differenti tipi di conoscenze che possono usare per organizzare l'informazione, non solo le categorie, ma anche quelle relative al tempo, allo spazio, alle attività, e così via. Questi schemi di conoscenza possono suggerire organizzazioni tematiche.

L'apprendimento e il ricordo migliorano quando vi sono conoscenze pregresse che permettono di organizzare la nuova conoscenza. Per questo gli esperti in determinati settori sono avvantaggiati rispetto ai non esperti nel ricordo di cose molto specifiche.

Altre strategie di organizzazione vengono definite mnemotecniche, che seguono regole ben precise che vanno seguite in maniera sistematica e che hanno il vantaggio di ridurre sensibilmente la quantità d'informazioni che deve essere ricordata. La loro utilità è sempre quella di fornire uno schema organizzativo a materiale non strutturato; è il caso delle rime, degli acronimi (es. Fiat per Fabbrica italiana automobili Torino), sigla dai nomi, oppure il contrario, gli acrostici che richiedono un'operazione inversa in cui al nome da ricordare inseriamo una sigla.

Esistono anche strategie che fanno uso di immagini, l'uso delle immagini interattive è uno dei più semplici nel caso si debbano ricordare liste brevi, non correlate, tipo la lista della spesa che se hanno un tocco di bizzarria nell'immagine costruita la rendono ancora di più facile evocazione.

La più nota delle tecniche mnemoniche per immagini è il metodo dei loci, tecnica antica che consiste nell'individuare un numero di elementi lungo un percorso abituale crearsi un'immagine mentale di quegli elementi e associare a ciascuna delle immagini quella dell'elemento da ricordare. La modalità d'associazione delle due immagini deve essere interattiva, cioè le due immagini devono essere in relazione tra loro, magari con una raffigurazione bizzarra.

Quando invece le informazioni da apprendere possiedono già delle relazioni tra loro, allora il compito consiste nell'individuare il tipo di legame che c'è tra i vari elementi e utilizzare questo per la codifica.

In definitiva cmq tanto migliore è l'organizzazione tanto più semplice sarà il compito di apprendimento.

Il contesto

Il contesto di apprendimento viene codificato insieme alle informazioni specifiche da apprendere. È bene specificare che il termine contesto va inteso in modo molto ampio e si riferisce a molti e diversi tipi di situazioni concomitanti all'apprendimento: in primo luogo all'ambiente, ma anche agli elem,enti associati allo stimolo che vengono percepiti insieme a questo, nonché allo stato emozionale e alle conoscenze attivate nella specifica situazione di apprendimento.

   Il contesto ambientale quando è molto caratterizzante  e quando le differenze ambientali sono notevoli crea un problema di trasferibilità nell'apprendimento (es. palombari che non ricordano pag 193).

Anche gli elementi associati allo stimolo che non sono di natura ambientale possono far parte del contesto, ad es. il taglio di capelli, la pettinatura, la barba, vengono appresi in modo unitario con i tratti della persona cui si riferiscono; anche lo stato emotivo e l'umore in cui ci si trova al momento dell'apprendimento rientrano nella definizione generale del contesto emozionale. Se sono allegro tenderò a percepire e ad elaborare soprattutto gli aspetti piacevoli della situazione, se sono triste o arrabbiato il viceversa. Questo fatto viene denominato "congruenza dell'umore", in cui la componente emozionale gioca un fattore importante.

Altro tipo di contesto è quello cognitivo, vale a dire tutte quelle conoscenze, associazioni di idee, riferimenti concettuali che vengono attivati nel momento dell'apprendimento.

L'idea che le informazioni vengano codificate insieme a elementi appartenenti ai vari tipi di contesto presenti al momento dell'apprendimento è contenuto nel principio di specificità di codifica, formulato da Tulving Thomson, per spiegare alcuni fenomeni relativi alla rievocazione, in particolare la facilitazione che si ottiene nel ricordare qualcosa se vengono richiamati alla mente elementi appartenenti al contesto.

Il fatto che si codifichi anche il contesto insieme all'informazione rilevante non è un fenomeno del tipo "tutto o niente" ma dipende dalla misura e dalla forza con cui l'ambiente o i dati contestuali sono connessi agli elementi da ricordare. Più il contesto è legato all'informazione, connotandone la percezione, più sarà fortemente associato  ad essa nella codifica. Barkley distingue tra un contesto interattivo e un contesto indipendente, il primo fa riferimento a un contesto che modula e modifica il modo in cui uno stimolo viene percepito e codificato, il secondo  si riferisce a informazioni che vengono immagazzinate insieme allo stimolo, ma non lo modificano.

Elaborazione intensiva o distribuita nel tempo?

Nei processi di apprendimento bisogna anche tener conto di fattori quantitativi; sembra evidente che più tempo dedico allo studio di un certo capitolo e meglio lo apprenderò, tuttavia l'apprendimento dipende anche dall'attenzione che riesco a mantenere sull'argomento e da quanto la stanchezza incida sull'efficienza delle mie operazioni cognitive. Più interessante relativamente all'apprendimento è invece quello che riguarda gli effetti della distribuzione nel tempo di questa attività. È stato dimostrato che in generale è meglio distribuire nel tempo le prove di apprendimento, fenomeno conosciuto come distribuzione della pratica, studiato la prima volta da Ebbinghaus (1895) secondo cui l'apprendimento richiedeva meno ore se la pratica era distribuita, piuttosto che intensiva, e anche il ricordo a distanza di tempo era superiore se l'apprendimento veniva distribuito rispetto a quando era intensivo. Non c'è una spiegazione chiara del fenomeno, ma la più attendibile sembra che le risorse attentive non siano sufficienti per affrontare compiti di apprendimento prolungati nel tempo. L'apprendimento richiede delle risorse del cervello, in particolare la disponibilità di certi mediatori che si esauriscono e richiedono del tempo per rigenerarsi. Per cui l'apprendimento intensivo potrebbe non disporre di tutte le risorse neurochimiche di cui necessita il cervello per una efficiente codifica.

L'immagazzinamento dell'informazione

A conclusione del processo di elaborazione l'informazione viene archiviata sotto forma di rappresentazione mnestica[8] o traccia mnestica. Il termine rappresentazione mnestica o traccia mnestica è riferito ad un costrutto ipotetico, che serve a spiegare le nostre risposte a certe richieste ambientali, a partire dalle nostre conoscenze o competenze acquisite. In quale forma il sistema cognitivo conserva l'informazione elaborata? La prima distinzione è tra informazioni che vengono archiviate  temporaneamente nella memoria a breve termine, che hanno un formato specifico a seconda della modalità sensoriale con cui sono state percepite, e informazioni che si mantengono a lungo nella nostra mente e che formano la nostra conoscenza.

La rappresentazione del significato delle conoscenze

Quello che ci interessa a proposito della memoria è il problema della "conservazione" della conoscenza in funzione della sua accessibilità.

I concetti rappresentano la nostra conoscenza di categorie di  oggetti o eventi e sono formati da una combinazione di caratteristiche, ad es. un uccello ha le piume, vola, ha il becco, deposita le uova e così via. Le differenze tra i modelli teorici riguardano proprio i criteri di individuazione delle caratteristiche che formano i concetti.

Per poter spiegare la comprensione del linguaggio naturale misero a punto un programma per calcolatori contenente informazioni a proposito dei concetti e delle loro relazioni, che rappresentava un vero e proprio modello di memoria semantica. Secondo questo modello i concetti sono organizzati in una struttura gerarchica a rete, che rispetta l'organizzazione logica di inclusione delle categorie: esiste la categoria animali, connessa alla categoria subordinata mammiferi, connessa alla cat. Subordinata cani. Possiamo immaginare l'organizzazione delle conoscenze come una rete da pescatore, che ha dei nodi, ciascuno dei quali corrisponde al significato di un termine, cioè a un concetto, mentre le connessioni tra i nodi rappresentano i legami tra le varie informazioni. Questo modello a rete è basato su criteri logici e non psicologici e la "distanza" tra concetti può variare e non rispettare l'ordine logico-gerarchico.

Un modello successivo di Collins e Loftus (1975) modificava alcuni presupposti della rete semantica, in primo luogo non ne assumeva più la struttura gerarchica e inoltre riprendeva il concetto della distanza associativa tra i nodi, che può differire sia tra le categorie sia tra gli esemplari di una categoria e la categoria medesima. La rete può essere più o meno fitta a seconda del numero di legami che esistono tra le varie informazioni; un effetto fondamentale che si verifica lungo la rete è quello della propagazione dell'attivazione: vale a dire, una volta attivato un concetto (che corrisponde ad un nodo) si attivano le conoscenze ad esso connesse (i nodi vicini) producendo una diffusione dell'attivazione che si distribuisce a macchia d'olio, privilegiando le informazioni più vicine e attenuandosi man mano che le connessioni sono lontane. Questo effetto di facilitazione è noto come priming semantico; e viene spiegato col fatto che una parola richiama automaticamente i concetti ad essa collegati lungo le connessioni della rete per il fenomeno della propagazione dell'attivazione. Se un'altra parola fa parte di questi concetti, viene in qualche modo pre-attivata e alla sua comparsa si verificherà un fenomeno di facilitazione del riconoscimento. Pag 199

La propagazione dell'attivazione e il priming semantico sono concetti importanti che ci aiutano a comprendere i meccanismi del ricordo. Una buona memoria semantica richiede due prerequisiti: innanzitutto che esistano molte conoscenze (nodi) e in secondo luogo che queste possiedano una buona organizzazione (trama della rete).

Le proposizioni concetto mutuato dalla logica e dalla linguistica sono considerate le unità minime di rappresentazioni delle conoscenze "che possiedono uno statuto di asserzione autonoma e sono le più piccole unità in merito alle quali abbia un senso formulare il giudizio di vero o falso". Ogni proposizione è composta da argomenti (che corrispondono ai nodi) e da relazioni ( che corrispondono ai verbi, agli aggettivi, agli altri termini che esprimono relazioni). Le conoscenze sono rappresentate come reti di proposizioni i cui elementi sono interconnessi. Il principio di propagazione dell'attivazione descritto per le reti semantiche è stato incorporato anche all'interno dei modelli preposizionali.

L'assunzione di questi modelli è che la ricerca delle informazioni lungo tutta la rete di connessioni richieda tempo e che il tempo impiegato dalle persone nel recupero ci dia a sua volta informazioni a proposito della struttura della rete e cioè la rappresentazione della conoscenza. Se devo ricordare qualcosa, la mia ricerca in memoria prende avvio da un suggerimento esterno o da un nodo attivato e questa attivazione si propaga lungo i percorsi della rete permettendo un ricordo più rapido dei contenuti fortemente associati. La misura del tempo impiegato nel ricordo è un indicatore della distanza associativa tra gli elementi da ricordare.

Gli schemi

Un altro tipo di modelli fa riferimento al mantenimento delle conoscenze in strutture, che si estendono oltre il livello di singoli concetti o asserzioni e che vengono definiti schemi.

Gli schemi comprendono la conoscenza e l'esperienza che abbiamo del mondo, possiamo pensarli come dei pacchetti di informazione sul mondo; un individuo ha lo schema di un cane, di una bicicletta, di come ci si comporta in un ristorante, ecc. Perché uno schema si formi nella nostra mente è necessaria la ripetizione di esperienze simili, dalle quali si possano estrarre caratteristiche comuni. Nell'ambito della psicologia cognitiva anche i modelli della rappresentazione della conoscenza sotto forma di schemi sono stati più di uno, e hanno adottato terminologie diverse come frame, script o schema. Comprendono un nucleo fisso (cd. valore di default) che permane stabilmente e componenti variabili, fornite dalle esperienze che continuamente li arricchiscono e/o modificano. Gli schemi possono essere inseriti gli uni negli altri gerarchicamente: lo schema del volto contiene anche lo schema delle pupille, delle labbra, e cos' via; e rappresentano la conoscenza a qualsiasi livello di astrazione, cioè si applicano ad oggetti concreti o astratti; rappresentano la nostra conoscenza memorizzata e funzionano come sistemi di accettazione delle informazioni; cioè le informazioni che provengono dall'ambiente hanno significato per noi solo e in quanto si adattano a conoscenze che già possediamo (schemi) e si mettono in relazione con esse. Anche la conoscenza nuova parte sempre da un aggancio con qualche mia conoscenza pregressa o vi si lega in qualche modo.

Altra funzione importante dello schema consiste nel fatto che guida la percezione e il riconoscimento perché mi permette di selezionare le informazioni che è utile ricavare dall'ambiente, in funzione dei miei scopi.

La nozione di schema, inteso come insieme organizzato di conoscenze, mette in evidenza sia la natura dinamica della conoscenza che procede attraverso l'uso, la trasformazione e la riorganizzazione, sia la continuità di ciò che è stato acquisito e ciò che è nuovo, trta ciò che si ricorda e ciò che si apprende.

I modelli a rete si adattano benissimo all'organizzazione della memoria semantica, che racchiude la conoscenza generale del mondo (linguaggio, concetti, algoritmi, e così via), e si adattano bene per spiegare la memoria di eventi o la memoria di azioni e procedure.

Il ricordo

Una volta che un'informazione è stata immagazzinata è, in linea di principio, disponibile alla rievocazione, con uno sforzo volontario o involontario può ritornare alla coscienza. Questo non sempre avviene può accadere che nonostante la nostra consapevolezza a conoscere un fatto, una persona non sempre riusciamo a ricordarli in una certa occasione. In questi casi la traccia mnemestica che è disponibile non è accessibile in quel momento, vi è infatti differenza tra disponibilità e accessibilità della traccia. Un'informazione è disponibile quando è stata codificata ed immagazzinata, mentre è accessibile quando si trova nelle condizioni di attivazione sufficiente a permetterne la rievocazione.

Dobbiamo distinguere per l'espressione del ricordo tra memoria esplicita, che si riferisce a una manifestazione del ricordo di informazioni precedentemente apprese, che è intenzionale e consapevole, come quella che avviene nei normali compiti di riconoscimento; e memoria implicita che si riferisce a delle modificazioni nel comportamento o nella esecuzione di compiti che sono prodotte da esperienze precedenti, senza però che vi sia alcuno sforzo cosciente di recupero di quelle esperienze da parte del soggetto. La rievocazione esplicita avviene sotto il controllo della coscienza, mentre quella implicita dipende da meccanismi non consapevoli.

Le chiavi di accesso al ricordo

Nel momento in cui ci serve una certa informazione che è presente nella nostra mente, utilizziamo sempre  una o più chiavi di accesso a quel ricordo. I processi di recupero prendono sempre avvio da un suggerimento o indizio (clue), che forniscono la chiave d'accesso all'informazione cercata. L'informazione medesima non è accessibile se l'indizio da cui si parte è inappropriato. Abbiamo bisogno della specificità della codifica, per cui un'informazione viene acquisita e codificata insieme ad aspetti del contesto ambientale, cognitivo ed emozionale in cui l'apprendimento avviene. Un indizio che abbia la possibilità di fare da innesco al ricordo, cioè che faccia da punto di partenza attivo alla ricerca nella memoria, deve condividere alcuni aspetti con l'informazione da ricordare oppure con uno dei contesti in cui è stata appresa. Il ricordo è più efficace nella misura in cui il sistema cognitivo ristabilisce la situazione originale d'apprendimento.

Per ricordarmi di una persona farò riferimento:

a)               agli elementi o caratteristiche connesse al contenuto che devo ricordare (notizie sulla persona, le caratteristiche fisiche, un particolare dell'abbigliamento, ecc.);

b)              al contesto emotivo, ad es. l'ambiente in cui ho conosciuto la persona);  

c)               al contesto cognitivo, cioè ad una riflessione che ho fatto in relazione a quella persona al momento di conoscerla.

Evidente che come punto di partenza per la ricerca in memoria utilizzerò uno solo di questi indici di richiamo, qualora fosse inefficace ne utilizzerò un altro e così via.

L'efficacia dell'indice di richiamo dipende dal grado in cui questo suggerimento riesce a ricondurre il soggetto alla situazione di apprendimento; tanto più gli indizi di richiamo si sovrappongono all'informazione originaria o al contesto di apprendimento tanto più facilmente li recupereremo.

Le condotte di ricordo: ricordo libero, ricordo guidato, riconoscimento

Sono differenti le condotte di ricordo intenzionale che si distinguono in base al grado di sovrapposizione tra indici di richiamo e informazione, sono il ricordo libero, il ricordo guidato (o suggerito) e il riconoscimento.

Nel ricordo libero è il contesto della situazione di apprendimento che viene fornito come chiave d'accesso al ricordo.

Nel ricordo suggerito, oltre alle informazioni di contesto situazionale, vengono inserite anche informazioni concettuali che rimandano al contesto cognitivo del soggetto.

Nel riconoscimento invece l'indice di richiamo coincide con l'informazione da richiamare alla mente; oltre a riferimenti contestuali, a riferimenti concettuali impliciti, vine fornita anche l'informazione percettiva. Es. hai visto la parola margherita nella lista delle parole? Il soggetto deve solo rispondere si o no

La sovrapposizione tra indici di richiamo e informazione da  ricordare aumenta passando dal ricordo libero a quello suggerito, al riconoscimento, ed è proprio in funzione di tale sovrapposizione che ci attendiamo che aumenti la quantità di ricordo che i soggetti riescono ad ottenere passando da una condotta all'altra.

Nel ricordo libero il lavoro cognitivo del recupero prende avvio, come abbiamo visto, da semplici indicazioni di contesto.

Nel caso del ricordo suggerito gli indici di richiamo sono più di uno: quello riferito al contesto e uno o più suggerimenti relativi ad altri aspetti dell'informazione. In questo modo le vie di accesso all'informazione-bersaglio aumentano in numero e specificità e ne guidano la ricerca facilitandone il recupero.

Nel caso del riconoscimento, l'indizio esterno è completamente sovrapposto all'informazione, il processo cognitivo si limita a compiere un confronto tra indice di richiamo e traccia e per questa ragione sembra che la condotta faciliti maggiormente il ricordo (es. nella testimonianza oculare è più semplice riconoscere una persona che farne l'identikit). Per il riconoscimento le cose non sono lineari perché può essere reso difficile o impossibile se sono troppi numerosi gli stimoli (distrattori) tra cui riconoscere ciò che ci interessa, o se sono troppo simili tra loro. Per questo la discriminabilità della traccia è una caratteristica che facilita la ricerca in memoria durante il recupero; tanto più un'informazione si distingue dalle altre per qualche aspetto, tanto più è facilmente attivabile. 

L'organizzazione del ricordo

Altro fattore che interviene nel determinare la facilità o meno del ricordo è l'organizzazione con la quale il materiale è stato codificato e immagazzinato. Se in fase di apprendimento l'informazione non viene organizzata, si è costretti a recuperare ogni traccia singolarmente, mentre se esiste già un collegamento tra le tracce è sufficiente attivarne una, che funziona come indice di richiamo, perché si attivino quelle connesse, secondo il principio si propagazione  dell'attivazione, per questa ragione i materiali si organizzano.

Fedeltà e ricostruttività della memoria

La corrispondenza tra ricordo e informazione originariamente appresa varia a seconda del tipo di conoscenze che dobbiamo richiamare alla mente. Ad es. le nostre abilità nel compiere certe azioni come andare in bicicletta sono conservate in un particolare sistema di memoria, considerato procedurale, dove la maggior parte delle capacità di svolgere sequenze di azioni, anche complesse, una volta apprese si automatizzano con l'esperienza e in quanto abilità automatiche non richiedono uno sforzo attentivo per essere recuperate, vi è quindi al momento dell'attivazione mnemestica una corrispondenza pressoché totale con le abilità apprese.

Il problema si pone invece a proposito della memoria di fatti e di eventi: nel ricordare un evento recente di solito non ci sono molte difficoltà, ma se l'evento è più lontano nel tempo il ricordo è più povero e come risultato esso dovrà in parte essere ricostruito, facendo ricorso alla nostra conoscenza generale. La relazione tra conoscenza generale (organizzata in forma di schemi) e il ricordo di eventi specifici è molto stretta e avviene nella doppia direzione: l'esperienza di un evento arricchisce e modifica lo schema generale di quel tipo di evento e lo schema permette la ricostruzione di un evento specifico, mediante interferenze plausibili. Il risultato è che la medesima esperienze verrà ricostruita nel tempo in modo parzialmente diverso, poiché il ricordo dell'evento singolo si impoverisce ed aumentano le interferenze che facciamo traendole dalla nostra conoscenza semantica; e seguito di ogni ricostruzione poi l'esperienza viene ricodificata insieme ai dati di contesto nuovi, e questo può produrre ulteriori modificazioni. Inoltre poiché non possiamo  ricordare tutti i dettagli di un evento ne integriamo la rievocazione facendo appunto delle interferenze plausibili, che pescano i loro contenuti negli schemi in cui è organizzata la nostra conoscenza. Considerazioni valide oltre che per la ricostruzione di storie ed eventi, anche per le testimonianze di avvenimenti dei quali siamo stati spettatori. Va aggiunto che nella testimonianza oculare fondamentale è lo stato emotivo, una forte emozione può danneggiare sia la codifica sia il ricordo dei fatti.

La dimenticanza

Accade alle volte di dimenticare informazioni molto utili, eventi importanti, notizie e nomi che dovremo ricordare. Si potrebbe pensare che sia un fenomeno dovuto alla quantità di tempo che trascorre tra apprendimento e tentativo di rievocazione. Ma dall'esperienza abbiamo visto che il trascorrere del tempo da solo non costituisce un indice in grado di spiegare la possibilità o meno di ricordare un fatto.

La curva dell'oblio

Un famoso psicologo tedesco, Ebbinghaus, fu il primo a dedicare all'oblio degli studi sperimentali sistematici usando come soggetto se stesso.

Il tempo per apprendere veniva misurato e costituiva il tempo di apprendimento, che è risultato avere un andamento lineare: più numerose sono le ripetizioni, migliore è l'apprendimento. Durante intervalli regolari che andavano da venti minuti a trenta giorni, Ebbinghaus cercava di ricordare delle serie di tredici sillabe irregolari, poiché spesso non vi riusciva misurava il tempo di riapprendimento, ossia il risparmio che otteneva nel ricordare la serie di sillabe dopo l'intervallo di tempo e la quantità di dimenticanza  cioè le serie che aveva dimenticato. Riuscì a trarre delle relazioni tra l'apprendimento e l'oblio, mentre il primo presentava un andamento lineare, l'oblio aveva un curva che rassomigliava a una funzione logaritmica, cioè a principio vi è una dimenticanza rapida e costante poi da un certo momento in avanti scende lentamente fino a stabilizzarsi nello scorrere del tempo. (pag. 212).

Altri psicologi hanno ripetuto l'esperimento di Ebbinghaus adoperando anche materiale dotato di significato e hanno verificato che in condizioni normali l'oblio effettivamente si manifesta più rapidamente all'inizio e sempre più lentamente col passare del tempo. Risultati concordi sull'andamento della curva dunque, anche se il tempo dipende dal tipo di contenuto appreso, per cui la curva di Ebbinghaus è stata come modello per rappresentare il fenomeno generale della dimenticanza.

Non tutte le conoscenze però subiscono lo stesso destino nel ricordo; le conoscenze procedurali, cioè le abilità somatizzate, non sembrano suscettibili della stessa dimenticanza delle conoscenze semantiche (se ho imparato ad andare in bicicletta non lo dimentico). Le abilità motorie complesse sembrano resistenti all'oblio.

Da un lungo studio di Lington sembra inoltre che le dimenticanze di episodi della vita quotidiana hanno un andamento lineare piuttosto che logaritmico, con una perdita di informazioni del 5% circa ogni anno.

Le cause dell'oblio

Il tempo, come abbiano già ricordato, non è la causa della nostra dimenticanza, è piuttosto un contenitore che permette ad altri fattori di produrre i loro effetti sul ricordo.

L'oblio è un processo non direttamente osservabile, pertanto sono state fatte nel corso del tempo diverse ipotesi sui fattori che lo potevano determinare.

Ipotesi di decadimento. La prima in ordine storico, secondo la quale le tracce mnestiche depositate in memoria se non vengono riattivate col tempo tendono a dissolversi, a svanire. Tale concezione è stata di fatto abbandonata perché attribuirebbe al tempo un ruolo che non sembra avere. Inoltre non è possibile fare uno studio controllato sugli effetti del tempo per sé, libero da eventi interferenti poiché non è possibile avere un tempo vuoto. Anche il sonno seppure povero e cmnq ricco di attività mentale e non possiamo considerarlo come un esempio di tempo vuoto.

Ipotesi di interferenza. Una seconda ipotesi che certamente non spiega tutto l'oblio, ma alcuni meccanismi, è quella dell'interferenza, che si basa sul concetto che attività ed esperienze nuove interferiscono con la ritenzione del materiale già acquisito.

In un esperimento di Jenkins e Dallenbach (1924), ad un gruppo di studenti sono state fatte imparare una serie di sillabe senza senso, poi divisi in gruppi, alcuni dei quali dormiva, gli altri continuavano nelle normali attività, è stato visto che i soggetti che dormivano avevano una capacità di ritenzione di quanto imparato maggiore dei gruppi che rimanevano attivi.

 Anche le normali attività svolte da un individuo interferiscono con un apprendimento precedente, aumentando la dimenticanza. L'ipotesi dell'interferenza è stata ampiamente dimostrata anche da studi successivi; quella cui noi facciamo riferimento è cmnq una interferenza retroattiva, perché produce i suoi effetti sulla ritenzione passata.

La quantità d'interferenza aumenta in proporzione al numero di attività svolte nell'intervallo tra apprendimento e richiamo , cioè in funzione del numero delle attività cd. interpolate. Più attività svolgiamo dopo l'apprendimento più è probabile che dimentichiamo; questo fenomeno è uno dei fattori principali nella dinamica dell'oblio.

In generale si pensa che, nel caso di interferenza, la traccia originaria venga oscurata da quella successiva, ma non completamente distrutta.

Un secondo tipo di interferenza è definita proattiva, in quanto i suoi effetti vengono prodotti sulla ritenzione futura, cioè l'apprendimento passato influenza il ricordo della traccia nuova. Es. se ho appena cambiato numero di telefono il ricordo di quello vecchio per un po' continua a rendermi difficoltosa la memorizzazione di quello nuovo. Da studi effettuati sembra che la probabilità di dimenticare qualcosa a causa di un'altra informazione precedente dipenda anche dalla relazione che c'è tra le informazioni ed è più forte quando le stesse sono in stretta connessione.

Ipotesi dell'impossibilità di accesso al ricordo. Altra ipotesi interpretativa, suggerita da Tulving secondo la quale la dimenticanza potrebbe essere dovuta alla mancanza di un appropriato suggerimento o chiave di accesso all'informazione. Non si tratterebbe quindi di distruzione o di distorsione della traccia originaria, ma di temporanea inaccessibilità. Esperienza comune è che alcune cose che sappiamo non riescono a tornarci in mente e poi improvvisamente vengono ricordate, così come molte cose non riescono ad essere rievocate in una prova di ricordo libero, ma possono essere recuperate in una prova di ricordo suggerito o in una prova di riconoscimento.

Fattori emozionali. Le emozioni intense non favoriscono né l'attenzione, né l'apprendimento, né il ricordo, e quindi indirettamente possono essere causa di una temporanea dimenticanza. Tutte le emozioni forti producono, in associazione ad un'eccitazione fisiologica (arousal), uno stato di alterazione tale che, come nel caso studiato dell'ansia, interferisce con le prestazioni cognitive. Per avere un rendimento cognitivo efficiente occorrerebbe avere un livello medio di attivazione emotiva. A parità di studio gli studenti che hanno un livello elevato di ansia rendono meno agli esami di quelli più tranquilli, l'attività di ricerca attiva in memoria per il recupero delle informazioni è disturbata dallo stato emotivo, il risultato può essere il fallimento del ricordo. L'emozione negativa prodotta da tarumi o sofferenze acute può produrre una dimenticanza, meccanismo che Freud definisce rimozione, operazione del tutto inconscia per cui un soggetto respinge e mantiene fuori dalla coscienza rappresentazioni, pensieri, immagini, eventi passati che rischierebbero di provocare un'emozione negativa  di dispiacere. Secondo la nozione di rimozione non ci sarebbero cancellazioni delle tracce mnestiche ma queste si troverebbero in una condizione di non accessibilità (più o meno permanente) al recupero cosciente.

Cause organiche. Alcune forme di oblio possono avere una base organica; esse possono essere originate da danni cerebrali provocati da trauma cranici, interventi chirurgici al cervello o da malattie degenerative del sistema nervoso centrale. In questo caso il termine oblio va sostituito col termine più calzante di amnesia, che se riferita ad eventi successivi al danno cerebrale si definisce anterograda, se invece la perdita di memoria si riferisce ad eventi accaduti prima  del danno cerebrale si definisce amnesia retrograda. Vi sono casi in cui si manifestano ambedue i tipi di amnesie. Tali manifestazioni alle volte possono essere transitorie, tranne nei casi in cui è in corso una malattia degenerativa progressiva e irreversibile del sistema nervoso centrale.

L'architettura cognitiva della memoria

La memoria non è una struttura unitaria, ma è costituita da più componenti che hanno caratteristiche funzionali e basi neuroanatomiche differenti.

Il termine sistema fa specificatamente riferimento ad una struttura che si differenzia per meccanismi di funzionamento, per qualità d'informazione che conserva, per tappe di sviluppo nel corso della maturazione e da ultimo per aree cerebrali che coinvolge.

Atkinson e Shiffrin nel  '68 proposero il primo modello multicomponenziale della memoria. Secondo questo modello i sistemi di memoria, descritti per caratteristiche fondamentali e specifiche, erano tre:

1.      la memoria sensoriale o registro sensoriale (RS), che conserva per un breve periodo di tempo l'informazione che proviene dagli organi di senso;

2.      la memoria a breve termine (MBT), dove l'informazione proveniente dal registro sensoriale può essere conservata e trasferita tramite il processo di reiterazione (reharsal) nella memoria a lungo termine;

3.      la memoria a lungo termine (MLT), dove parte dell'informazione proveniente dalla MBT viene ricodificata e mantenuta per un tempo indefinito.

Il registro sensoriale

Ha la funzione di trattenere lo stimolo percettivo nella memoria per un tempo brevissimo dopo la sua scomparsa e cioè dai 250 ms ai 2 s, in relazione alla modalità sensoriale coinvolta. Se si tratta di uno stimolo visivo si parla di memoria iconica, se si tratta di uno stimolo acustico si parla di memoria eroica. Nella memoria sensoriale vengono conservate le caratteristiche fisiche degli stimoli, registrate attraverso organi di senso; non vi è alcuna elaborazione che conduca al riconoscimento del significato degli stimoli medesimi. Le caratteristiche di questa memoria sono note grazie ad alcuni esperimenti come quello di Sperling (1960), che permise di definirne la durata temporale, e quello di von Wright (1970) che permise di capire che l'elaborazione in questo sistema di memoria era molto scarsa e soltanto relativa alle caratteristiche di forma, localizzazione, dimensione spaziale degli stimoli.

Poiché la funzione di questo sistema di memoria è quella di garantire la persistenza dello stimolo sensoriale, affinché tutta l'elaborazione percettiva sia portata a termine anche se lo stimolo scompare, esso sembra più legato alla percezione che non alla memoria, per cui si è più orientati a considerarlo una componente del processo percettivo, piuttosto che della memoria.

La memoria a breve termine come memoria di lavoro

La memoria a breve termine è un sistema di memoria che ha la funzione di trattenere nella mente l'informazione che proviene dal registro sensoriale per il tempo utile a svolgere dei compiti cognitivi per i quali quell'informazione sia necessaria.

Altra funzione importante della memoria a breve termine è quella di consentire un'elaborazione dell'informazione sufficiente a permetterne l'ingresso nella memoria a lungo termine. Processo che avverrebbe tramite il ripasso o reiterazione (rehersal). Il sistema a breve termine è a capacità limitata, dobbiamo a Miller (1956) in un lavoro oramai classico The magical number seven plus or minus two la definizione di capienza della MBT nell'adulto normale. L'ampiezza della MBT in un singolo individuo è chiamata  span di memoria, e viene misurata tramite la ripetizione di una sequenza di stimoli immediatamente dopo la loro presentazione secondo l'ordine di sequenza stesso.

Il tempo in cui l'informazione rimane nella MBT senza essere ripassato è di pochi secondi, solo l'attività di reiterazione ne consente la permanenza, per cui l'uso della MBT deve avvenire subito dopo che le informazioni sono state apprese.

In una lista di parole da ricordare troviamo il cd. effetto seriale che consiste nella facilitazione a ricordare le prime (effetto priorità o primacy effect) e le ultime informazioni ( effetto recenza o recency effect) a scapito di quelle centrali. Tutto questo si spiega nell'effetto decenza col fatto che le informazioni sono disponibili nella MBT, l'effetto priorità invece col fatto che le informazioni sono passate nella MLT (Lungo termine), mentre il materiale centrale subisce un'interferenza proattiva e retroattiva di ciò che lo precede e lo segue.

La Memoria a breve termine descritta è quella che presiede funzioni di controllo sulle altre funzioni cognitive, come il pensiero, la presa di decisioni, le strategie di recupero della MLT; alla luce di molti risultati sperimentali ed evidenze cliniche la memoria a breve termine è stata ridefinita come memoria di lavoro; un sistema a breve termine preposta al mantenimento temporaneo e all'elaborazione dell'informazione durante lo svolgimento di compiti cognitivi. Si tratta di uno spazio di lavoro, un insieme di meccanismi che hanno la funzione di elaborare intenzionalmente stimoli che provengono da fonti percettive e/o fonti di MLT, non diversamente da quanto assumeva il modello della Memoria a Breve Termine. A differenza di quest'ultima però la memoria di lavoro è molto più articolata e prevede che questo sistema sia a sua volta costituito da più componenti: un processore centrale, chiamato esecutivo centrale, che presiede a tutte le operazioni cognitive di tipo intenzionale, e due "magazzini" che contengono temporaneamente l'informazione necessaria per le operazioni medesime e che sono il ciclo fonologico (phonological loop), deputato al mantenimento del materiale verbale, e il taccuino visuo-spaziale (visuo-spatial skeetchpad), deputato al mantenimento dell'informazione visiva e spaziale.

1.      L'esecutivo centrale ha molte funzioni: pianifica le azioni in funzione di uno scopo, svolge un controllo attentivo sul processo esecutivo, azione di monitoraggio sulle azioni automatiche con la possibilità d'interromperle e di farle proseguire in modo controllato, recupera le informazioni necessarie per l'esecuzione del compito che sta svolgendo sia dai magazzini a breve termine (fonologico e visuo-spaziale) sia da quelli a lungo termine;

2.      Il ciclo fonologico, come la MBT, mantiene temporaneamente l'informazione fornita dal linguaggio ascoltato o letto e, attraverso il processo di ripetizione mantiene l'informazione disponibile al sistema. Il codice in cui intrattiene l'informazione è quello fonologico. La capienza dello span fonologico corrisponde alla quantità di materiale che può essere pronunciato in un tempo medio di due secondi.

3.      Il taccuino visuo-spaziale, è deputato a conservare temporaneamente l'informazione visiva e spaziale per mantenerla disponibile per l'esecuzione di compiti immaginativi da parte dell'esecutivo centrale, ad esempio nella tecnica dei loci (associare oggetti a fatti da ricordare) per ricordare informazioni sulla base di immagini mentali. Anche l'informazione visiva e spaziale a breve termine è sensibile a interferenza da parte di materiale simile, perciò il ricordo immediato di una  immagine può essere danneggiato da altre immagini che giungono al sistema per essere impiegate in compiti immaginativi.

Nel modello della memoria di lavoro vi sono numerosi contributi nuovi rispetto alla MBT di Atkinson e Shiffrin, esiste però una differenza sostanziale che è data dal fatto che secondo questi autori l'elaborazione a breve termine era un passaggio obbligato perché l'informazione si depositasse nella MLT (lungo termine); secondo il modello della memoria di lavoro invece l'elaborazione a breve termine non è sempre necessaria per garantire che l'informazione sia trasferita nella memoria permanente. Il passaggio dell'informazione da questo sistema periferico di memoria non è di per se necessario e può in certe condizioni essere evitato.

Questo è stato ottenuto dall'evidenza sperimentale e dall'analisi e l'osservazione di soggetti con patologie nella memoria a breve termine che cmnq non andava ad inficiare le capacità della memoria a lungo termine.

I sistemi di memoria a lungo termine

La memoria a lungo termine non è considerato un sistema unitario. Schacter e Tulving (1994) rivelano che la maggior parte  del lavoro di ricerca converge sull'individuazione di quattro sistemi a lungo termine: un sistema di rappresentazione percettivo (PRS), un sistema procedurale, un sistema semantico, un sistema episodico.

Il sistema di rappresentazione percettiva. Concettualizzano da Tulving e Scacter riguarda la rappresentazione in memoria delle caratteristiche percettive degli oggetti e delle parole viste e udite, quindi si tratta di un sistema presemantico, vale a dire che l'informazione contenuta non implica accesso al significato di oggetti e parole. Si ipotizza che sia costituito da sottosistemi che possono funzionare simultaneamente, ciascuno dei quali è predisposto per l'elaborazione di informazioni diverse. Sono stati individuati tre di questi sottosistemi, uno per l'elaborazione e la conservazione della forma visiva delle parole, uno per la forma uditiva delle parole e un ultimo per le caratteristiche strutturali degli oggetti. Le rappresentazioni percettive elaborate in questo sistema transiterebbero poi nel sistema episodico dove si legherebbero al loro significato contestuale. È un sistema che opera a livello non consapevole, sia in fase di codifica che in fase di recupero dell'informazione; il suo funzionamento è pertanto implicito.

Il sistema procedurale. Deputato all'immagazzinamento delle abilità percettive, motorie e degli effetti del condizionamento, cioè conserva la memoria del "come fare le cose", tipo andare in bicicletta, ma anche la sequenza di azioni che per esempio richiede la partenza per un viaggio o il pranzo in un ristorante. Caratterizzato da apprendimenti graduali che si automatizzano con l'esercizio, così come accade per i comportamenti appresi secondo il paradigma stimolo-risposta e per le abitudini. I comportamenti procedurali mantengono una certa stabilità nel tempo e, soprattutto le abilità motorie complesse tendono a non essere suscettibili della dimenticanza come accade invece alle altre conoscenze. Anche questo sistema opera al di fuori del controllo della coscienza: non si è consapevoli dei processi che si mettono in atto quando si sta pedalando o guidando. Il modello delle conoscenze procedurali più noto è quello dello scipt (copioni) di Schank e Abelson che rappresenta uno schema di conoscenze riferito alle procedure di azione e condivide con gli schemi le caratteristiche descritte in precedenza per di questi ultimi (pag. 43 stesso documento).

Il sistema semantico. Contiene tutta la conoscenza generale sul mondo che un individuo possiede: linguaggio, simboli, algoritmi, informazioni enciclopediche, conoscenza generale di se. È un sistema di conoscenza esplicita, nel senso che contiene delle informazioni che possono essere consapevolmente espresse. La conoscenza semantica viene anche definita come conoscenza fattuale perché si riferisce a fatti o eventi, ma è importante sottolineare che questi sono codificati in modo indipendente dal momento della loro acquisizione, cioè non sono riferiti al contesto del loro apprendimento da parte del soggetto. Es. Roma è la capitale d'Italia è una conoscenza generale che io possiedo senza che la stessa sia legata al momento in cui ho studiato la geografia.

La codifica in questo sistema avviene in maniera sia intenzionale che incidentale, ma il recupero avviene sempre in maniera consapevole. Utile pensare alla conoscenza semantica come a una rete preposizionale per cui valgono gli effetti della propagazione  dell'attivazione e del priming semantico, ma è anche utile se ci si riferisce a conoscenze di eventi o azioni riferirsi al modello degli schemi. Seppur differenti questi modelli non sono in contraddizione, in entrambi è presente l'idea della connessione tra gli elementi che crea una configurazione a rete tra i contenuti  della conoscenza. Si tratta di valorizzare di più le connessioni semantiche cioè tra significati o le connessioni associative per contiguità spaziale o temporale, a seconda del tipo di conoscenza che si deve recuperare.

L'idea dell'organizzazione delle tracce è il denominatore comune ai modelli che permette di spiegare il recupero dell'informazione che avviene gradualmente (passo-passo) tramite l'attivazione di contenuti collegati tra loro, con distanze associative diverse, in grado perciò di spiegare le differenze nei tempi della rievocazione.

Il sistema episodico. Identificato da Tulving riguarda eventi o episodi del passato direttamente esperiti dal soggetto cioè episodi specifici collegati al luogo e al tempo dell'esperienza di apprendimento del  soggetto. Il contesto spazio-temporale del momento del mio apprendimento di quell'evento viene codificato insieme a quell'evento, con il passare del tempo molti eventi soprattutto quelli di routine perdono il loro riferimento specifico al contesto dell'apprendimento e si "semantizzano", vengono cioè trattenuti come conoscenza generale. Il sistema episodico è fondamentale per la conservazione dei riferimenti al tempo personale, e quindi per la costruzione di una memoria autobiografica che sostenga il concetto di sé.

Il recupero da questo sistema di memoria è graduale e ricostruttivo, Tulving definisce gli eventi immagazzinati in questa memoria endogrammi, che riferiti al contesto di apprendimento passato, per tornare alla mente hanno bisogno di essere innescati da un suggerimento che però necessariamente è relativo al contesto attuale. Tale processo è definito come ecforia sinergica, dove per ecforia si intende il processo di venire alla luce, emergere; per sinergia si intende il processo di combinazione tra contenuto da ricordare e l'indice di richiamo. L'evento riferito è il frutto di una ricostruzione che il soggetto fa alla luce del suo stato (fisico ed emotivo) e delle conoscenze attuali. Una volta rievocato, l'episodio viene di nuovo immagazzinato nella memoria episodica con i riferimenti al nuovo contesto, subendo in questo modo una progressiva modificazione. Questo sistema è l'ultimo che si sviluppa in termini evolutivi. Tulving definisce il sistema episodico come un sottosistema specializzato del sistema semantico.



Una volta che si sia sviluppato il funzionamento del sistema episodico (a partire dai 4-5 anni) le informazioni che si apprendono vengono in prima istanza codificate in questo sistema e, con il passare del tempo, vengono dimenticati i riferimenti contestuali di apprendimento e le informazioni si trasferiscono nel sistema semantico.

È naturale che nei comportamenti della vita quotidiana si utilizzano contemporaneamente tutti i sistemi  a lungo termine i quali interagiscono e integrano le conoscenze che sono necessarie per raggiungere determinati scopi.

 

Linguaggio e comunicazione

Tra le molteplici funzioni che il linguaggio assume presso qualsiasi comunità di parlanti, quella comunicativa è senza dubbio la meno centrale negli studi e nelle ricerche prodotte nell'ambito della psicologia generale.

Il linguaggio è il prodotto di un'attività cognitiva complessa che accompagna la nostra quotidianità, e gli effetti del sapere linguistico assumono significato nel processo comunicativo perché sono utilizzati in un contesto. Lo scopo della psicoloinguistica dovrebbe proprio essere quello di rendere conto delle relazioni esistenti tra la comprensione e la produzione del linguaggio e i processi cognitivi.

Si tratta di definire cos'è una lingua per formularne una descrizione oggettiva e cosa s'intende per processi psicologici ad essa legati, specificando con quali mezzi studiarli.

Modelli della comunicazione

Uno dei modelli di comunicazione di ispirazione matematica è quello messo a punto da Shannon e Weaver nel 1949, secondo cui una fonte (X), invia per mezzo di un trasmettitore (T) a un destinatario (Y) che è in grado di decodificarlo (D) un messaggio (M) tramite un canale (C).

Modello che considera la comunicazione come un processo lineare, in quanto non è rilevante il contenuto del messaggio, quanto la rappresentazione: Fonteà Trasmettitore/codificatoreà Canaleà Ricevente/decodificatoreà Destinatario.

Modello elementare che rimane inadatto per spiegare ciò che avviene nella comunicazione umana, poiché la comunicazione stessa è vista come un sistema di segnali trasmessi in cui coloro che comunicano non sono in grado di interagire.

Invece nella comunicazione umana tra fonte e destinatario non avviene semplicemente un movimento di dati, ma una continua costruzione negoziata di significati, all'interno di un rapporto psico-sociale, non può essere semplicemente considerata come uno scambio di messaggi o di idee.

Lo schema di comunicazione elaborato da Jakobson, con l'introduzione del contesto diviene di riferimento per molte discipline per il fatto che si mette in evidenza che  la comunicazione è data dall'equilibrio tra forze che interagiscono all'interno di un sistema.

Il modello di Halliday vede nel linguaggio le realizzazione  di atti che coinvolgono simultaneamente un gran numero di opzioni in relazione alle diverse funzioni del linguaggio stesso  e che si definiscono:

·        la funzione ideativi, attraverso la quale strutturiamo l'esperienza sia interna (coscienza) che esterna (mondo);

·        la funzione interpersonale, che stabilisce o mantiene relazioni sociali attraverso cui si esprimono ruoli, si interagisce;

·        la funzione testuale, che opera nessi tra il soggetto e la situazione in modo da produrre discorsi e non insiemi sconnessi di frasi.

Possiamo riassumere che nel processo comunicativo il contatto tra gli interlocutori avviene per mezzo di messaggi espressi tramite un codice e che gli interlocutori si riferiscono, nella comunicazione, al contesto discorsivo che è parte di un contesto situazionale più complesso.

Il linguaggio come azione

Nelle attività di comunicazione i parlanti scambiano significati sulla base di intenzioni e scopi che vanno al di là delle potenzialità linguistiche. Presupposto teorico, questo, della "teoria degli atti linguistici". Per cui ogni frase che il parlante formula corrisponde a un atto linguistico, per cui alcune frasi possono essere delle affermazioni del tipo vere o false (oggi piove) altre possono essere frasi che vanno al di là del loro significato in quanto realizzano un atto (esempio una promessa) nello stesso momento in cui vengono proferite e che può essere realizzato o meno.

Le forme verbali che costituiscono questi enunciati sono state definite performative per indicare che buona parte del nostro "dire qualcosa" coincide col "fare qualcosa" dal momento che ogni enunciato può essere considerato la congiunzione di tre livelli:

1.      il livello locutorio, il rispetto di certe regole sintattiche e semantiche nel concatenare le parole della frase;

2.      il livello illocutorio, esprime la nostra intenzione comunicativa secondo modalità che variano in funzione del contesto e dello scambio;

3.      il livello perlocutorio, che riguarda gli effetti extralinguistici prodotti dal nostro atto linguistico.

Per Searle un aspetto della comunicazione riguarda il rapporto tra contenuto dell'atto linguistico e stato delle cose (cioè il mondo) un secondo aspetto riguarda gli stati psicologici dell'atto linguistico; ad es. quando si afferma qualcosa si tenta di adeguare le parole ad uno stato di cose, mentre con una promessa si tenta di cambiare uno stato di cose. Nel primo caso si può considerare la comunicazione come un processo che va dalle parole al mondo, nel secondo caso il processo è inverso in quanto si tenta di adeguare il mondo alle parole. Anche in questa teoria il parlante esprime uno stato psicologico: una credenza (nelle spiegazioni), una volontà (negli ordini), un impegno (nella promessa).

Non sempre vi è corrispondenza tra la forma dell'enunciato e l'intenzione comunicativa (la forza illocutoria), ad esempio pronunciare la parola "brrr", è un atto linguistico indiretto, in quanto il significato non è univoco e dipende dal rapporto diretto tra i parlanti e il contesto; se invece la corrispondenza  c'è si parla di atto linguistico diretto.

A partire dalla teoria degli atti linguistici i modelli successivi si dimostrano sempre più attenti alla funzione pragmatica che il linguaggio assume nella mente di coloro che lo usano a fini comunicativi.

La formazione dei principi che stanno alla base del linguaggio naturale e che regolano i nostri scambi verbali vedono nel lavoro di Grice (1975) sul "principio della cooperazione" una delle formulazioni più note e citate sulla competenza comunicativa; il "principio della cooperazione"presuppone che ogni interlocutore contribuisca allo scambio comunicativo rispettando implicitamente alcune regole tacite, e si articola in quattro massime che riguardano differenti aspetti del messaggio, dette massime conversazionali:

1.      quantità, contributo informativo senza essere prolisso;

2.      qualità, dare un contributo vero senza dire ciò che si ritiene falso o di cui non si posseggono prove;

3.      relazione, essere pertinenti;

4.      modalità, chiari, senza ambiguità coincisi e ordinati.

Alla base del modello vi è l'assunto che affinché vi sia comunicazione tra i parlanti uno deve avere l'intenzione di dire qualcosa, l'altro di inferire[9] su ciò che il primo intende comunicare. Per Grice, un'adeguata comprensione reciproca è possibile grazie all'osservanza del principio di cooperazione da parte degli interlocutori, senza necessariamente ricorrere alle massime conversazionali, che possono essere trasgredite per cui verranno prodotti significati impliciti inferibili dagli interlocutori dal contesto.

Pertinenza e rilevanza

Comunicare significa richiedere l'attenzione di un individuo: significa quindi lasciare intendere che l'informazione comunicativa sia pertinente. Da ciò viene sviluppata da Sperber e Wilson (1986)  la teoria della pertinenza, per spiegare attraverso quale procedimento i parlanti sono in grado di mettere in evidenza i contenuti informativi rilevanti nel processo comunicativo. Comunicare significa innanzitutto selezionare parte dell'informazione che proviene dall'ambiente, la capacità comunicativa è soprattutto capacità percettiva. Sperber e Wilson parlano di ambiente cognitivo per riferirsi ad informazioni condivise dagli interlocutori, al di là delle soggettività individuali. La funzione comunicativa è possibile soltanto perché siamo in grado di interpretare il linguaggio mettendo in relazione le parole con il loro senso e il  contesto.

Sperber e Wilson rendono conto della comunicazione senza mettere in discussione il paradigma cognitivista  con alcune semplificazioni:

1.      La definizione di linguaggio come insieme di formule di interpretazione semantica ha un connotato di formalità che il linguaggio naturale non ha:

2.      Le inferenze non sono osservabili o sperimentabili sul piano del linguaggio perché vengono elaborate da altri processi cognitivi;

3.      La pertinenza è riferita ad uno scopo: acquisire più conoscenze, precise e facili da recuperare; e ciò vale solo per l'ascoltatore e non per il parlante;

4.      Non è prevista azione di aggiustamento reciproco, quindi la comunicazione è un processo asimmetrico;

5.      Non vi è spazio, pertanto, per una reciproca rappresentazione tra interlocutori.

Tutto ciò rende la teoria della pertinenza molto complessa e forse adatta a spiegare cosa avviene nella scatola nera, cioè nella mente dell'individuo; poco adeguata però a spiegare i processi della comunicazione interpersonale poiché non prevede che quanto elaborato dal soggetto interagisca con quanto elaborato dalla mente degli interlocutori.

Il linguaggio come retroazione

Un approccio pragmatico ai processi comunicativi considera soprattutto l'interazione tra testo e contesto, cioè tra l'attività discorsiva e le condizioni in cui questa si produce. L'attenzione si sposta dunque dalla struttura del linguaggio all'atto della comunicazione cioè al modo in cui determinate azioni verbali (testo) si inseriscono in un determinato ambiente (contesto) e ci permettono di elaborare e trattare significati.

La semantica studia il modo in cui le parole sono collegate ai concetti e in quale maniera sono riferite a oggetti, situazioni diverse. Scorrendo un dizionario e leggendo le definizioni siamo in grado di condividere il significato linguistico delle parole, ma ognuna di esse può attivare significati soggettivi, non letterali legati alla situazione; non vi è cioè una stretta dipendenza  tra le parole che utilizziamo e ciò a cui si riferiscono, le parole sono solo dei veicoli tramite cui, nel processo comunicativo,  convenzionalmente i parlanti si riferiscono a ciò che da esse è rappresentato. Ogni parola ha dunque un aspetto referenziale del significato, dato dal contesto (questo libro, se parlo del libro di psicologia ha un preciso valore referenziale), ma la parola libro può significare un insieme di rappresentazioni, in questo caso ci si riferisce all'aspetto denotativo del significato, per cui ogni parola ha un significato che corrisponde alla definizione generale del dizionario (pensiamo a De Sassure e al concetto di connotazione e denotazione).

Questa polisemia lessicale spiega la nostra capacità di comprendere messaggi ironici o metaforici, anche quando formulati con espressioni non convenzionali. Il significato risiede quindi nell'uso che i parlanti fanno delle parole che contengono frasi e discorsi. Per cui il senso vero di una frase non sarà mai la somma dei significati delle parole che la compongono.

Contributo fondamentale allo studio della linguistica è venuto da Chomsky che ha radicalmente messo in crisi il modo di intendere il linguaggio da parte dei comportamentisti. Egli sostiene che il linguaggio umano si sviluppa come un sistema autonomo, acquisito indipendentemente dallo sviluppo di altre capacità cognitive, grazie a un dispositivo innato, specie-specifico, chiamato LAD (Language Acquisition Device). Il modello di grammatica da lui elaborato, definito generativo-trasformazionale ha profondamente modificato ogni studio sul linguaggio non solo linguistico, ma anche in ambito psicologico.

L'assunto su cui si basa il modello generativo-trasformazionale è innanzitutto che il linguaggio è creativo; ciò significa che non occorre aver già sentito una frase per poterla produrre, ognuno di noi è capace di produrre un numero infinito di frasi sulla base di un numero finito di regole. Quanto produciamo in forma scritta od orale, rappresenta la struttura superficiale, visibile e tangibile, di un'organizzazione mentale interna che riflette la struttura profonda di quanto elaborato mentalmente, cioè del suo significato, ed è la capacità di operare trasformazioni, per mezzo di sostituzioni, dislocazioni, trasposizioni, che ci permette di mettere in relazione le due strutture, la superficiale e la profonda. La capacità di capire il linguaggio (competence) non è isomorfa, non è corrispondente biunivocamente alla capacità di produrre linguaggio (performance). Per quanto in sintonia con una visione cognitiva del processo linguistico il modello si propone come grammatica ideale dando priorità agli aspetti sintattici del linguaggio, tralasciando gli aspetti semantici senza tener conto degli effetti del contesto.

Benché diversi studi sperimentali abbiano tentato di dimostrare l'affidabilità del paradigma chomskiano, difficilmente si sosterrebbe oggi la realtà psicologica di tale modello linguistico, nonostante gli esperimenti tutto ciò non basta ad affermare che le trasformazioni psicologiche siano strutture cognitive psicologicamente reali.

Successivamente la psicolinguistica si è evoluta quindi  verso modelli che mettevano in risalto l'importanza della dimensione semantica del linguaggio a scapito di quella sintattica riorientando l'indagine verso nuovi ambiti di ricerca. Il limite secondo un certo punto di vista è costituito dal fatto che si considerano equiparabili il modello formale di descrizione della lingua e il modello psicologico dei processi cognitivi implicati nel linguaggio stesso.

I linguaggio nella comunicazione è una rete di connessioni tracciate tra parlanti, testi e contesti, non è il passaggio lineare di informazioni, ma il risultato di un'azione interpretativa che i parlanti fanno in maniera interdipendente.

Il non detto e l'implicito

Nell'interagire, infatti, le produzioni linguistiche che enunciamo non sono in relazione semplice e diretta con il senso. Al detto (parte esplicita) si associa il non detto (parte implicita), che può essere inteso come una specie di elemento sotteso alla parole o alle frasi che compongono il discorso; seguendo i modelli pragmatici si parlerà in questo caso di presupposizioni; alle volte l'informazione, o parte di essa,  si presenta implicita in rapporto alle situazioni e all'attività che il locatore svolge: in tal caso parliamo di sottintesi. In altre parole possiamo dire che mentre il presupposto fa riferimento al contenuto semantico il sottinteso è un implicito dell'enunciato. Le massime conversazionale prevedono che i parlanti generino dei significati impliciti (implicature); da cui distinguiamo le implicature conversazionale deducibili dal contesto interattivo ed esplicitabili in termini di ragionamento e le implicature conversazionale, veicolate direttamente dal tipo di scelta linguistica. Le forme di implicito definiscono la distanza tra il senso effettivo che diamo ad un enunciato e il senso letterale che tale enunciato veicola., e possono variare attraverso più dimensioni: ideazionali, discorsive, culturali.

A livello lessicale buona parte delle parole veicolano anche un significato non riportato direttamente, come accade nella comunicazione ironica o metaforica. Forma di implicito intertestuale è rappresentato dalle citazioni o dalle allusioni, modo tramite il quale ci si allontana dal contenuto referenziale. Altra dimensione dell'implicito è data dal peso culturale che azioni e rappresentazioni hanno indirettamente sulla nostra attività linguistica, per cui l'implicito può essere legato anche ai riferimenti culturali e ai sistemi di credenze delle persone. In tal senso molte interazioni possono non essere simmetriche, non solo per lo status dei parlanti ma anche in rapporto ai differenti sistemi culturali e linguistici ai quali i parlanti fanno riferimento, queste interazioni asimmetriche possono dar luogo a fraintendimenti. Alla base della nostra organizzazione discorsiva vi è sempre un invio indiretto a presupposti ideologici, a sistemi di credenze e  a quadri di riferimento che danno un formato particolare a ciò che esprimiamo.

Il sapere condiviso

Nel processo comunicativo i parlanti scambiano affermazioni; alcuni autori fanno una distinzione netta tra lo stato informativo iniziale (stato dato) e quello che si sviluppa nel corso e dopo una conversazione (stato nuovo). Ciò significa che qualsiasi affermazione faccia una persona nel corso di una conversazione questa è inserita o aggiunta a informazioni di base condivise dagli interlocutori, che costituiscono il sapere condiviso che è alla base di un'attività di negoziazione permanente nella conversazione. In questa prospettiva l'attività di comprensione e quella di produzione del linguaggio sono considerate unite in uno stesso processo.

L'attività di comunicazione è costituita da atti di parola (speech acts); le relazioni tra tema (argomento o soggetto del discorso) e comment (commento o informazione aggiunta) sono operate da marcatori discorsivi, cioè dispositivi linguistici che hanno una specifica funzione cognitiva: quella di mettere in relazione la parti del discorso. Vengono definiti marcatori, proprio perché stabiliscono un legame tra le proposizione, traducono le intenzioni del parlante articolando i significati  in una rete di relazioni pragmatiche. Il grado di coinvolgimento diretto degli interlocutori in una conversazione non è indifferente; essere realmente partecipi alla discussione o solo spettatori varia la comprensione del discorso stesso, in quanto la comprensione è parte di un processo di collaborazione. Tra l'altro il sapere condiviso agisce direttamente in funzione della disponibilità di tempo che il soggetto ha: maggiore è il tempo, maggiore è l'attivazione del sapere condiviso.

Il testo, il discorso, la conversazione

Con il termine discorso s'intende un qualsiasi testo costituito da frasi (struttura) formulate per produrre senso (funzione) per fini comunicativi o internazionali (contesto). Testo orale o testo scritto sono considerati indifferentemente come discorso nella misura in cui si assume il parlante o il lettore tratti informazione a partire dai dati di cui dispone ed elabori contemporaneamente altre informazioni perché attiva script, fa inferenze, elabora informazioni non linguistiche, ecc. La comprensione del testo è un compito solitario; la conversazione è un'attività che si condivide con altri soggetti e che avviene prevalentemente attraverso il canale orale, ma anche attraverso forme di comunicazione non verbale.

La comprensione del testo

Comprendere, ma anche produrre,un testo implica l'interazione di competenze oltre che sintattiche anche semantiche e pragmatiche. Si può definire il testo come un mezzo concepito per  trasmettere informazioni finalizzate alla costruzione nell'interlocutore di una struttura mentale simile o identica a quella che intende comunicare l'emittente. Cerchiamo di analizzare i processi cognitivi che governano la comprensione dei testi, secondo due ordini di motivi strettamente connessi tra loro: intanto l'attività comunicativa si svolge a partire da produzioni costituite da insiemi di frasi o enunciati concatenati tra loro, ciò significa-secondo punto-che l'organizzazione cognitiva necessaria per l'elaborazione avrà dei caratteri più complessi di quanto necessario per l'elaborazione di una stringa di poche parole perché queste si spostano su altri piani, si trasformano e danno un senso all'insieme.

La comprensione di un testo non può quindi prescindere dall'interazione di tre fattori: testo, contesto e lettore.

Beaugrande e Dressler definiscono "il testo come una occorrenza comunicativa che soddisfa sette condizioni di testualità; quando una di queste sette condizioni non è realizzata, il testo non ha un valore comunicativo"; i sette criteri sono elencabili:

1.      coesione (modo in cui le parole che ascoltiamo o leggiamo sono in relazione tra loro);

2.      coerenza (il prodotto del rapporto tra concetti e relazioni sottostanti di casualità. Scopi, tempo);

3.      intenzionalità (scopo per il quale è stato prodotto un testo);

4.      accettabilità ( capacità inferenziale del ricevente)

5.      informatività (relativa ai tipi testuali: annuncio, articolo, saggio scientifico, ecc.)

6.      situazionalità (adeguatezza del messaggio alla situazione);

7.      intertestualità (capacità di rapportare le conoscenze attuali a conoscenze precedenti nel rapporto di un testo con altri tipi di testo).

Tali criteri governati da principi di efficienza e appropriatezza  sono considerati oggi  gli elementi di base dell'analisi testuale.

Altro modello è quello prodotto da Kintsch e Van Dijk che scompongono il processo di comprensione in sottoprocessi, rappresentati in proposizioni che mettono in relazione esplicita i significati. Le proposizioni sono organizzate in predicati ed argomenti; il predicato esprime una relazione o una proprietà tra gli argomenti. Gli argomenti sono in genere rappresentati da nomi. Una proposizione è quindi una lista di concetti ordinati come segue: predicato, argomento 1, argomento 2, argomento n.

Il soggetto tratta parallelamente su due piani i contenuti del testo, collegando tra loro a livello locale delle informazioni in microstrutture, mentre a livello globale tende a ristrutturarle in macrostrutture, e l'attività di comprensione è tesa soprattutto a ricercare un coerenza nel testo stesso. Il soggetto integra le informazioni delle frasi in altre frasi, i limiti imposti dalla capacità della memoria di lavoro portano a raggruppare le informazioni in cicli; la sequenza di enunciati è retta da legami di coesione che regolano le relazioni di dipendenza negli elementi delle frasi (congiunzioni, casuali, sostituzioni, confronti, ecc.). Ad una prima fase, il modello di tipo sequenziale si è arricchito fino a dar luogo ad una nuova elaborazione nota come modello di Kintsch, secondo cui ad una prima fase di costruzione preliminare, costituita dalle caratteristiche del testo e dalle conoscenze del lettore, segue una fase di integrazione dei primi dati in una rete più complessa. Il modello di tipo interattivo si fonda quindi sull'ipotesi di un'attività cognitiva basata sulla costruzione-integrazione di informazioni che attiva la rappresentazione corretta, inibendo quella irrilevante. L'idea principale del modello è che la facilità di comprensione è funzione della possibilità di integrare direttamente il nuovo materiale con quello già letto.

I modelli testuali si propongono di fornire una rappresentazione dei processi psicologici sottostanti al comprensione e non si limitano a descrivere fenomeni linguistici di superficie. Quello che è importante è sapere che la comprensione di un testo è possibile perché attiviamo e trasformiamo differenti tipi di conoscenze  tra le quali anche le conoscenze schematiche sulla struttura del testo che già possediamo, in un'attività fortemente multidimensionale.

Il testo narrativo (racconto, storia, resoconto di eventi ecc.) è costituito da un insieme di azioni e modifiche di stato realizzate da personaggi. Azioni ed eventi sono disposte in ordine sequenziale e legati tra loro da relazioni concettuali di tipo: causa, ragione, prossimità temporale ecc. Gli elementi cognitivi che entrano in gioco nella comprensione di questo particolare tipo di testo coinvolgono tre aspetti e la loro rappresentazione:

1.      il dove (la struttura permanente in cui avviene l'elaborazione);

2.      il come (il modo in cui è condotta l'elaborazione),

3.      il cosa (la relazione con il sistema di conoscenze implicate nella comprensione).

Altro elemento che caratterizza il testo narrativo è la gerarchizzazione degli eventi per cui è implicita la ristrutturazione degli eventi principali rispetto ai secondari.

Il testo espositivo invece ha lo scopo di informare il lettore su un particolare ambito di conoscenze, per questo la struttura sottostante avrà caratteri meno marcati e meno espliciti di quello narrativo. Quando si accettano, o valutano, determinate idee o convinzioni il testo ha carattere argomentativi; valutazione e opposizione sono le attività concettuali che maggiormente connotano questo tipo di testo.

Dall'idea che gli individui traducano in modelli interni le situazioni che li hanno visti coinvolti in esperienze nasce la teoria dei modelli mentali; finalizzati a spiegare come funzionano nella nostra mente i processi percettivi, la comprensione del discorso, la rappresentazione del sapere e del ragionamento. Per quanto riguarda la comprensione difficilmente il discorso ci fornisce esclusivamente dati espliciti, ma noi compiamo delle inferenze, per cui suppliamo alle informazioni mancanti con elementi cognitivi corrispondenti alla situazione. Gli schemi sono i costituenti di base dei sistemi di significazione ai quali si fa riferimento; da cui la constatazione evidente che la comprensione di un testo o di un messaggio dipende dal contesto di cui fa parte, vale a dire anche dalla conoscenza sociale della comunità di cui fa parte l'ascoltatore o il lettore. Il senso scaturisce dai contenuti, dalle inferenze e dalle intenzioni di chi parla o scrive (o di chi ascolta o legge) e dalle massime conversazionale (pag. 53 stesso documento).

La comprensione di testi ed eventi dipende  quindi da molteplici fattori che legano aspetti semantici, contesto, schemi e processi inferenziali.

 Ma quali sono le inferenze che attiviamo nella lettura di un testo? Soltanto quelle necessarie alla comprensione del testo oppure anche inferenze non necessarie alla stretta interpretazione? Siamo di fronte a due approcci diversi del problema: quello minimalista e quello costruttivista, contrapposte in due ipotesi in questo caso falsamente dicotomiche in quanto la comprensione del testo è il risultato di un processo di fusione tra le due forme di informazione, quelle che provengono direttamente dal testo e quelle attivate dalla mente del parlante ( o dello scrivente). L'insieme di queste conoscenze viene rappresentato perché il lettore è in grado di connettere tra loro le informazioni esplicite e indirette, di fare inferenze e di riuscire a costruire uno scenario al di fuori dell'esplicito. Ogni ascoltatore o lettore si rappresenta mentalmente situazioni reali o immaginarie alle volte solo accennate.

La comunicazione orale ha caratteri molto differenti dalla comunicazione scritta. L'attività verbale orale ha caratteristiche particolari fondamentali: interazione tra parlanti, alternanza dei turni di parola, costruzione di un discorso sottoposta a costrizioni temporali, emotive, cognitive. Comprendere un testo significa cmnq lavorare su un prodotto, seguire un discorso orale significa costruire e interpretare man mano un processo in atto.

Il campo della prossemica cha analizza  la regolazione, la "distanza" del rapporto fisico tra gli interlocutori, altri indicatori non verbali come lo sguardo, i gesti, le espressioni cinesiche, possono essere considerati come costanti intraculturali anche se non hanno la stessa corrispondenza in tutte le forme di comunicazione. In definitiva possiamo dire che la comunicazione è un fenomeno complesso in cui cognitivo, sociale e culturale si intrecciano nella rappresentazione reciproca degli interlocutori.

Altri strumenti paralinguistici o prosodici: come l'intonazione, il ritmo, la velocità di elocuzione, le pause, qualificano la comunicazione verbale e il riconoscimento del testo.

L'interazione verbale

Gli aspetti non verbali incidono quindi sui contenuti informativi della comunicazione verbale, ma l'interazione verbale si realizza perché gli interlocutori applicano competenze sia linguistiche che extralinguistiche; uno scambio, anche di poche battute si produce a condizione che gli interlocutori siano realmente intenzionati a realizzare la comunicazione. Il dialogo rappresenta l'articolazione di più componenti connesse tra loro:  

·        un livello referenziale, linguistico-discorsivo, osservabile, tramite il quale è negoziato lo scambio verbale;

·        un ambito contestuale di scambio rappresentato sia da un luogo fisico che da conoscenze implicite;

·        una enciclopedia extralinguistica come insieme strutturato si sapere, credenze, atteggiamenti che non hanno solo forma verbale, anche se rappresentabili linguisticamente.

Processi e strategie cognitive raccordano questi tre elementi nella mente degli interlocutori rendendo possibile la comunicazione. Impostazione che implica che i parlanti abbiano più o meno le stesse potenzialità linguistiche, dove un'eventuale asimmetria tra gli stessi può essere "esterna" e avere origine nel contesto sociale, nei ruoli che rivestono gli interlocutori (bambino/adulto; medico/paziente) oppure "interna" e data dall'attività discorsiva, dall'elaborazione del contesto cognitivo. Asimmetrico in termini cognitivo è la (in)capacità di cogliere gli impliciti del discorso e le esplicitazioni che riguardano differenti contesti di interazione.

Le forme di comunicazione scritta e parlata hanno delle differenze e delle specificità che cambiano anche da lingua a lingua: nell'italiano abbiamo per esempio il parlato-parlato, tipico della comunicazione spontanea; il parlato-scritto, nei dialoghi teatrali o nei copioni cinematografici; il parlato-recitato, rappresentato sulla base di un testo scritto, letto o recitato. Con delle differenze che oramai caratterizzano l'uso del linguaggio della comunità dei parlanti dove si è ridotto di molto l'uso delle forme pronominali, l'uso di "gli" per "loro", la ridondanza del "che" relativo, la minor frequenza di aggettivi e avverbi, semplificazione dei tempi verbali ecc.

Non tutta la capacità comunicativa dipende da un sapere esplicito, al contrario gran parte di essa è il frutto di un sapere implicito, quello per cui utilizziamo regole grammaticali senza consapevolezza. La comunicazione deve essere intesa come un'azione reciproca tra le componenti linguistiche, paralinguistiche e gestuali nell'interazione tra i parlanti.   

                                                                

Il pensiero

È estremamente difficile trovare una specificità di significato del termine "pensare". Tradizionalmente la psicologia del pensiero si occupa esclusivamente di alcuni di questi significati e cioè del pensare inteso come ragionare, immaginare, prendere decisioni e come giudicare la probabilità che un evento si verifichi.

Il processo ragionativi è un processo del tutto "interno", nel senso che i suoi passaggi non sono identificabili né riconoscibili dall'esterno, si ha accesso solamente al punto finale del percorso, solamente alla soluzione.

Il ragionamento induttivo

Il ragionamento deduttivo è riconoscibile e analizzabile in modo esplicito nel ragionamento sillogistico e nel ragionamento condizionale.

Un esempio di sillogismo è:

Tutti i bambini sono di bassa statura

Nessun corazziere è di bassa statura

Nessun bambino è corazziere

Un esempio di ragionamento condizionale è:

Se Giuseppe beve vino ha sensi di colpa

Giuseppe beve vino

Giuseppe ha sensi di colpa

La sequenza ragionativi, detta anche interferenza, di tipo induttivo, segue la direziona contraria, cioè parte dai dati empirici, vale a dire dal particolare, per raggiungere affermazioni di tipo generale. L'apprendimento di concetti, comportamento di fondamentale importanza cognitiva, è un esempio tradizionale di inferenza induttiva. Un concetto rappresenta infatti la serie di attributi condivisi dai membri di una classe, ma nessun membro di quella classe. Vediamo per esempio tutti i giorni delle auto diverse, ma nonostante un concetto comune a tutte, cmnq non si fa confusione tra un modello e un altro. L'individuo possiede strategie di categorizzazione che permettono di raggruppare e collegare, all'interno di un medesimo concetto, elementi pure molto diversi tra loro, che condividono tuttavia alcune caratteristiche che definiscono un concetto. Questo processo di individuazione delle caratteristiche a partire da casi particolari per arrivare a una generalizzazione categoriale è un processo di inferenza induttiva, che permette di economizzare il lavoro cognitivo, riducendo le differenze e individuando quelle regolarità che permettono di "catalogare" le infinite differenze degli oggetti appartenenti alla realtà.

Esistono molti casi, tuttavia, in cui alcune proprietà o caratteristiche di un determinato oggetto sono collegate probabilisticamente alla categoria di appartenenza, questo rappresenta un ragionamento di tipo induttivo probabilistico ed è il motivo per cui probabilità e induzione possono essere considerati come aspetti di un medesimo processo mentale.

Le euristiche

Negli anni Sessanta due psicologi, Amos Tversky e Daniel Kahneiman hanno iniziato a studiare il giudizio probabilistico, mettendo in evidenza "ostacoli" caratteristici del ragionamento, costituiti da procedure mentali abitualmente utilizzate nei giudizi di probabilità, definite euristiche. Le euristiche sono procedure mentali veloci, dovute a vincoli di tempo e di capacità cui il sistema cognitivo deve sottostare, che possono essere definite come procedure di semplificazione, in realtà non consapevoli, del processo ragionativo. Il dato fondamentale legato al concetto di euristica è costituito dalla sua funzionalità.

A differenza dell'euristica, il procedimento ragionativo che garantisce la soluzione corretta di un problema è l'algoritmo, che è un meccanismo di ricerca della soluzione, che esplora in successione e sistematicamente tutti i percorsi possibili. Nell'algoritmo vengono vagliate tutte le possibili combinazioni, per cui la soluzione è garantita. Il vantaggio di un metodo algoritmico è la sua indubbia efficacia solutoria, a fronte di evidenti svantaggi: è applicabile di rado, quasi esclusivamente a problemi con un elevato gradi di formalizzazione e comporta uno sforzo operazionale molto consistente.

Le euristiche producono risparmio di tempo e di lavoro cognitivo e costituiscono delle vere e proprie scorciatoie, ma comportano, a differenze dell'algoritmo, rischio di errori: sono infatti percorsi veloci ma non garantiscono necessariamente la soluzione corretta. Ulteriore differenza tra euristiche e algoritmi è che quest'ultimi possono essere applicati solo a problemi con un elevato gradi di formalizzazione: i problemi quotidiani, spesso complessi e "mal definiti", quindi poco formalizzati, non possono quasi mai essere oggetto di ricerca e soluzione algoritmica.

Nei problemi di vita vissuta, quindi, la soluzione algoritmica è pressoché inapplicabile, servono delle procedure di semplificazione del problema che abbiano potere funzionale all'interno del sistema. Le euristiche assolvono questo compito, ma comportano il rischio di errori, nel senso che possono far raggiungere una soluzione non corretta, mettono in evidenza errori sistematici o bias di ragionamento, che caratterizzano un modo di pensare chiamato anche della probabilità soggettiva, di cui ne sono state individuate alcune, ma noi ne citeremo solamente due.

L'euristica della rappresentatività

Questa euristica comporta che un evento venga considerato appartenente a una determinata categoria, perché la sua descrizione è simile o rappresentativa della stessa categoria.

La rappresentazione mentale che noi abbiamo di una serie di eventi casuali non coincide affatto con una sequenza ordinata di eventi; essa corrisponde piuttosto a un insieme disordinato di elementi: il pensiero naturale rifugge dal considerare casuale l'eccesso di simmetria e le cadenze regolari, come la sua connotazione fosse, necessariamente, l'irregolarità. È lo stesso bias che conduce alla cd. "fallacia del giocatore d'azzardo", grazie alla quale ad un casinò dopo dieci volte che esce il nero si è tentati a puntare sul rosso anche se la cosa non ha nessuna logica statistica.

L'euristica della disponibilità

L'euristica  della disponibilità si riferisce ad una procedura mentale che privilegia la scelta dei fatti maggiormente accessibili in memoria. Quando gli individui devono fornire un giudizio sulla probabilità di un determinato evento, oppure devono giudicare sulla frequenza di certi accadimenti, spontaneamente attivano dalla memoria gli esempi che essi possiedono relativi a quegli eventi e giudicano in base a quel campione, che risulta quindi, necessariamente, limitato e soggettivo; tale procedura può produrre delle distorsioni.

Nel funzionamento dell'euristica della disponibilità quando si cerca di ricordare un determinato evento, o di giudicarne la frequenza relativa, vengono spontaneamente e correttamente utilizzati dati pertinenti che sono presenti in memoria. La disponibilità dei dati è tuttavia influenzata da alcuni fattori che ne determinano la maggiore o la minore facilità di recupero. Uno di questi fattori è la familiarità per cui i nomi familiari sono più disponibili di quelli meno conosciuti, cos' come gli eventi recenti sono evocati più facilmente degli eventi remoti.

Interpretazione alternative del ragionamento euristico

La probabilità soggettiva non sempre corrisponde alla probabilità statistica, perché esistono tendenze sistematiche del pensiero, dovute a normali processi di memoria o a meccanismi associativi, che producono delle distorsioni di giudizio, oltre al fatto che esistono, nel linguaggio naturale, significati predominanti di alcuni concetti, come quello di casualità, che possono portare a fraintendimenti o a veri e propri errori. Le risposte apparentemente errate dei soggetti possono essere dovute non tanto e non necessariamente a bias di pensiero, quanto piuttosto all'utilizzo di una teoria normativa di riferimento non adeguata.

Più convincente, anche se non definitiva, è l'obiezione pragmatica. Indipendentemente dalla struttura frequentista del problema, le difficoltà dei soggetti deriverebbero da fattori di tipo linguistico. Il motivo per il quale i soggetti sono indotti in errore è dovuto a una formulazione del problema "incompleta", in quanto non trasmette tutte le informazioni per arrivare ad una conclusione corretta. Se i soggetti, grazie ad una formulazione incompleta o impropria del problema si formano una rappresentazione mentale erronea, allora, anche se il problema è formulato in termini frequentasti, essi forniranno una risposta errata. Ma se il testo del problema veicola tutte le informazioni rilevanti e necessarie per una sua comprensione adeguata, allora esso verrà risolto correttamente sia che il criterio assunto sia quello bayesiano o quello frequentista. Tra i fattori pragmatici c'è quello della rilevanza, che si riferisce al fatto che i soggetti quando giudicano una probabilità sono portati a privilegiare l'informazione più rilevante: per questo se il dato da stimare risulta essere più rilevante delle probabilità di base, queste saranno sottostimate e la risposta sarà erronea, mentre se è la probabilità di base che ha un grado di rilevanza maggiore, allora il compito sarà risolto correttamente. Altro fattore pragmatico è quello secondo il quale la valutazione delle probabilità è influenzata dal tipo di struttura verbale usata nel problema, piuttosto che dalla rilevanza delle formulazioni date o dal bias di ragionamento. In particolare, quanto la formulazione linguistica permette di comprendere chiaramente l'indipendenza dei dati presentati, si assiste a una netta diminuzione degli errori di giudizio probabilistico causati dalla non considerazione della probabilità di base.

Prendere decisioni

La massimizzazione del valore atteso

Quando bisogna prendere una decisione nascono quasi sempre dei conflitti fra desiderabilità e probabilità di un evento: può infatti accadere che le scelte che noi preferiamo non sono necessariamente le più probabili. Scegliere significa il più delle volte ricercare dalla scelta oil maggior guadagno possibile, cioè massimizzare il valore atteso. La teoria classica è dunque fondata sul rapporto fra la probabilità del verificarsi di un evento incerto e il valore dell'evento stesso. Questo rapporto si calcola sommando i prodotti delle probabilità di un certo evento per il valore dell'evento stesso.

Il principio del valore atteso è stato oggetto di critiche che ne hanno messo in dubbio il valore predittivo e che si sono specificamente concentrate sulla legittimità di attribuire un valore monetario al risultato di un'azione; due gli argomenti in discussione: il primo è che molti risultati delle nostre azioni non possono essere facilmente convertiti in denaro e quindi non possono essere nemmeno confrontati; la seconda obiezione al concetto di valore atteso è che il valore di un'azione dipende anche da ciò che una persona ha già. Un viaggio in aereo per chi non ne ha mai fatti ha un valore maggiore per chi viaggia spesso in aereo.

Utilità attesa

Bernoulli, un matematico svizzero introduce il concetto di utilità che non rappresenta il valore in denaro e non può nemmeno essere identificata con il piacere o la felicità: è il valore soggettivo che un certo risultato possiede o, "l'aspettativa morale di un certo evento".

La teoria della decisione assume che gli individui prendano decisioni che massimizzano l'utilità dei risultati attesi e che l'utilità non possa essere identificata con il valore monetario, ma debba essere riferita all'utilità che possiede per quella persona, e inoltre anche il valore del denaro è relativo e dipende da quanto un individuo già ne possiede.

Anche identificando l'utilità attesa di un evento in valore monetario non ci garantisce sulla oggettività o la forza del beneficio e del valore previsto, nel senso che non è possibile effettuare confronti di individualità in quanto troppo soggettivi, ma anche nell'idea dello stesso individuo le cose possono non essere così "precisamente matematiche".

Vantaggio dell'utilità attesa

Per von Neumann e Morgensten è sempre possibile etichettare, per ciascun individuo, i diversi livelli di vantaggio o gradi di soddisfazione o di piacere e ipotizzare quindi un comportamento razionale in grado di massimizzare l'utilità attesa dell'evento.

In condizione di incertezza o di rischio, l'attribuzione di un valore soggettivo ad ogni scelta permette di valutare razionalmente le alternative poiché si tratta di moltiplicare le loro probabilità di accadimento per il valore ad essa assegnato e di scegliere quella che possiede un'utilità più elevata.

Nonostante la scelta più razionale possa sembrare una scelta dettata dal buon senso, essa implica degli assiomi di cui i più importanti sono:

Assioma dell'ordinamento debole: le opzioni devono essere in relazione tra loro, cioè dobbiamo preferire una o l'altra o essere indifferenti, ma non è permesso non scegliere;

Assioma della transitività: se A è preferito a B e B è preferito a C, allora A è preferito a C;

Assioma dell'indipendenza o della cosa certa: per cui nello scegliere non deve esserci equivoco;

Assioma dell'invarianza: per cui per il decisore se A è uguale a B e se sono ugualmente probabili, sarà disponibile a sostituirli l'uno con l'altro;

Assioma della dominanza: si applica nel caso in cui le opzioni siano definite da dimensioni diverse, ovviamente si opta per la migliore.

Violazione delle norme di razionalità

Quelli elencati sopra sono gli assiomi più importanti che costituiscono le fondamenta della teoria dell'utilità attesa: nonostante essi appaiano ovvi gli psicologi hanno dimostrato che la gente spesso viola queste "regole" e prende decisioni che contraddicono queste norme di razionalità.

Da alcuni studi è stato dimostrato che la transitività, che pure sembra ovvia e scontata possa non venire considerata. Altro assioma che viene frequentemente violato è quello dell'invarianza della situazione, che risente "dell'effetto contesto" (framing). In una situazione di rischio la decisione individuale risente della formulazione e del contesto (frame) con cui la domanda viene posta.   

La teoria del prospetto

A partire dalla considerazione che gli individui non necessariamente rispettano la teoria normativa dell'utilità attesa Khaneman e Tversky hanno proposto un modello sulla presa di decisioni chiamato della teoria del prospetto, alternativa molto credibile. Invariata è l'idea di base che i due fattori da prendere in considerazione e messi da loro in relazione  (cioè moltiplicati) sono la probabilità di un evento e la sua utilità, per cui rimane vero che maggiore è la probabilità di un evento, maggiore è l'influenza che esso esercita sulla nostra decisione.

I due ricercatori sono riusciti a trarre dalle distorsioni che si traggono dalla probabilità dell'evento una curva matematica del tipo funzione pigreco. La distorsione è tale per cui le probabilità basse sono leggermente sovrastimate e la probabilità alte sono sottostimate. Per quanto riguarda l'utilità la teoria assume che gli individui stabiliscano l'ammontare di un guadagno o di una perdita non rispetto a valori assoluti, bensì rispetto a punti di riferimento. Nella funzione le perdite vengono considerate diversamente dai guadagni, nel senso che  una perdita ha un valore negativo maggiore del valore positivo della vincita della stessa cifra. Proprietà della funzione chiama avversione alle perdite.

Il ragionamento analogico

Per Poyla (1945) l'analogia pervade tutto il nostro pensiero; anche intuitivamente pensiamo di essere in grado di ragionare per analogie, cioè di poter utilizzare conoscenze pregresse per risolvere nuovi problemi.

Il ragionamento analogico è quella procedura che permette di poter trasferire i procedimenti solutori dei problemi da uno all'altro, quando questi siano simili. Queste similitudini possono essere:

a)      somiglianze superficiali;

b)      somiglianze strutturali.

Si ha una somiglianza superficiale quando parte del contenuto letterale dei due problemi e simile, mentre si ha una somiglianza strutturale quando esiste una corrispondenza delle relazioni fra oggetti in un problema e nell'altro.

Il transfer 

Ragionare in modo analogico significa saper discriminare le somiglianze superficiali da quelle strutturali e questo comporta sia il trasferimento di una conoscenza da un problema ad un altro, sia il trasferimento di una strategia.

Abitualmente si definisce il dominio o il problema di cui si ha conoscenza, base od "origine", e il problema o dominio dove si trasferiscono le conoscenze, quindi quello nuovo, target.

Ragionare analogicamente significa dunque operare un transfer di competenza, o expertise, da un dominio all'altro. Naturalmente il trasferimento non può essere completo, avvengono sempre dei transfer incompleti che possono svilupparsi secondo due modalità: ci possono essere due domini di competenza diversi con aree che si sovrappongono e allora c'è un tansfer specifico (matematica per la fisica e la chimica; logia per l'intelligenza artificiale); oppure ci può essere un transfer generale se i due domini condividono la stessa procedura ragionativa (ragionamento logico e programmare i computer).

In realtà non è cosa semplice riuscire a studiare il ragionamento analogico e soprattutto non lo è studiare il transfer generale, cioè quello di procedure solutorie. 

L'assunto teorico preliminare è che la conoscenza sia strutturata e dunque rappresentata come un set di conoscenze; nel modello più recente di Gentner (1989) la conoscenza è strutturata come una rete semantica, e cioè un grafo. In questa teoria definita teoria del mapping la conoscenza è rappresentata secondo reti di tipo preposizionale che utilizzano oggetti ( o concetti, utilità distinte all'interno di un dominio) e predicati, cioè attributi di oggetti e relazioni fra oggetti. L'analogia è caratterizzata dal trasferimento (mapping) delle relazioni fra oggetti e inoltre le relazioni trasferite sono quelle dominate da relazioni di ordine più elevato. Le regole del mapping sono sostanzialmente cercare di trasferire solo le relazioni fra gli oggetti e no gli attributi degli oggetti dalla Base al Target.

La comprensione dell'analogia si basa sull'esistenza di un sistema di conoscenze di base relativo agli oggetti posti in relazione. Si ha una somiglianza letterale quando viene mappato dal dominio Base al dominio Target un numero di predicati (attributi e relazioni) superiore a quello che non viene mappato. Si ha invece relazione analogica quando la condivisione è relativa soprattutto alle relazioni.

Il trasferimento della struttura del problema è presente anche nell'approccio pragmatico, secondo il quale il ragionamento analogico è articolato in tre fasi: la prima costituita dalla rappresentazione mentale dei due problemi, quello base e quello target, cioè dalla rappresentazione dello stato iniziale e dello stato finale dell'analogia; la seconda fase consiste in una sorta di confronto, o di mapping, fra la rappresentazione del problema di origine e di quella del problema target e nella individuazione di una eventuale corrispondenza nelle relazioni tra i nodi dei due sistemi, i quali possono appartenere anche a domini fra loro molto distanti; la terza fase comporta il trasferimento della soluzione da un problema ad un altro e cioè la generazione della soluzione parallela.

In genere gli esseri umani utilizzano molto raramente e con estrema difficoltà il ragionamento analogico; in particolare non si è quasi mai in grado di attivarla da soli; limitiamo l'individuazione delle somiglianze fra problemi a quelle superficiali e generalmente abbiamo la necessità di un suggerimento che ci indichi un'analogia.

L'intelligenza

Possono essere identificate quattro aree di pertinenza del concetto di intelligenza, che mettono bene in evidenza la multifunzionalità di tale definizione. Può avere una connotazione biologica, quando si assume che l'intelligenza possa essere il risultato di processi biochimici o biofisici; cognitiva, quando si ritiene che sia il frutto di una serie di processi cognitivi analizzabili e quantificabili in un laboratorio sperimentale; contestuale, quando viene considerata come il risultato e l'espressione di sistemi culturali differenziati; sistema, come il risultato  dell'interazione fra gli elementi cognitivi e il contesto.

Il concetto di intelligenza come sistema possiede le maggiori capacità euristiche ; già Gardner aveva ipotizzato una multidimensionalità dell'intelligenza, composta da sette espressioni e precisamente: linguistica, matematica, spaziale, musicale, corporeo-cinestetica, interpersonale e intrapersonale. Le ultime due di particolare interesse si riferiscono la prima alla capacità di avere relazioni con gli altri la seconda alla capacità di comprendere se stessi.

Più sistematica dal punto di vista empirico la visione triarchica di Stenberg (1988) dove triarchico sta per l'assunzione da parte del modello dell'esistenza di tre parti o subteorie. La prima considera l'intelligenza da un punto di vista "interno", cioè si occupa di quei meccanismi cognitivi che conducono ad un comportamento intelligente; la seconda parte considera il rapporto fra ambiente e compiti da eseguire, in termini di familiarità; la terza parte della teoria mette in relazione l'intelligenza con il mondo esterno.

Le metacomponenti del comportamento intelligente

Per la prima parte della teoria, cioè i meccanismi responsabili di un comportamento intelligente, considereremo le metacomponenti e le componenti di prestazione (perfomance).

Le metacomponenti sono i processi di livello più elevato utilizzati per valutare, monitorare e pianificare l'esecuzione di un compito; sono sostanzialmente di tipo esecutivo, nel senso che forniscono alle altre componenti le indicazioni sul da farsi. Le metacomponenti sono secondo Sternberg (1985) un elemento essenziale dell'intelligenza e non possono non essere tenute in primo piano in un progetto di miglioramento delle nostre abilità intellettive. Secondo aspetto delle metacomponenti, necessario per risolvere i problemi, è quello dell'individuazione degli elementi e dei passaggi necessari per giungere alla soluzione, poiché l'individuazione del percorso e dei passaggi necessari per raggiungere la soluzione dei problemi è uno strumento di grande importanza.

Oltre a chiarire la natura del problema e individuare i passaggi necessari per  risolverlo, altro aspetto delle metacomponenti di estrema rilevanza riguarda la necessità di combinare procedimenti solutori in una strategia efficace. Ciò significa ordinare secondo una sequenza corretta tutti i diversi passaggi da compiere per la soluzione del problema; quarto aspetto molto importante è quello relativo alla selezione di un formato attraverso cui rappresentare mentalmente il problema, rappresentazione mentale che può essere compiuta sotto forma di equazione algebrica, di grafici, di un set di proporzioni o altro. In generale è sempre utile avere la rappresentazione  mentale di ciascun problema, qualunque esso sia, la più completa possibile. Le persone quando devono prendere decisioni "soddisfano" più che "massimizzare" significa che scelgono la prima opzione che viene loro presenta piuttosto che considerare tutte le possibili scelte ed optare per quella ottimale e "massimizzare" la scelta.

Altra metacomponente è quella del monitoraggio della soluzione, che consiste nel controllare lo stadio di risoluzione del problema che abbiamo raggiunto e nel modulare i comportamenti in funzione del feedback (risposte) che riceviamo dal mondo esterno. Ciò comporta la disponibilità a modificare i propri comportamenti anche se già pianificati e soprattutto la disponibilità a ricercare feedback.

Componenti di performance nel comportamento intelligente

Accanto alle metacomponenti sono fondamentali le vere e proprie componenti di performance; non molto numerose, dipendono fortemente dal tipo di problema che andiamo a risolvere.

Una componente importante è la codifica, cioè il processo attraverso il qaule gli individui decifrano cognitivamente i termini di un problema per accedere alle informazioni rilevanti per la soluzione e che sono immagazzinate nella memoria a lungo termine. La codifica rappresenta la comprensione, cioè la trascrizione cognitiva del dato problematico: capire il problema per attivare informazioni presenti in memoria al fine di risolverlo. Una codifica corretta può essere fondamentale per la soluzione del problema, al contrario una errata codifica può impedirne la soluzione

Seconda componente di performance di estrema rilevanza è l'inferenza, cioè la capacità di individuare una o più relazioni fra oggetti o eventi; relazioni che possono essere di diverso tipo, di similarità, di predicazione (termini collegati tra loro); di subordinazione, di coordinazione ecc.

Terza componente di performance è il mapping, cioè il riconoscimento di una relazione di alto livello fra due relazioni di livello inferiore ed è differente dall'inferenza nel senso che quest'ultima è il riconoscimento di una relazione fra due termini. Come nel ragionamento analogico, è più facile produrre inferenze che eseguire un mapping.

Altra componente di performance è l'applicazione, cioè l'attribuzione a due eventi di una relazione che è stata inferita precedentemente (penna sta a scrittore come matita sta a disegnatore).

Interessante è l'ultima delle componenti di performance, la giustificazione, quando nessuna delle opzioni disponibili è corretta, oppure quando non esistono soluzioni dirette o complete ad un problema si tratta di scegliere quella meno imperfetta e di trovare dei buoni motivi che giustifichino la scelta in sé rispetto ad altre possibilità 

 



[1] Di qualsiasi organo che ha capacità di conduzione verso una parte del corpo: nervo, vaso sanguigno ecc. contr. efferente.

[2] Struttura anatomica (nervo, vaso sanguigno) che allontana segnali o fluidi da una parte del corpo.

[3] Complesso delle funzioni dei recettori e dei centri nervosi che consentono l'acquisizione di informazioni sullo stato degli organi interni, con esclusione di quelli cavi.

[4] Teoria secondo cui l'organismo costituisce una totalità organizzata non riconducibile alla semplice somma delle parti componenti.

[5] Fenomeno per cui due sostanze solide cristallizzano e danno soluzioni solide in ogni proporzione dell'una rispetto all'altra; corrispondenza biunivoca tra due strutture.

[6] Rendere operante, attivo, passando dalla fase di progetto alla realizzazione; detto specialmente di sistemi informatici.

[7] Schema, modello di riferimento; Struttura, sistema (P. culturale) sistema stabile di valori al quale fanno riferimento tutti gli individui appartenenti a un medesimo gruppo sociale.

[8] Relativo alla memoria

[9] Dedurre, argomentare, desumere; processo logico per il quale è possibile trarre una conclusione. Sinonimo: Deduzione.







Privacy

Articolo informazione


Hits: 4014
Apprezzato: scheda appunto

Commentare questo articolo:

Non sei registrato
Devi essere registrato per commentare

ISCRIVITI

E 'stato utile?



Copiare il codice

nella pagina web del tuo sito.


Copyright InfTub.com 2019