Caricare documenti e articoli online 
INFtub.com è un sito progettato per cercare i documenti in vari tipi di file e il caricamento di articoli online.


 
Non ricordi la password?  ››  Iscriviti gratis
 

Concetti e metodo per la ricerca sociale - Metodologia e tecnica della ricerca sociale

comunicazione



Concetti e metodo per la ricerca sociale

(Metodologia e tecnica della ricerca sociale)


I concetti (p. 9)

Riteniamo che la capacità di formare e comunicare concetti sia una condizione necessaria dell'esistenza di una vita associata. Grazie alla capacità di formare concetti, l'uomo "raccoglie e rappresenta in categorie ciò che si perderebbe altrimenti nella caotica molteplicità dell'esperienza" (Pellizzi). "Scegliamo di ignorare molte delle differenze percettive che rendono unico ciascun oggetto, e in larga misura lo facciamo al momento di dargli un nome" (Tyler). Quattro punti di riflessione:

Il concetto è un "ritaglio" operato in un flusso di esperienze infinito in estensione e in profondità, e infinitamente mutevole. In questa maniera ridurremo gradatamente la complessità e la problematicità del mondo esterno, e quindi accresceremo la nostra capacità di orientamento nella realtà.



La maniera in cui il ritaglio dev'essere di volta in volta operato dipende in larga misura dalle necessità pratiche di un certo individuo, gruppo, società. Le differenze fra gli ambiti di esperienza che vengono "ritagliati insieme" in un concetto non sono soltanto verticali (fra livelli di generalità) ma anche orizzontali (individuo, gruppo, società diverse). Ciò perché i concetti che i termini richiamano sono ritagli di esperienze operati in modo differente dalle società che parlano le due lingue. Le differenze nel modo di ritagliare i concetti non sussistono solo fra una società e l'altra, ma anche tra strati sociali, gruppi professionali, generazioni diverse all'interno della stessa società. Differenze nel ritaglio concettuale sussistono anche fra individuo e individuo.

È attraverso la socializzazione infantile che passa l'accordo sull'organizzazione concettuale della realtà, accordo al quale il nuovo membro di una società accede non volontariamente, ma necessariamente; esattamente come è necessaria, non volontaria, la sua adesione al contratto sociale su cui si basano le istituzioni di quella società. Nei concetti che l'individuo si forma al contatto e per influenza dell'ambiente sociale c'è sempre una componente personale, attraverso la quale passa il contributo dell'individuo stesso alla formazione concettuale nel suo gruppo. C'è anche una componente interpersonale, che permette la comunicazione con l'ambiente sociale. L'equilibrio fra le due componenti varia a seconda dell'età, delle sfere di attività, e anche delle storie di vita e della psiche dei singoli. A nostro avviso, questa tensione fra componente soggettiva e componente intersoggettiva che caratterizza la formazione e la vita dei concetti si ritrova anche in molti aspetti dell'attività scientifica vera e propria come attività socialmente organizzata.

Il raggruppamento di sensazioni in un concetto è un'operazione mentale, che è preliminare, quindi indipendente, dalla disponibilità di un'etichetta terminologica per il concetto così formato. Il concetto può svolgere il suo compito nell'attività mentale di un individuo senza essere stato affatto denominato. La denominazione non sembra strettamente necessaria neppure alla comunicazione del concetto. Il processo di ricerca di un'etichetta per un nuovo concetto può essere lungo e tortuoso prima che si realizzi un sufficiente consenso su una data soluzione. Le occasioni per creare nuovi concetti sono infinitamente più numerose delle possibilità di creare nuovi termini e di conseguenza solo i concetti più usati sono etichettati con un solo termine, mentre per tutti gli altri si deve ricorrere a combinazioni di più termini.

I.       Concetti e proposizioni

A nostro avviso, si può parlare di un concetto espresso mediante più termini (anziché costruito combinando altri concetti) quando l'accostamento di quei particolari termini è così abituale che ciascuno di essi, preso in quella combinazione, non evoca più il concetto singolo che gli corrisponde. Le proposizioni esistenziali possono essere dimostrate vere, mentre la loro falsità può essere pensata ma non dimostrata praticamente. Il concetto si distingue dalla proposizione in quanto non è pensabile come vero o falso. Questa ci sembra l'unica demarcazione sostenibile fra concetto e proposizione.

"I principi incorporati nell'uso lessicale di una certa comunità linguistica sono in un qualche rapporto con l'utilità relativa dei termini nelle comunicazioni di quella comunità, e con la frequenza con cui le distinzioni operate da quel ritaglio lessicale sono di rilevanza cruciale" (Lounsbury). L'utilità è quindi il criterio con cui sono valutati e selezionati i concetti dell'uso comune. Lo stesso criterio vale anche per i concetti scientifici. "La validità di una categoria teorica è proporzionale a quanto il ricercatore esperto può imparare attraverso l'uso di quella categoria" (Brislin e Lonner). In altre parole, un concetto è tanto più utile al ricercatore quanto meglio gli consente di comprendere le situazioni e i comportamenti che studia.

II.    Livelli di generalità e scala di astrazione

I referenti del concetto globalmente intesi costituiscono l'estensione del concetto stesso. I requisiti per decidere se un individuo rientra o no fra i referenti del concetto costituiscono l'intensione del concetto. Ogni volta si aumenta l'intensione di un concetto, ne si riduce automaticamente l'estensione, eliminando tutti quei referenti che non possiedono il nuovo requisito richiesto. Estensione e intensione sono quindi legate da un rapporto inverso e un concetto può dunque fare ginnastica lungo una scala di astrazione, salendo dallo specifico al generale, o scendendo nella direzione opposta.

Per ridurre l'intensione certe volte basta togliere un termine, certe volte se ne deve togliere un blocco perché togliendone meno si sarebbe lasciata una frase priva di senso, altre volte si doveva sostituire un termine. Tutto ciò mostra che in questo tipo di operazioni l'elemento significativo è costituito dai concetti e non dai termini. Infatti, il numero di termini necessari ad esprimere i concetti ai vari livelli dipende proprio dal fatto che sono termini della lingua italiana.

A - il numero di termini che una certa lingua usa per esprimere un concetto non ha una relazione necessaria col livello di generalità di quel concetto

B - quando il livello di generalità a cui si situa un concetto lo rende utile a una certa società, la lingua parlata da quella società tenderà a usare meno termini per descrivere quel concetto

Se ci si muove lungo una sca 858h76i la di astrazione partendo da un concetto con referenti concreti, s'incontrano concetti con referenti concreti sia che si scenda sia che si salga. Analogamente, se ci si muove partendo da un concetto con un referente astratto, si possono incontrare solo concetti con referenti astratti. Da ogni concetto si possono dipartire più scale di astrazione, non solo in senso discendente, ma anche in senso ascendente. A seconda degli aspetti che di volta in volta se ne considerano, un concetto può appartenere a innumerevoli scale di astrazione diverse. Due concetti appartenenti a scale di astrazione diverse incomparabili, quanto a generalità.

III.  Le definizioni

Innanzitutto, non c'è consenso tra gli specialisti sulla questione se una definizione si riferisca a un concetto o a un termine. È il raccordo concetto-termine che viene in realtà definito. Se il definiens (la frase che viene dopo il segno di equivalenza) è un termine solo, si dichiara che tale raccordo è simile a un raccordo fra lo stesso concetto e un altro termine. Se, come nella maggior parte dei casi, il definiens è costituito da più termini, che rimandano a più concetti, si dichiara prima un'equivalenza semantica fra il concetto da definire e una determinata combinazione logica di altri concetti, indi una conseguente equivalenza fra il termine che designa il primo concetto e una data costruzione sintattica dei termini che designano gli altri. La definizione può avere due funzioni distinte:

- descrivere il raccordo fra un dato concetto e un dato termine come viene abitualmente inteso fra i membri di una certa comunità, cercando di cristallizzare la componente intersoggettiva del concetto, che consente il suo impiego nella comunicazione. Si parla in questo caso di definizione descrittiva, lessicale o discorsiva. Ritengo tuttavia inopportuno spingersi a parlare di definizioni vere o false, perché i ritagli concettuali operati in una certa comunità non sono univoci. Funzione tipicamente svolta dai dizionari per i concetti/termini dell'uso comune, ma può essere svolta anche da appositi dizionari o glossari per i concetti/termini scientifici.

- proporre un nuovo raccordo fra un concetto e un termine. In questo caso si parla di definizione stipulativa, nominale o legislativa. Incanala i contributi individuali o di gruppo al patrimonio concettuale-terminologico in una forma che è tipica della comunità scientifica, anche se compare talvolta, in modo meno esplicito, in certi interventi dei mass media.

Per distinguerle da quelle operative, le definizioni di cui si è trattato in questa sezione erano un tempo designate globalmente con l'etichetta di verbali, nominali o teoriche. Ma Marradi parlerà di definizioni lessicali


Oggetti e proprietà degli oggetti (p.19)

È necessario distinguere tra concetti che si riferiscono agli oggetti studiati e concetti che si riferiscono a proprietà degli oggetti studiati. Nelle scienze sociali stabilire l'esistenza di una relazione positiva tra la proprietà A e la proprietà B significa accertare che nello stesso oggetto:

Se la proprietà A è presente in modo rilevante, anche la proprietà B è tendenzialmente presente in modo rilevante;

Se la proprietà A è assente o presente in modo trascurabile, anche la proprietà B è tendenzialmente assente o presente in modo trascurabile.

Il termine "tendenzialmente" sta a significare:

a) Che l'accertamento non va operato su un solo oggetto, ma su un insieme di oggetti, congruo per numero e caratteristiche con la portata che s'intende dare alla relazione eventualmente accertata;

b)    Che, data la natura della realtà sociale, l'accertamento può avere esiti differenti da oggetto a oggetto;

c) Che, per ritenere accertata l'esistenza di una relazione positiva, è sufficiente che l'accertamento abbia esito positivo riguardo a una determinata proporzione degli oggetti studiati. A parità di altre condizioni, più alta è tale proporzione, più si dirà che la relazione è stretta.

Questo criterio per stabilire l'esistenza di relazioni fra proprietà è sostanzialmente il Metodo delle Variazioni Concomitanti che John Stuart Mill propose per primo per le scienze sociali.

I. Dalle unità ai casi

Gli oggetti del discorso scientifico possono essere i più vari. Il tipo di oggetti di cui si occupa una determinata ricerca scientifica si dice unità: si parla quindi di unità-individuo, unità-famiglia, unità-comune. Dalla scienza politica si sono diffusi anche in altre discipline i concetti di unità ecologica, per designare ogni tipo di unità a base territoriale e di ricerca ecologica per le ricerche su questo genere di unità.

I particolari oggetti di cui si occupa quella data ricerca si dicono invece casi. Solo alcuni degli oggetti che, in base alla determinazione astratta dell'unità, potrebbero diventare casi, lo diventano agli effetti di una determinata ricerca. Innanzitutto, è inevitabile la delimitazione di un certo ambito spazio-temporale. Senza la delimitazione spazio-temporale dell'ambito di un ricerca, tutti gli oggetti di un certo tipo, passati presenti e futuri, sarebbero potenziali casi della ricerca stessa. Spesso anche questa delimitazione non è sufficiente a ridurre il numero di potenziali casi a un livello accessibile alle risorse di un dato ricercatore. Si ricorre quindi al campionamento, cioè alla selezione di un sottoinsieme di casi che sia in qualche modo rappresentativo dell'insieme dei potenziali casi, che è quello che effettivamente c'interessa.Una perfetta casualità nel campionamento è fenomeno assai infrequente (per difficoltà pratiche) nelle scienze sociali, e la casualità viene approssimata con vari sistemi, che si prestano nei fatti a pesanti distorsioni.

È opportuno un atteggiamento di sana cautela nei confronti dell'automatica generalizzazione all'universo (e magari oltre) di risultati relativi a un campione la cui "casualità" è spesso assai più presunta che reale.

II.   Dalle proprietà alle variabili; la definizione operativa

Quali concetti possano essere attribuiti come proprietà agli oggetti, dipende dal tipo di oggetti di cui si tratta. Ci sono due criteri metodologici permanenti che ogni proprietà deve soddisfare per essere oggetto di ricerca:

I casi oggetti della ricerca devono poter assumere almeno due stati differenti della proprietà in questione. Se una proprietà può assumere stati diversi da caso a caso, si dice che può variare. Nel linguaggio scientifico "variare" può significare anche (e nelle scienze sociali significa prevalentemente) assumere stati diversi da caso a caso nello stesso momento.

è anche necessario che il ricercatore stabilisca in che modo questi stati differenti devono essere rilevati e registrati, dando una definizione operativa della proprietà in questione. È quindi la definizione operativa che trasforma la proprietà in variabile.

Per definizione operativa della proprietà X intendiamo il complesso di regole che guidano le operazioni con cui lo stato di ciascun caso sulla proprietà X viene rilevato, assegnato a una delle categorie stabilite in precedenza, e registrato nel modo necessario a permetterne la successiva analisi con le tecniche che s'intendono usare. Molte di queste regole sono consuetudini che governano in via generale certi aspetti tecnici della ricerca, e il ricercatore le richiama implicitamente; altre regole sono specifiche, e il ricercatore deve ogni volta esplicitarle. In genere, a ciascuna voce dell'elenco viene assegnata una diversa etichetta numerica (valore), per accelerare il processo di registrazione e/o codifica, e il successivo processo di perforazione. La tavola di corrispondenza fra le voci e le rispettive etichette si dice codice; l'attività di trasformazione delle prime nelle seconde si dice codifica, e codificatore è chi la svolge. Le parti specifiche della definizione operativa, il cui contenuto varia da proprietà a proprietà, sono innestate su un tessuto di regole generali, che variano a seconda della tecnica usata per raccogliere le informazioni, ma si possono considerare comuni a tutte le proprietà registrate mediante la stessa tecnica. Trattandosi di tecniche generali, il ricercatore non ha bisogno di richiamarle esplicitamente per ogni proprietà che intende registrare; tuttavia, la loro presenza rende possibile la ricerca, e il loro stato di sviluppo contribuisce in modo decisivo a determinare la qualità del lavoro.

La necessità di definire operativamente le proprietà che si studiano è un aspetto caratteristico dell'attività scientifica: solamente dopo che si è stabilita una catena di operazioni attraverso le quali lo stato di una serie di oggetti sulle proprietà X, Y, e Z viene rilevato, classificato e registrato, abbiamo compiuto un passo decisivo per ridurre l'opinabilità delle nostre affermazioni su:

La distribuzione dei vari stati delle proprietà X, Y e Z fra gli oggetti che studiamo;

Le relazioni fra gli stati della proprietà X e quelli della proprietà Y, eventualmente tenendo conto degli stati della proprietà Z.

Si è parlato di "ridurre l'opinabilità delle" anziché di "conferire certezza alle" nostre affermazioni per tre ordini di motivi:

  1. Nulla ci garantisce che le operazioni prescritte dalla nostra definizione ci permettano di cogliere effettivamente quella proprietà che intendiamo studiare, e non qualcos'altro. Non c'è niente, nel concetto di una proprietà, che detti univocamente le procedure con cui registrarne gli stati. Le definizioni operative, così come i termini e i concetti stessi, non sono né vere né false. Alcune definizioni operative si possono dire convenzionali perché frutto di accordo intersoggetti ma non per questo oggettivamente vere.
  2. Anche se la definizione operativa nel suo complesso ci permette di cogliere con ragionevole approssimazione la proprietà che intendiamo studiare, è possibile che alcune sue parti specifiche introducano pesanti distorsioni nella registrazione degli stati effettivi di alcuni casi sulla proprietà in questione. L'elenco degli stati che il ricercatore ritiene rilevanti può essere lacunoso o può introdurre semplificazioni troppo brutali, ad esempio.
  3. Le operazioni prescritte dalla definizione devono essere materialmente eseguite da qualcuno, che può commettere errori per distrazione, incomprensione della lettera o dello spirito delle istruzioni e mille altri motivi (errore di stampa, tono di voce tendenzioso, ritmo sbrigativo, interviste inventate).

Anche la definizione operativa dell'unità è tutt'altro che indenne da errori e distorsioni. Le procedure di selezione dei casi possono essere mal eseguite, per incomprensione o dolo. Particolarmente frequente sono gli errori materiali, come sbagliare riga o colonna sia nel rilevare il dato sia nel trascriverlo oppure sbagliare nell'eseguire anche delle semplici operazioni matematiche. A questa casistica di distorsioni prodotte da sviste o da scarsa coscienza professionale, si devono aggiungere le inevitabili distorsioni derivanti da insufficiente abilità nel seguire le istruzioni. Alcuni di questi errori potrebbero essere in larga misura individuati e corretti se più tempo e risorse fossero investiti in accurati controlli. In tal modo si contrabbandano come "scientifiche" conclusioni basate su dati gravemente viziati all'origine. Il grado di accuratezza con cui si cerca di rilevare e correggere gli errori è una delle parti implicite delle definizione operativa. Gli errori stessi, invece, a stretto rigore non ne fanno parte; essi tuttavia hanno un'incidenza che può essere determinante nel risultato cui tale definizione tende.

III.     La matrice dei dati

Nell'intraprendere una ricerca scientifica si sceglie un certo insieme di oggetti dello stesso tipo (casi) e si registra il loro stato su alcune proprietà, che si sono trasformate in variabili mediante altrettante definizioni operative. Se la registrazione è sistematica, è assai conveniente organizzare l'informazione così raccolta in una matrice dei dati. La matrice ha tante righe quanti sono i casi e tante colonne quante sono le variabili. Nell'intersezione tra un riga e una colonna sta un dato, cioè il valore assegnato a un certo caso su una certa proprietà. In concreto, dato che i valori sono abitualmente costituiti da etichette numeriche, la matrice apparirà come un'incomprensibile distesa di cifre. La matrice contiene solo dei simboli numerici, per il cui significato fa riferimento a due documenti esterni: il tracciato-scheda, che indica la posizione di ogni variabile nella matrice, e il codice, che attribuisce alle cifre un significato a seconda della variabile cui appartengono. Questa prodigiosa capacità di concentrazione fa della matrice dei dati uno strumento concettuale insostituibile per organizzare delle informazioni. Un punto di passaggio quasi obbligato sono le schede perforate a 80 colonne.

IV.     Unità di raccolta e unità di analisi. Tipi di proprietà

È opportuno distinguere l'unità di raccolta (o rilevamento) dei dati dalla unità di analisi (o riferimento). Se le informazioni sono raccolte a un livello inferiore di quello a cui sono riferite si parla di proprietà aggregate, dato che tali proprietà vengono poste in essere aggregando informazioni raccolte su unità di tipo diverso da quelle a cui vengono riferite.Caratteristica delle proprietà aggregate è di essere rilevate sulle parti, e riferite all'intero (se parte è l'individuo, intero possono essere la famiglia, la provincia, lo stato.). È possibile anche che, con il processo inverso, una proprietà rilevata sull'intero sia riferita a una parte: si parla in questo caso di proprietà contestuali

Quando unità è l'individuo, nelle scienze sociali non si danno proprietà aggregate, perché non sono pensabili unità di rilevamento che siano parti rispetto all'intero-individuo. Sono molto importanti, invece, le proprietà contestuali: il numero dei membri della sua famiglia, il prestigio della sua professione, le dimensioni del comune in cui risiede. Altrettanto importanti sono le proprietà rilevate a livello individuale, ma su individui diversi da quello che è il 'caso' in quella ricerca: il partito preferito dal padre, il grado di religiosità della madre e così via. Esistono anche le proprietà comparative (un caso è classificato in rapporto ad altri casi) e le proprietà relazionali (un caso è classificato sulla base dei rapporti che intrattiene con altri casi).

La terminologia relativa al settore non è per niente in ordine, perché non esiste neppure un termine generale per designare proprietà riferite allo stesso caso sul quale sono rilevate: quando le unità sono 'collettivi', Lazarsfeld e Menzel parlano di proprietà globali

È da sottolineare che in una matrice dei dati l'unità di analisi dev'essere sempre la stessa. Invece, proprietà di tutti i tipi descritti (aggregate, globali, contestuali, etc.) possono susseguirsi in qualsiasi ordine come variabili della stessa matrice.

In mancanza di indicazioni contrarie, tutte le variabili di una matrice si intendono rilevate allo stesso tempo, anche se alcune sono evidentemente riferite a tempi diversi dalla altre. Nulla impedisce che si tornino a rilevare le stesse proprietà e/o altre proprietà degli stessi casi in tempi successivi. Quando la tecnica è l'intervista, si dice che questi casi costituiscono un panel. Con queste ricerca si cerca di ricostruire un processo diacronico mediante la giustapposizione di una serie di istantanee, di solito in numero assai limitato e divise da ampi intervalli.

In modi più soddisfacente è possibile ricostruire il flusso diacronico quando le proprietà che rileviamo sono riferibili senza forzature a un intervallo temporale piuttosto ampio (come il reddito totale di una famiglia in un anno). In tal caso si possono giustapporre gli intervalli temporali senza soluzione di continuità. Proprietà di questo tipo sono rilevate con riferimento a stati ed altre unità territoriali più frequentemente che a individui e la relativa matrice ha di solito pochi casi e molte variabili costituite dalle stesse proprietà riferite a una serie di anni successivi (dette tecnicamente time series

V.       Cenni storici sui concetti di matrice dei dati, variabile e definizione operativa

Il concetto di matrice dei dati nasce all'inizio dell'800 fra gli studiosi dell'università di Gottinga. Il concetto di variabile usato dai matematici è assai diverso dal concetto di variabile in uso nelle scienze sociali. Inoltre il termine 'variabile' è fuorviante, perché fa pensare a una proprietà il cui stato può essere fatto variare a piacere dal ricercatore, cioè a una situazione sperimentale. Assai più adeguato sarebbe il termine variate (variata).

Il concetto di definizione operativa nasce in fisica (fine '700, i fisici cercano di accordarsi su alcune "definizioni operative"). Nel 1927 il fisico Bridgman afferma che:

a)   per un concetto non si intende in realtà che un gruppo di operazioni;

b)   se non è possibile farli coincidere con una serie di operazioni, i concetti sono privi di significato;

c)   se abbiamo più serie di operazioni diverse, abbiamo anche più concetti, e dovrebbe esserci un termine differente per designare ciascuna serie.

Bridgman abbandonerà questa posizione nel 1950, annacquando inoltre anche la sua tesi fondamentale col precisare che per operazioni erano da intendere anche quelle mentali. In realtà il concetto generale, a monte, indica quali operazioni e strumenti siano opportuni nelle varie situazioni; il che fa giustizia anche delle tesi a) e c), intese letteralmente. La tesi a) appare invece fondata se la si reinterpreta come una ammonizione a non conferire a un concetto, una volta operativizzato, contenuti semantici più ampi di quelli consentiti dalle operazioni stesse.

"Le definizioni operative non escludono affatto le definizioni 'verbali', ma hanno la virtù di specificare sempre esattamente ciò che includono e ciò che non includono, e aggiunge che la misurazione è solo una delle possibili forme di definizione operativa" (Lundberg 1942).

Malgrado le resistenze e le riserve, la funzione delle definizioni operative è generalmente riconosciuta nelle scienze sociali. Tuttavia, per le scienze sociali, intersoggettività e ripetibilità sono un traguardo lontano, al quale si tende tra difficoltà di ogni genere.


Gli indicatori (p. 32)

"Molti concetti di grande importanza teorica non possono essere definiti in modo soddisfacente mediante una specifica operazione di misura" (Przeworski e Teune, 1970). Tali concetti sono così generali che il ricercatore non trova, nella loro intensione, spunti sufficienti per fissare una definizione operativa: il dislivello semantico fra essi e le operazioni concrete è troppo ampio per essere coperto in un solo passaggio. È necessario scendere uno o più gradini nella scala di astrazione per trovare un concetto i cui attributi suggeriscano direttamente una serie di operazioni.

Si possono considerare gli stati indicativi degli stati della proprietà più generale istituendo un rapporto di indicazione, o rappresentazione semantica, fra il concetto che ha suggerito la definizione operativa e uno dei concetti troppo generali per suggerirla. Tale rapporto, stabilito in base ai significati sociali dei concetti interessati, fa del concetto più specifico un indicatore del concetto più generale (vedi figure 2, 3, 4 a pagina 34). Grazie a questo rapporto di rappresentanza semantica, gli stati degli oggetti sulla proprietà A vengono registrati mediante la definizione operativa del suo indicatore, la proprietà B.

Di solito il ricercatore prima stabilisce i concetti generali che gli interessano, poi ne cerca gli indicatori, e infine dà una definizione operativa di ciascun operatore. Ma può anche accadere che il rapporto di indicazione sia stabilito dopo la definizione operativa: accade assai di frequente, in particolare nell'analisi secondaria, cioè allorché un ricercatore analizza dati raccolti da un altro ricercatore.

I.       Il rapporto di indicazione: natura stipulativa e dipendenza dal contesto

Si possono trovare molteplici indicatori dello stesso concetto generale. Di converso, un concetto che suggerisce direttamente una definizione operativa, oltre che essere considerato interessante di per se stesso, può esser messo in rapporto di rappresentanza semantica con più di un concetto generale, perché può appartenere a innumerevoli scale di astrazione diverse. Questa elasticità di rapporti semantici fra concetti a livelli di generalità diversi non dipende affatto dallo stato di sviluppo di una disciplina.

A seconda del livello dell'unità di analisi, un concetto specifico può essere fondatamente considerato indicatore di due concetti generali di contenuto semantico assai diverso e magari opposto. Questi divergenti rapporti di indicazione del concetto in questione a seconda del livello dell'unità è stata confermata dall'analisi fattoriale. Più ovvio è il fatto che il contenuto semantico di un concetto, e quindi il suo legame con altri concetti più generali, è diverso a seconda dei contesti sociali. Un esempio classico è il tasso di partecipazione elettorale.

II.   Validità e attendibilità

Se il problema della non-univocità del legame fra concetti generali e indicatori è macroscopico quando si comparano contesti sociali o livelli di analisi diversi, esso naturalmente sussiste anche all'interno di ogni singolo contesto e livello di analisi. "Ogni indicatore possiede un carattere specifico e non deve mai esser considerato completamente rappresentativo" di un altro concetto (Lazarsfeld 1969).

La parte indicante è la parte dell'estensione di I che ne fa un plausibile indicatore di A. La parte estranea è la parte dell'estensione di I che è estranea rispetto al rapporto semantico fra I e A che ci interessa al momento. Pertanto, se cerchiamo indicatori di un concetto A, dobbiamo orientarci verso concetti che abbiano, rispetto ad A, la parte indicante più ampia, e la parte estranea meno ampia possibile (i più validi). Dovendo scegliere, ci si vale della conoscenza del contesto oppure, soluzione assai peggiore, si ricalcano le scelte già fate da altri ricercatori. L'esperienza di ricerca può fornire un orientamento, che consiste nel dare un particolare peso, nella nostra valutazione, alla parte estranea. Nella scelta degli indicatori si devono scontare anche i problemi di attendibilità che si incontreranno al momento di darne una definizione operativa.

L'attendibilità o affidabilità (reliability) è una proprietà del rapporto fra il concetto che ha suggerito la definizione operativa e gli esiti effettivi delle operazioni che tale definizione prevede. Essa è tanto più alta quanto più fedelmente, attraverso la definizione operativa, si riescono a registrare gli stati effettivi degli oggetti sulla proprietà che si studia. La validità, invece, è una proprietà del rapporto fra un concetto generale e il suo indicatore. Per apprezzare la validità si deve tenere conto anche dell'attendibilità.

Più che alla valutazione a priori di validità e attendibilità, la letteratura metodologica ha dedicato grande spazio a una loro valutazione a posteriori. A mio avviso, la validità non è misurabile perché non è possibile misurare la parte indicante. Ciò che è possibile misurare è il grado di corrispondenza fra due registrazioni, che può essere, a seconda dei casi, un indizio più o meno convincente di attendibilità e/o validità.

Valuteremo qui i criteri che presuppongono un solo indicatore dello stesso concetto. Il più noto di questi è il cosiddetto test-retest reliability, che consiste nel somministrare due volte lo stesso stimolo agli stessi individui e misurare la correlazione fra le risposte date nelle due occasioni. Più alta è questa correlazione, maggiore sarebbe l'attendibilità della definizione operativa, in quanto capace di registrare il "vero" stato del soggetto. Ma il fatto che la registrazione sia conforme in due occasioni successive non garantisce che essa sia conforme alla realtà (il soggetto vuole mostrarsi coerente, il primo esame ha funzionato da esercizio, ecc.). Questi effetti di ricordo o di apprendimento sono ridotti se l'intervallo fra le due registrazioni è sufficientemente ampio; ma in tal caso si accresce la possibilità che sia intervenuto un effettivo cambiamento nello stato del soggetto.

Per quanto riguarda la validità, gli psicologi parlano di criterion-related validation quando un supposto indicatore del concetto A è correlato con qualche altro indicatore, già accettato come valido, dello stesso concetto. Ma indicatori del genere non sono certo facilmente disponibili. Più interessante la construct validation, che consiste nel valutare le relazioni del supposto indicatore del concetto A con supposti indicatori di altri concetti. Si tratta di indicazioni, non di misure; tuttavia in certi casi possono risultare piuttosto convincenti.

Non è detto che i controlli della validità degli indicatori e dell'attendibilità delle definizioni operative debbano avvenire a tavolino, mediante strumenti statistici (le correlazioni) o riflessioni teoriche. Esistono anche forme di controllo di attendibilità "sul campo", ma sono spesso inapplicabili a molte variabili.

III.     Pluralità e congruenza degli indicatori

La parte indicante dell'indicatore I è in corrispondenza semantica con un aspetto, sia pure importante, del concetto generale A. Se è possibile trovare altri indicatori per altri aspetti, la copertura semantica di A ne risulterà migliore; se non è possibile, si dovrà ridefinire A in modo da escluderne gli aspetti che non corrispondono all'indicatore I, cioè sostituire A con A', collocato a un livello più basso nella stessa scala di astrazione.

Solo cercando un indicatore per ciascuno dei suoi aspetti che riteniamo fondamentali si può evitare di ridurre la generalità di un concetto; evitando di identificare un concetto con uno solo dei suoi possibili indicatori, ci rendiamo inoltre meglio conto della sua autonomia nei confronti di ciascuno di essi. Oltre ad essere semanticamente doverosa, questa procedura presenta il vantaggio tecnico di ridurre le conseguenze degli errori di registrazione.

Dopo aver distinto analiticamente i vari aspetti di un concetto rappresentando ciascuno con un indicatore, l'unità del concetto va ricomposta combinando i vari indicatori in un indice. L'indice diviene una nuova colonna della matrice dati e la sua definizione operativa è appunto la formula logico-matematica con cui lo si crea a partire dagli indicatori, più le definizioni operative di tutti gli indicatori. La definizione operativa dell'indice vale anche per il concetto, che viene trasformato così in una variabile.

Il termine batteria si usa quando per un gruppo di domande che si susseguono in un questionario la definizione operativa prevede le stesse modalità di risposta.

La congruenza interna di un gruppo di indicatori è una proprietà intermedia fra attendibilità e validità; a differenza di entrambe queste ultime, può essere misurata, dato che non fa riferimento a qualcosa di esterno alla matrice dei dati. Per lo stesso motivo, però, può essere un indizio, più o meno convincente, di validità, ma non certo una prova. Se un certo numero di variabili risultano congruenti, ciò può derivare dal realizzarsi congiunto di due condizioni:

a)      le variabili sono indicatori dello stesso concetto, e

b)      le loro definizioni operative registrano la realtà in modo attendibile.

Se le variabili sono congruenti, a) e b) possono essere solo ambedue vere, o ambedue false.

Dall'analisi della congruenza interna degli indicatori si può ricavare qualcosa di assai più utile di una misura di attendibilità per l'intera batteria, e cioè un criterio per individuare ed eliminare gli indicatori meno congruenti con gli altri (per questo problema sono stata proposte soluzioni tecniche dette item analysis).

I primi a mettere a fuoco il fatto che nella congruenza interna di un gruppo di indicatori (e in particolare di una batteria) l'aspetto attendibilità e l'aspetto validità sono inestricabilmente legati sono stati Campbell e Fiske (1959). Dato il concetto A, se ne dovrebbero scegliere degli indicatori tali da poter essere registrati con definizioni operative quanto più possibile diverse l'una dall'altra validazione convergente e validazione discriminante.

Al di là della validità di certi indicatori, è la stessa capacità delle scienze sociali di conoscere il proprio oggetto senza alterarlo che così è messa in questione. La definizione operativa appare non più una maniera di registrare gli stati degli oggetti su una certa proprietà, ma un meccanismo che contribuisce a creare gli stati che registra. Ben poche ricerche si sono adeguate alla richiesta di dare definizioni operative quanto più differenti possibile degli indicatori dello stesso concetto.


Classificazione, misurazione e conteggio (p. 43)

La misurazione è possibile solo in quanto è preceduta e seguita da atti di natura classificatoria. Tale argomentazione parte dalla premessa che, a seconda della natura della proprietà in questione, la definizione operativa ha tre modi alternativi per assegnare un valore allo stato di un oggetto sulla proprietà stessa.

Alcune proprietà consistono nel possesso di, o nella relazione con, un certo numero di oggetti. Per queste proprietà la definizione operativa ordinerà di contare gli oggetti posseduti da ogni caso. Si può denominare conteggio.

Altre proprietà possono esser pensate come un continuum, sul quale ogni caso occupa una data posizione, corrispondente a un numero reale. La definizione operativa dovrà dividere il continuum in categorie discrete e assegnare a ciascun caso il valore che corrisponde alla categoria in cui chi compie le operazioni concrete giudica che il caso vada a cadere. È noto come misurazione, ma a rigore consiste in una classificazione a più una misurazione più una classificazione c

Per tutte le altre proprietà, la definizione operativa dovrà dividere l'estensione del relativo concetto in categorie (es. tipo di occupazione) e assegnare a ciascun caso il valore che corrisponde alla categoria alla quale chi compie le operazioni concrete giudica che il caso appartenga. È noto come classificazione, ma a rigore consiste in una classificazione a seguita da una classificazione c

I. La classificazione

Intenderemo per classificazione a l'operazione intellettuale con cui l'estensione di un concetto è divisa, rispettando alcune regole, in un certo numero di classi o categorie. Intenderemo per classificazione b l'elenco di tali classi, cioè il risultato della classificazione a. Intenderemo per classificazione c il procedimento con cui ogni singolo oggetto di un insieme è assegnato ad una delle classi della classificazione.

Le regole da seguire in una classificazione, e quindi i requisiti di una classificazione b, secondo la logica classica, erano tre:

esaustività dell'insieme delle categorie (ogni caso dev'essere attribuito a una classe);

mutua esclusività delle categorie (nessun caso dev'essere attribuito a più di una classe)

fundamentum divisionis (l'attribuzione deve basarsi su un unico criterio).

In una ricerca, è la definizione operativa che garantisce la mutua esclusività delle categorie, vietando l'attribuzione a un caso di più di un valore sulla stessa variabile. Più ampio è il margine di scelta, più è probabile che lo stato di un caso su una proprietà appaia assegnabile con pari fondatezza a due categorie. Ma una scelta dev'essere comunque compiuta.

Categorie residuali come "inclassificabile" e "altro" sono voci legittime di un classificazione b; in loro assenza, il requisito di esaustività del complesso delle categorie potrebbe rendere oltremodo arduo il procedimento di classificazione a, data la grande varietà dei fenomeni concreti, e provocherebbe molte distorsioni nella fase di classificazione c. Altrettanto legittime sono le categorie che garantiscono l'esaustività anche quando non è rilevabile alcuno stato del caso sulla proprietà in questione, o perché mancano le informazioni nella fonte ("manca il dato") o perché il soggetto "non sa", "non risponde", non si sottopone al test, etc.

Se i dati mancanti risultano troppi, se ne può derivare la conclusione che qualche segmento della definizione operativa è difettoso oppure che la proprietà che si sta registrando è estranea a molti dei soggetti. Invece, non è possibile in linea di principio attribuire alcun significato alla categoria residuale, che aggrega sotto la stessa etichetta gli stati più diversi, con l'unica caratteristica comune di non essere stati specificamente previsti in sede di classificazione a. Destinare troppi casi alla categoria residuale è quindi un modo di operare male una classificazione a.

L'uguale livello di astrazione delle categorie è violato assai di frequente, senza alcuna conseguenza negativa a condizione che la mutua esclusività sia rispettata.

Oltre alla rilevanza delle divisioni operate per la ricerca in atto, nel costruire una classificazione b si deve tenere conto anche del numero dei casi che prevedibilmente saranno assegnati a ciascuna classe.

II.   Conteggio e misurazione

Le scale cardinali scavalcano la fondamentale distinzione fra proprietà discrete e proprietà continue, quindi fra misurazione e conteggio; le scale a intervalli non sono logicamente distinguibili dalle cardinali, e le scale nominali sono una contraddizione in termini.

Le scale cardinali (ratio scales) hanno due requisiti: esistenza di un'unità di misura e presenza di un punto zero, corrispondente all'assenza della proprietà studiata.

Una proprietà è discreta quando consiste nel possesso di un certo numero di oggetti. In tal caso, l'unità di misura non è definita convenzionalmente, ma esiste in natura. A mio avviso, ci sono sufficienti motivi per considerare il conteggio una forma specifica di assegnazione di valori, distinguendolo dalla misurazione con cui ha in comune solo il fatto che la misurazione usa spesso la stessa classificazione b

La classificazione a interviene ogniqualvolta la definizione operativa prevede che i risultati del conteggio non siano registrati direttamente, ma subiscano un'elaborazione di qualche genere. Il confronto fra due proprietà discrete produce una proprietà continua, che assume un numero infinito di cifre; la classificazione a dovrà quindi intervenire a stabilire se e quante cifre decimali si registrano, e le regole di arrotondamento.

Se la sfera di pertinenza del conteggio sono le proprietà discrete, la sfera della misurazione sono le proprietà continue, cioè quelle che variano non "per quanti" ma per incrementi infinitesimali. In tal caso, l'unità di misura non esiste in natura, ma dev'essere definita convenzionalmente. Questa operazione è il necessario preliminare di ogni misurazione; la chiameremo pertanto misurazione a. Le operazioni con cui l'unità di misura scelta per la proprietà X viene confrontata con l'ammontare della proprietà X posseduto dai vari casi sono atti che chiameremo di misurazione. Il confine fra esiti ammessi ed esiti esclusi viene stabilito in via generale ad opera di una classificazione a. Anche quando le proprietà sono continue, le variabili che le registrano non possono che essere discrete (perché variano "per quanti").

La misurazione si scompone in quattro distinte operazioni: si stabilisce un'unità di misura (misurazione a), si decide quante cifre registrare e come arrotondare (classificazione a), si confronta l'unità di misura con l'ammontare della proprietà nel singolo caso (misurazione c), e si trasforma l'esito della precedente operazione nel numero registrabile corrispondente (classificazione c

III.     Sulle cosiddette "scale a intervalli"

Le scale a intervalli sono caratterizzate dall'uguaglianza degli intervalli (e di conseguenza da un'unità di misura che permetta di stabilire tale uguaglianza) e dall'assenza di un punto zero, assenza che la distinguerebbe da una scala cardinale. Ma "la differenza fra scala a intervalli e scala cardinale è puramente teorica, in quanto è molto difficile trovare una scala a intervalli che non sia anche una scala cardinale" (Blalock 1970).

La differenza tra scale ordinali e scale a intervalli si rivela solo apparente anche se analizziamo da vicino un altro aspetto spesso richiamato dai testi di metodologia, e cioè il fatto che è corretto calcolare la differenza fra due valori di una scala a intervalli, ma è scorretto calcolare il loro rapporto: non si può dire che "20° C è un caldo doppio di 10° C". Il rapporto è calcolabile solo fra i valori di una scala cardinale. Tuttavia è legittimo calcolare il rapporto tra due intervalli su una scala a intervalli. Se è così, anche quando calcoliamo il rapporto tra due valori di una scala cardinale, quelli che confrontiamo sono in realtà gli intervalli fra due coppie di punti. Le due situazioni sono logicamente identiche.

Dal punto di vista dell'analisi dei dati, poi, la presenza o meno di un vero punto zero è del tutto irrilevante: tutte le tecniche statistiche ignorano l'origine del continuum, sia essa assoluta o convenzionale, e fanno coincidere il punto zero con la media della distribuzione empirica dei punteggi, trasformando il punteggio attribuito a ciascun soggetto in uno scostamento dalla media.

Un aspetto sostanziale delle tecniche abituali delle scienze sociali è la loro necessità della collaborazione da parte degli oggetti misurati. Non solo li individui studiati devono collaborare alla misurazione dei loro stati sulle varie proprietà (misurazione c), ma alcuni individui devono aver collaborato alla costruzione dell'unità di misura (misurazione a). Trasformare la questione sostanziale del rapporto fra ricercatore e oggetto studiato in una questione formale, logicamente infondata, di presenza o meno del punto zero, è quindi uno dei modi in cui si manifesta il rifiuto di prendere atto della diversità epistemologica fra scienze fisiche e scienze sociali, per timore che tale riconoscimento metta in forse lo status scientifico delle seconde.

IV.     Scale ordinali o scale con categorie ordinate?

"Si ha un livello cardinale di misurazione quando l'ammontare della proprietà X posseduto da un oggetto è confrontato con l'unità di misura della stessa proprietà X, e l'esito del confronto è un numero reale. Si ha invece un livello ordinale quando, in assenza di unità di misura, l'ammontare della proprietà X posseduto dall'oggetto A è confrontato con l'ammontare della proprietà X posseduto dall'oggetto B, e l'esito del confronto è un giudizio di maggiore/uguale/minore" (Campbell 1928).

La definizione adottata nella gran parte dei testi presenta u netto divario rispetto alla pratica della ricerca, che usa come ordinali scale in cui sono le categorie, non i casi, ad essere confrontate in termini di maggiore o minore possesso della proprietà misurata. Tufte parla di categorie ordinate, cioè disposte in ordine lungo un continuum.

Si ha rapporto monotonico quando l'ordine delle etichette numeriche non contraddice l'ordine delle categorie. Se l'ampiezza dei segmenti corrispondenti alle categorie è uguale, assegnando la serie dei numeri naturali (1, 2, 3, 4.) si crea un rapporto lineare oltre che monotonico. In ogni caso, purché le etichette numeriche siano assegnate creando un rapporto monotonico con l'ordine delle categorie, la scelta di questa o quella serie di etichette non ha effetti molto sensibili sul livello dei coefficienti che misurano le relazioni fra variabili. Ciò vale finché il numero delle categorie è sufficientemente ampio; altrimenti il livello dei coefficienti statistici decresce sensibilmente, il che è un ovvio indizio di distorsione.

Le differenze fra scale ordinali , a intervalli e ordinali si riducono in fondo a un grado decrescente di sicurezza con cui conosciamo l'effettiva ampiezza dei segmenti su un continuum, cui corrisponde una crescente importanza delle conoscenze sostanziali del ricercatore nello stimare tale ampiezza.


Distorsioni introdotte classificando e misurando (p. 55)

Riguardo alla questione dell'attendibilità, "registrare fedelmente" è un'espressione sintetica che sta per "registrare con il minor grado possibile di distorsione". Il grado di distorsione non può essere misurato, ma soltanto stimato, in base a considerazioni che si presentano notevolmente diverse a seconda del tipo di proprietà in questione.

Alcuni esperimenti sembrano indicare che il numero massimo di alternative che l'individuo medio riesce a valutare contemporaneamente è sette, ma è ragionevole collocare tale limite massimo ancora più in basso, attorno alle 4 o 5 alternative. In fase di classificazione a il ricercatore si trova comunque di fronte al problema di ridurre una varietà potenzialmente amplissima di stati su una determinata proprietà ad un piccolo numero di categorie. Ma quella che è una buona classificazione b per un ricercatore può non andare altrettanto bene per un altro. In altre parole, la distorsione che una classificazione b può introdurre non solo non è misurabile, ma non può nemmeno esser valutata in assoluto senza fare riferimento agli scopi della ricerca che la utilizza. Ciò è vero in particolare quando le categorie hanno autonomia semantica, cioè sono comprensibili anche senza far riferimento al concetto più generale di cui sono specificazioni.

Se la proprietà che si studia può esser considerata un continuum che la classificazione a divide in segmenti adiacenti, le possibilità di distorsione sono molto diverse a seconda del modo in cui tale divisione è operata. Se ci si può valere di un'unità di misura che non presuppone la collaborazione degli oggetti misurati, problemi di distorsione possono sorgere solo se le categorie stabilite sono troppo ampie.

Un problema assai più grave dell'ampiezza delle categorie si pone allorché l'unità di misura è stabilita dagli stessi soggetti studiati (scale auto-ancorate). Il punteggio dato dall'individuo i può essere scomposto nella sua tendenza a dare punteggi alti o bassi indipendentemente dall'oggetto, la valutazione data all'oggetto (depurata di detta tendenza) e in altri fattori contingenti. Attraverso la procedura detta deflazione si può eliminare la tendenza a dare punteggi alti o bassi, ma non si possono eliminare gli altri fattori contingenti. La deflazione è tanto meno legittima ed efficace quanto più ristretto è l'arco dei punteggi possibili e, soprattutto, quanto minore è il numero di scale dello stesso tipo riunite in batteria. D'altra parte, più alto è il numero delle domande in una batteria, più cresce il pericolo che le risposte siano date in maniera ripetitiva, senza prestare attenzione allo specifico contenuto della domanda. Questa forma di distorsione è la più grave e diffusa quando i dati sono raccolti tramite intervista.

I.       Scale con categorie ordinate

Quando il continuum con cui si rappresenta la proprietà viene diviso in segmenti senza l'ausilio di un'unità di misura, ma semplicemente disponendo sul continuum stesso un certo numero di categorie, i pericoli di distorsione sono talmente acuti da meritare una trattazione a parte. Alle distorsioni implicite si aggiungono quelle comportate dal fatto che è il ricercatore stesso a collocare a suo giudizio la categoria in una posizione sul continuum nel momento in cui gli attribuisce una etichetta numerica.

Se tutti gli individui scegliessero la categoria a loro più vicina sul continuum, la distorsione totale sarebbe la somma delle distanze di ciascun individuo dalla categoria più vicina. In realtà, la distorsione è più alta, perché per vari motivi molti non scelgono la categoria più vicina. La distorsione è in linea di principio tanto maggiore quanto più ridotto il numero delle categorie. Il massimo di distorsione si ha allorché una proprietà rappresentabile su un continuum è ridotta a uno stato dicotomico, come quando si chiede agli intervistati se sono pro o contro un dato oggetto.

Le dicotomie hanno inoltre il difetto di massimizzare le conseguenze di errori materiali commessi da intervistatori e codificatori: se i valori possibili sono solo due, un errore trasforma automaticamente lo stato di un individuo nello stato opposto. Se due proprietà continue sono registrate con due dicotomie, non è possibile distinguere se tra loro esiste una relazione curvilinea oppure lineare. Naturalmente questi svantaggi tecnici non possono essere evitati se la proprietà è effettivamente dicotomica, come il sesso.

La naturale soluzione al problema delle distorsioni parrebbe consistere nell'adozione di un numero molto più ampio di categorie. Ma ciò urta contro la limitata capacità di valutare più alternative contemporaneamente. Se le alternative superano quel limite, l'interrogato non è effettivamente in grado di considerarle tutte quando sceglie. Si potrebbe ovviare a questo con la tecnica del doppio elenco (Kistelski 1978). La stessa difficoltà si manifesta anche quando vengono registrate le risposte spontanee degli intervistati anziché chiedere loro di scegliere fra alternative pre-codificate, e in seguito si raggruppano tali risposte in un certo numero di categorie, operando cioè una classificazione a ex post anziché preventivamente. In tal caso accade spesso di costituire troppe categorie.

Non è semplice quindi trovare il numero ideale di categorie da ordinare, tanto più che la quantità di distorsione dipende non solo dal numero, ma anche dal grado di corrispondenza fra le posizioni delle categorie e la distribuzione delle posizioni individuali.

Al momento di attribuire alle categorie un'etichetta numerica, la posizione individuale può subire un nuovo sensibile spostamento in quanto è tutta la categoria che viene spostata; tale spostamento può riavvicinarla alla sua situazione originaria, ma può anche allontanarla ulteriormente. Nell'assegnare le etichette numeriche si dovrebbe cercare di riprodurre la distanza effettiva fra le categorie, utilizzando le nostre conoscenze sostanziali e, se la proprietà in questione è usata come indicatore, tenendo principalmente presente il concetto generale. Tuttavia la maggior parte dei ricercatori ritiene soggettivo far ricorso alle proprie conoscenze sostanziali, e assegna come etichette la sequenza dei numeri interi, come se questa fosse una scelta meno arbitraria di una qualsiasi altra. In particolare, la serie dei numeri interi è adottata dallo strumento attualmente più usato per la registrazione di opinioni, atteggiamenti e valori, la scala Likert

Un altro serio problema di attendibilità deriva dal fatto che dette le scale di Likert vengono quasi sempre sottoposte agli intervistati non isolatamente ma in lunghe batterie. Non c'è da stupirsi se il malcapitato finisce per rispondere meccanicamente, senza fare alcuna attenzione al contenuto delle specifiche domande. Le batterie piene di "d'accordo" indipendentemente dal contenuto delle domande hanno ricevuto un nome: response set (insieme di risposte, sottinteso uguali). È stata anche escogitata una semplice tecnica per distinguere i "d'accordo" meccanici da quelli che effettivamente rispecchiano il pensiero del soggetto. Consiste nell'inserire in una batteria alcune domande a polarità invertita.

Le categorie delle scale Likert mancano di autonomia semantica. È questo fatto a render possibile la curvilinearità: se la categoria è semanticamente autonoma, cioè è un'affermazione di senso compiuto, è assai più difficile che venga disapprovata da due persone per motivi opposti. Questa mancanza rende inoltre possibile la costruzione di batterie, cioè di sequenze di domande che condividono lo stesso modello di risposta. Il fenomeno dei response set è legato alle batterie, e non è pensabile al di fuori di esse.

II.      Scale con categorie semanticamente autonome

La mancanza di autonomia semantica della categorie comporta però anche il vantaggio della facile ordinabilità delle categorie stesse lungo un continuum. Invece, l'ordine è tutt'altro che scontato quando le categorie sono semanticamente autonome. Ordinabilità e autonomia semantica stanno in relazione inversa. Per ordinare su un continuum categorie semanticamente autonome, il ricercatore può scegliere di fare esclusivo affidamento sulle proprie conoscenze sostanziali.

Thurstone per primo pensò di concepire valori, atteggiamenti e altre proprietà psichiche come dei continua. Osservò peraltro che l'ordine delle categorie non doveva essere stabilito dai ricercatori, ma desunto dalle risposte stesse. Sia la Paired Comparison che la Rank Order (due tecniche ideate da Thurstone) non chiarivano come assegnare agli individui una posizione sul continuum. Sia questo difetto, sia l'eccessiva macchinosità sono invece assenti nella più nota delle tecniche proposte da Thurstone, la Equal Appearing Intervals (nella quale si facevano porre da un centinaio di "giudici" popolari dove porre undici landmarks per dividere il segmento in dieci intervalli uguali). A nostro avviso, il fatto di consentire all'intervistato di segnare tutte le affermazioni con cui è d'accordo rende questa tecnica vulnerabile ai response set. Se questo dilemma viene risolto, alla tecnica EAI va ascritto il merito di aver unito l'autonomia semantica delle categorie con un criterio per determinare la loro posizione sul continuum che utilizza al meglio le caratteristiche epistemologiche delle scienze sociali.


Esiste una tecnica radicalmente alternativa, proposta da Guttman, per ordinare su un continuum categorie semanticamente autonome che si presenta assai più semplice di quelle proposte da Thurstone, a prezzo della rinuncia ad ogni informazione sulla distanza fra le categorie, e soprattutto grazie all'assunto di cumulatività delle categorie stesse (le categorie sono concepite come gradini di una scala di difficoltà). Ciascuna categoria è sottoposta separatamente all'intervistato, chiedendo se l'approva o no. Si contano poi gli "errori", cioè il numero di risposte individuali che violano l'assunto di cumulatività, e si scartano le categorie inappropriate. Se la proporzione di errori resta al di sopra di una certa soglia, se ne trae la conclusione che quel particolare universo semantico non è scalabile, cioè non è unidimensionale. Ma questa valutazione di "scalabilità" non tiene conto del numero di soggetti che approva ciascuna categoria.

Esiste anche un difetto più grave: più alto è il numero delle categorie, più è probabile che, a parità di altre condizioni, si produca un numero di errori sufficiente a far definire "non scalabili" le categorie stesse. Di conseguenza, le scale ricche di categorie, e quindi più informative, vengono eliminate a favore di quelle più povere, in cui le categorie sono poche e magari disposte agli estremi del continuum

La posizione di ogni individuo viene fatta coincidere con quella della categoria più "difficile" fra quelle da lui accettate, a meno che la situazione sia complicata da "errori". In tal caso la tecnica di Guttman può lasciare tale posizione indeterminata. Infine, la tecnica proposta da Guttman è vulnerabile ai response set nella stessa misura della tecnica EAI, e per lo stesso motivo: chiedendo all'intervistato di segnare tutte le affermazioni con cui è d'accordo, anziché di sceglierne una sola, si trasformano le categorie in altrettante domande dicotomiche. Tuttavia, mentre la logica della tecnica EAI non è affatto incompatibile con la scelta di una sola categoria, tale scelta urta contro l'assunto di cumulatività che è alla base della scala di Guttman.


La costruzione degli indici (p. 69)

I criteri che ci guidano nello stabilire quali categorie aggregare (e quindi quali categorie avrà l'indice) sono identici a quelli che guidano la classificazione a: massima omogeneità fra stati inclusi nella stessa categoria, massima differenza fra stati inclusi in categorie diverse. Naturalmente, il punto di riferimento per giudicare omogeneità e differenze è ora il concetto generale, non più i suoi indicatori. Vale anche un altro dei criteri che guidano la classificazione a, e cioè la necessità di evitare squilibri eccessivi nel numero dei casi da assegnare a ciascuna categoria.

Il criterio semantico dell'omogeneità interna delle categorie rispetto al concetto generale è prioritario; tuttavia tale criterio è sufficientemente elastico da poter essere contemperato con il criterio numerico dell'equilibrio nel numero dei casi inclusi in ciascuna categoria. Se gli indicatori da combinare prescindendo dalle etichette numeriche sono più di due, il procedimento è in via di principio lo stesso. Aumentando il numero degli indicatori, e/o delle categorie al loro interno, il controllo intellettuale sul significato della varie combinazioni diventa più labile, e si può finire sommersi dalla proliferazione delle categorie. Questo problema non si pone, invece, se alle etichette numeriche delle categorie attribuiamo le proprietà cardinali dei numeri, sia perché in tal caso l'attenzione semantica si sposta dalla categorie alla variabile, sia perché possiamo servirci di strumenti matematici per combinare le categorie.

Di solito lo strumento finale di tale combinazione è la somma, o più esattamente la media, perché si deve tener conto di eventuali dati mancanti su alcuni indicatori. In casi molto speciali si può usare la moltiplicazione, che ha lo svantaggio tecnico di magnificare le conseguenze di errori materiali in un indicatore.

Le etichette numeriche non possono essere sommate così come stanno. La prima questione da considerare è se, ad avviso del ricercatore, le variabili da combinare sono tutte ugualmente valide come indicatori del concetto generale che interessa. Se il ricercatore ha buoni motivi per ritenere che alcuni indicatori siano più validi e altri meno, deve tenerne conto nella formazione dell'indice, ponderando gli indicatori con i criteri. Il ricercatore deve tener conto di altri tre aspetti: l'orientamento della scala, la sua estensione e la distribuzione empirica dei punteggi lungo la scala stessa. Il rimedio nel caso di indicatori a polarità invertita è semplicissimo: si sommano i punteggi di tutti quelli che hanno la stessa polarità, e si sottraggono i punteggi di tutti gli altri. Anche per le differenti estensioni di scala il rimedio potrebbe essere semplice: dividere ogni punteggio individuale per il massimo punteggio previsto dalla scala, neutralizzando in tal modo l'effetto della differente estensione, perché i punteggi di qualsiasi variabile sarebbero compresi fra un minimo di 0 e un massimo di 1. Tuttavia, si usa abitualmente una tecnica più complessa.

Attraverso una procedura detta standardizzazione si sostituisce il punteggio dell'individuo i sulla variabile A(a) con un nuovo punteggio, detto standard score (z), ottenuto con la formula


z = (a - ã)

s(a)


dove ã è la media dei punteggi di tutti i casi della ricerca sulla variabile A, e s(a) è la standard deviation (scarto quadratico medio), cioè la radice quadrata della media dei quadrati degli scostamenti dei vari a (punteggi individuali) da ã (media dei punteggi). Tutte le variabili sottoposte a questa operazione vengono trasformate in modo da avere media uguale (0) e uguale dispersione (misurata da una standard deviation di 1) dei punteggi attorno alla media. A questo punto l'indice può essere costruito; il punteggio di ciascun individuo sull'indice sarà la somma dei suoi standard score sugli indicatori.

La standardizzazione è un procedimento che non ha niente a che vedere con la validità, e vi si deve ricorrere comunque (o almeno ogni volta in cui gli indicatori hanno scale con estensioni diverse, o punteggi distribuiti in modo sensibilmente diverso). La ponderazione si ottiene moltiplicando i punteggi sui vari indicatori per un coefficiente diverso a seconda della loro supposta validità prima di sommarli per ottenere l'indice. Non dobbiamo temere di compiere un'operazione arbitraria. Ad ogni criterio per stimare la validità corrisponde una tecnica per ponderare il contributo degli indicatori all'indice. Tra le tecniche che selezionano e ponderano gli indicatori sulla base della reciproca congruenza, di gran lunga la più sviluppata e interessante è l'analisi fattoriale.

I.       Il contributo dell'analisi fattoriale alla selezione degli indicatori, alla costruzione degli indici e alla formazione dei concetti

Per un concetto ad alto livello di generalità si cercano di solito più indicatori perché ciascuno di essi ne rappresenta un aspetto. Ciò non vuol dire che tra gli indicatori di uno stesso concetto non ci siano legami semantici. È grazie a questa parte indicante in comune che gli indicatori scelti sono statisticamente correlati. L'analisi fattoriale basa la sua stima della validità sulla seguente inferenza: più alte sono le correlazioni statistiche di un indicatore con gli altri indicatori dello stesso concetto, maggiore sarà la sua parte indicante, e quindi la sua validità. L'indicatore che ha la minore distanza media dagli altri è il più vicino semanticamente al concetto generale, cioè il più valido (vedi fig. 13 a p. 75).

Questa è una descrizione del principio di base del quale viene stimata la validità di ciascun indicatore. Dal punto di vista tecnico, dalla matrice dei dati si ottiene una matrice con i coefficienti di correlazione di ciascun indicatore con ciascun altro (matrice di correlazione); sottoponendo tale matrice a una complessa elaborazione algebrica, si ottiene un vettore di factor loading (pesi fattoriali), che tecnicamente sono coefficienti di correlazione fra ciascun indicatore e un fattore che in un certo senso incarna il concetto generale, e dal punto di vista semantico possono essere considerati stime della validità di ciascun indicatore. Gli indicatori con factor loading notevolmente più bassi degli altri dovrebbero venire scartati come meno validi. In realtà, questa conclusione è plausibile, ma non certa.

Due funzioni dell'analisi fattoriale sono dunque produrre una stima differenziata della validità di ciascun indicatore in un gruppo, e di segnalare se sia consigliabile scartarne qualcuno. È necessario poi usare dei coefficienti che ponderino ciascun indicatore in base al suo contributo semantico specifico, non condiviso con gli altri indicatori. La tecnica calcola anche questi coefficienti, che vengono chiamati factor score coefficient. Naturalmente il factor score coefficient di un indicatore è sempre più basso del suo factor loading, perché una certa porzione della parte indicante è sempre comune con gli altri indicatori. Se il factor score coefficient scende a livelli molto bassi conviene scartare allora questo o questi indicatori. Gli indicatori restanti vengono standardizzati, ponderati con i relativi factor score coefficient, e sommati.

In questo modo, per misurare adeguatamente un concetto generale, inevitabilmente lo modifichiamo, o meglio, modifichiamo l'interpretazione che ne davamo quando abbiamo scelto gli indicatori. D'altra parte, sarebbe peggio se, pur avendo costruito l'indice nel modo detto, rimanessimo ancorati alla nostra interpretazione originaria. Non si può che prendere atto, quindi ,del fatto che nella ricerca empirica i processi di misurazione e i processi di formazione dei concetti interagiscono, che lo si voglia o no.

Nulla vieta al ricercatore di sottoporre ad analisi fattoriale un gruppo di variabili che a suo avviso possono essere indicatori di più di un concetto generale, e lasciare che sia la tecnica stessa a stimare la validità di ciascuna variabile come indicatore di questo o quel concetto. Avremo quindi non più un vettore ma una matrice di factor loading. Il ricercatore sceglierà come indicatori di un concetto generale le variabili che hanno i loading più alti sul fattore che corrisponde a quel concetto.

Dalla funzione di accertare i legami semantici di un gruppo di indicatori con una pluralità di concetti generali ne derivano quindi altre due: una confirmatoria (accertare la possibilità di usare certi concetti nell'interpretazione di certi dati) e una euristica (suggerire eventualmente la possibilità di usare invece altri concetti, che il ricercatore non aveva tenuto presenti). In quest'ultimo caso siamo in presenza di un completo ribaltamento del rapporto abituale fra concetto e indicatore, in cui il primo elemento precede il secondo. Un ribaltamento del genere ha luogo anche nella cosiddetta analisi secondaria


Le relazioni fra variabili (p. 78)

Il metodo di Mill delle covariazioni costituisce il fondamento logico delle tecniche di accertamento delle relazioni fra variabili ogniqualvolta non sia applicabile il metodo sperimentale, ma i dati siano registrati con definizioni operative e organizzati in matrice. Con il metodo delle covariazioni non è accertabile la direzione della relazione. Nella realtà sono possibili tre tipi di relazione fra due proprietà:

Unidirezionale: la proprietà A influenza la proprietà B ma non ne è affatto influenzata (es. l'età).

Bidirezionale asimmetrica: la proprietà A influenza la proprietà B più di quanto ne sia influenzata.

Bidirezionale simmetrica: le due proprietà esercitano influenze reciproche della stessa intensità.

Le relazioni unidirezionali sono più frequenti delle relazioni bidirezionali, e in particolare di quelle simmetriche. Ma sulla base dei dati registrati nella matrice, tutte le relazioni non possono che apparirci bidirezionali simmetriche, cioè del tipo meno frequente nella realtà. Ciò deriva dal fatto che noi ci limitiamo a registrare gli stati delle proprietà, e quindi possiamo solo accertare se tra le variazioni degli stati di due proprietà esista un qualche collegamento. Per stabilire, prescindendo dalle nostre conoscenze sostanziali, se una relazione è uni- o bidirezionale, noi dovremmo poter determinare lo stato della variabile A in una serie di casi, e poi registrare lo stato della variabile B negli stessi casi. Più esattamente dovremmo:

a)   scegliere i casi e registrare i loro stati sulle variabili A e B allo stesso momento;

b)   mutare in un certo modo prestabilito i loro stati sulla variabile A;

c)   lasciare i loro stati sulla variabile B liberi di variare, e tenere invece costanti i loro stati su tutte le altre variabili ritenute rilevanti; questo per tutto il tempo necessario a che i mutamenti introdotti nella variabile A esercitino la loro eventuale influenza sulla variabile B;

d)   trascorso questo tempo, registrare gli stati dei casi sulla variabile B;

e)   ripetere lo stesso procedimento invertendo le parti fra A e B.

La principale differenze epistemologica fra metodo sperimentale e metodo delle covariazioni consiste nel fatto che il secondo, non potendo manipolare gli stati delle proprietà per mutarli in una direzione voluta o per tenerli costanti, non ci consente di fare alcuna affermazione sulla direzione delle relazioni di cui accerta l'esistenza. Sulla base dei dati registrati nella matrice, possiamo solo sapere se fra le variabili A e B esista una relazione, e se sia forte o debole, positiva o negativa.

I. I modelli

I modelli sono rappresentazioni grafiche delle nostre ipotesi sulle relazioni fra due o più variabili. Il modello A B è l'equivalente grafico della frase "si ipotizza che fra la variabile A e la variabile B intercorra una relazione bidirezionale". Data l'impossibilità di distinguere statisticamente fra relazioni bidirezionali simmetriche e asimmetriche, non è stato necessario introdurre simboli grafici diversi per i due tipi.

Il modello A B è l'equivalente grafico delle frase "si ipotizza che fra la variabile A e la variabile B interocorra una relazione e riteniamo che tale relazione sia unidirezionale, nel senso che A influenza B mentre non ne è influenzata.

Qualunque tipo di tecnica usiamo, noi controlliamo solo l'esistenza di una relazione, mentre tutto quello che ne risulta sulla direzione di tale relazione dipende dalla tecnica usata, cioè dal modello.

Nelle scienze sociali, tanto il modello A B quanto il modello A B non escludono affatto che le proprietà A e B siano influenzate da altre proprietà, né che tale influenza risulti da un'analisi statistica, se le altre proprietà sono state incluse nella stessa matrice dei dati. Un modello bivariato è sempre una semplificazione estrema della realtà, perché isola un singolo anello della rete di interrelazioni che legano le proprietà l'una con l'altra. Si deve tuttavia osservare che:

tale semplificazione è comunque un necessario punto di partenza, perché i modelli multivariati si fondano sempre su relazioni bivariate e in esse sono scomponibili;

molto spesso la natura della variabili oggetto di studio non consente di andare gran che oltre le relazioni bivariate.

Un modello bivariato può dare della realtà una rappresentazione non soltanto semplificata, ma anche gravemente distorta (esempio di Lazarsfeld della relazione tra numero di autobotti accorse e danni provocati dall'incendio a Chicago). È perciò da sottolineare l'importanza della conoscenza del contesto, che permette di inserire nel modello le variabili adatte ad ottenere una rappresentazione sufficientemente corretta del fenomeno che ci interessa.

II.   La specificazione del modello

La proprietà che un modello ha di includere, o meno, le variabili rilevanti si chiama specificazione. Essa si persegue operando sugli elementi strutturali di un modello:

a) quali variabili si considerano;

b)    fra quali variabili considerate si stabiliscono relazioni;

c) quali relazioni intendiamo considerare unidirezionali.

Per ogni relazione considerata unidirezionale, definiamo una variabile indipendente (quella che esercita l'influenza) e una dipendente (quella che la riceve). È possibile che la variabile considerata indipendente in una relazione sia considerata dipendente in un'altra relazione dello stesso modello. In tal caso, agli effetti del modello globalmente inteso questa variabile viene chiamata interveniente

Una variabile non è indipendente, interveniente o dipendente per natura, ma è definita tale dal ricercatore nel momento in cui sceglie un dato modello; le variabili incluse in un dato modello sono solo una parte di quelle registrate in una matrice dei dati, e soprattutto sono una porzione infinitesima delle variabili che sarebbero state registrabili. Tutte le variabili non incluse in un modello si dicono costanti; ciò non significa per nulla che lo siano effettivamente. Di conseguenza, quando applicando un modello accertiamo l'esistenza di una relazione, non dobbiamo dimenticare che essa è solo un anello nell'infinita rete di relazioni che legano le variabili del modello con altre, e che alcune di queste relazioni possono essere più importanti di quella che abbiamo scoperto, possono determinarla, e così via. Non sembra possibile isolare alcune maglie della rete di relazioni che collega in tutte le direzioni le proprietà che interessano le scienze sociali. Quindi tutti i modelli sociali sono (più o meno) mal specificati, cioè lasciano inevitabilmente fuori alcune variabili importanti. Visto che un fenomeno non può essere analizzato simultaneamente in tutti i suoi aspetti, è meglio approfondire vari aspetti separatamente, consapevoli che si tratta solo di punti di vista parziali.

III.     Il macro-modello

Nel progettare una ricerca si dovrebbe utilizzare al massimo la nostra conoscenza del contesto anziché considerarla soggettiva e metterla fra parentesi in nome di una pretesa scienza, reificata nei suoi strumenti. Bisogna chiedersi:

di che concetto può essere indicatore quella variabile, quella domanda, quello stimolo;

a cosa serve tale concetto, cioè in quali modelli sarà utile la sua presenza;

se questo prevedibile uso è una giustificazione sufficiente per copiare quei dati dalla fonte ufficiale, per includere la domanda nel questionario, o lo stimolo nel test.

Questa procedura ci dà la garanzia di eliminare dal nostro strumento di raccolta dei dati tutte le parti che lo allungano senza un'effettiva utilità. Non ci assicura però che misureremo tutti i concetti che ci servirà aver misurato al momento dell'analisi dei dati. Per questo è preferibile seguire la procedura inversa: partire da una riflessione sui concetti che interessano il nostro problema di ricerca, e poi cercare i relativi indicatori.

Il lavoro di individuazione e di selezione dei concetti rilevanti può essere reso più spedito ed efficace se si ricorre a un macro-modello, cioè a una figura in cui i concetti che andiamo scegliendo sono posti in una qualche relazione tra loro, esattamente come avviene alle variabili in un modello. Un macro-modello ha funzioni ben diverse da un modello, in quanto aiuta nella selezione dei concetti rilevanti per la ricerca, che è un preliminare della raccolta dei dati. Il modello è invece un preliminare di ogni singola procedura di analisi dei dati mediante tecniche statistiche.

È possibile riprendere alcune maglie della rete concettuale costituita dal macro-modello e trasformarle in modelli, con le variabili al posto dei corrispondenti concetti. Il macro-modello è il primo di tre momenti successivi di selezione fra possibilità teoricamente infinite:

a - sulla base della rilevanza per il problema, vengono scelti i concetti che cercheremo di misurare o operativizzare;

b - sulla base delle tecniche di raccolta che vogliamo usare, e della nostra conoscenza della situazione oggetto della ricerca, scegliamo per ogni concetto uno o più indicatori opportuni, e ne stabiliamo le definizioni operative;

c - raccolti i dati e costruiti gli indici, scegliamo i modelli di relazioni fra le nostre variabili che ci sembrano promettere una migliore comprensione di alcuni aspetti della situazione e del problema studiato, e che è possibile tradurre in procedure statistiche.

Mentre la scelta dei concetti e relativi indicatori avviene una volta per tutte all'inizio di una ricerca, la costruzione dei modelli è un procedimento iterativo che può durare quanto si vuole ed essere ripreso da un ricercatore diverso con interessi di ricerca diversi (analisi secondaria).


Le ipotesi (p. 89)

L'ipotesi parla di una relazione fra variabili, non è una supposizione più o meno vaga, anche se può avere a monte tale supposizione.

Ipotesi: affermazione circa le relazioni fra due o più variabili.

L'ipotesi è quindi il corrispondente verbale del modello. Il linguaggio verbale delle ipotesi offre dei vantaggi analitici, che bilanciano i vantaggi sintetici e sintattici del linguaggio grafico dei modelli. È dunque opportuno far ricorso contemporaneamente ai due linguaggi. Tutto ciò che compare nel modello deve anche essere espresso verbalmente dall'ipotesi; di conseguenza, tutto quanto si è detto sul modello si applica anche all'ipotesi.

I.       Formazione delle ipotesi e raccolta dei dati

La tesi baconiana secondo la quale si arriva alle ipotesi procedendo per via induttiva da osservazioni di singoli fenomeni, è stata ormai abbandonata.

Nelle scienze sociali la divisione delle proprietà in gruppi avviene in due fasi successive: in sede di raccolta dei dati, si distinguono quelle su cui si raccolgono i dati dalle altre; in sede di analisi, ogni modello distingue fra le variabili che include e quelle che dà per costanti. La prima divisione è di gran lunga la più importante.

Tutto questo implica una netta autonomia del momento della raccolta rispetto al momento dell'analisi dei dati. Raccogliere i dati su una variabile significa precostituirsi la possibilità di inserirla in ciascuno degli innumerevoli modelli che si possono costruire in sede di analisi. Vale quindi la relazione: una raccolta di dati infiniti possibili modelli. Questa relazione logica comporta una successione cronologica. Di conseguenza, la scelta di un singolo modello (cioè la formazione di una singola ipotesi) ha un'importanza infinitamente minore che in una situazione sperimentale.

II.   Verifica, falsificazione e metodo delle covariazioni

Secondo l'epistemologia positivista, un'ipotesi veniva sottoposta a controllo empirico per verificarla. Una volta dimostrata, essa entrava a far parte del corpus teorico consolidato di una scienza. Negli anni Trenta, Popper rovesciò questa impostazione, sostenendo che il controllo empirico doveva tendere a dimostrare la falsità di un'ipotesi. Difatti la verità delle proposizioni universali non può essere dimostrata, ma può solo esserne rafforzato il sostegno empirico: "è possibile, per mezzo di inferenze puramente deduttive, ricavare dalla verità di asserzioni singolari la falsità di asserzioni universali".

D'altra parte, anche la falsificazione di un'ipotesi universale, se possibile in teoria, è assai ardua in pratica, perché ogni esperimento controlla de facto non solo l'ipotesi in questione, ma anche tutta quella serie di assunti e teorie "di sfondo", che permettono di formulare un'ipotesi sottoponibile a controllo sperimentale. Di conseguenza, il risultato negativo del controllo può dipendere dalla falsità di uno di questi assunti e teorie che fanno da sfondo all'ipotesi, anziché dell'ipotesi stessa.

"L'antica dicotomia vero/falso è stata abbandonata in favore del grado di conferma, il che ha rappresentato un grande aiuto per la metodologia" (Galtung, 1967).

L'esperienza insegna che nelle scienze sociali è abbastanza improbabile che fra due variabili non risulti intercorrere alcuna relazione: un ricercatore che ipotizza una relazione fra A e B è quasi ceto di non essere smentito dai dati anche se sceglie A e B a casaccio. Il rischio di falsificazione supera il 50% solo se il ricercatore prevede anche il segno della relazione. Non si può parlare di segno di una relazione se anche una della variabili interessate ha categorie non ordinate, o che non si vogliono considerare ordinate.

Lo stesso discorso vale per l'intensità della relazione. Dato che le categorie non ordinate hanno necessariamente autonomia semantica, la relazione globale fra due variabili con categorie non ordinate non ha un significato indipendente da quello delle singole relazioni fra ciascuna categoria dell'una e ciascuna categoria dell'altra.

Ogni cella della tabulazione incrociata, che rappresenta la relazione fra due categorie (una per ciascuna variabile) ha una sua frequenza (cioè un numero di casi che risultano appartenerle); confrontando tale frequenza con quella attesa su basi probabilistiche, stabiliamo se tra le categorie in questione esiste una relazione positiva o negativa, forte o debole. Nell'intera tabella, le relazioni positive e negative si devono bilanciare, tenendo conto anche della loro intensità. Non ha quindi senso attribuire globalmente un segno alla relazione fra le due variabili, e non ne ha molto neppure attribuirle un'intensità.

Concludendo:

un'ipotesi sull'esistenza di una relazione sarà quasi sempre dichiarata vera;

un'ipotesi sulla direzione dell'influenza non può essere dichiarata né vera né falsa dai dati;

un'ipotesi sul segno della relazione è proponibile solo se le variabili interessate hanno categorie ordinate o metriche, e in tal caso ha a priori il 50% delle probabilità di essere vera.

Di conseguenza, tutto il dibattito su verifica / falsificazione / grado di conferma, riferito al metodo delle covariazioni, ha senso solo per ipotesi che riguardino l'intensità di una relazione.

III.   Ipotesi universali e scienze sociali

La pretesa di universalità si scontri con limiti epistemologici e pratici quasi insormontabili, provocando evasioni in esercizi puramente formali o comunque in sistemi chiusi, poveri di contatti con la realtà. Al contrario, la situazione epistemologica delle scienze fisiche è tale per cui l'aspirazione ad affermazioni di portata universale è naturale, e sarebbe paradossale se mancasse. Le ragioni di questa differenza fra scienze sociali e scienze fisiche attengono:

A)   alla natura delle unità;

B)    al modo in cui sono costruite le variabili;

C)    alle diverse condizioni di specificazione dei modelli.


A) Nelle scienze fisiche le unità sono largamente irrilevanti: un grammo di manganese è automaticamente un campione rappresentativo di tutto il manganese dell'universo. Ma un uomo non è automaticamente rappresentativo di tutti gli uomini.

Col tramonto del positivismo la questione della rappresentatività è affrontata cercando non più l'individuo "medio", ma un campione casuale la cui media (su una data proprietà) si scosti il meno possibile (e comunque di una quantità stimabile) dalla media di un'intera popolazione. L'introduzione della pratica del campionamento casuale ha costituito un notevole miglioramento delle possibilità tecniche delle scienze sociali, perché ha permesso di studiare popolazioni anche molto ampie interrogandone direttamente non tutti i membri, ma solo una piccola proporzione.

La questione del campionamento è presa nella morsa di due esigenze contraddittorie: se la popolazione in esame è sufficientemente piccola da consentire un campionamento effettivamente casuale, è anche una base improponibile per affermazioni di validità universale; se ampliamo la popolazione, perdiamo la casualità del campionamento, senza peraltro guadagnare molto in fatto di universalità.

B)  Anche sul versante delle variabili la situazione delle scienze fisiche è incomparabilmente migliore di quella delle scienze sociali per ragioni legate in buona parte al diverso stadio di sviluppo storico. Nelle scienze sociali un accordo universale sulla definizione operativa di un qualsiasi concetto, anche se fosse raggiunto, sarebbe mistificante, non tanto per la differenza fra unità e unità, quanto per la differenza nei contesti. La necessità di tradurre da una lingua all'altra è soltanto l'aspetto più evidente della necessità di tradurre da una cultura all'altra.

Un'ipotesi è universale se non fa riferimento a particolari situazioni spazio-temporali. La tesi dell'identità epistemologica di tutte le scienze, applicata rigidamente, porta quindi a un questionario con domande formulate in un'unica lingua (quale?), rivelando la sua assurdità. Per salvare la tesi, si ricorre al compromesso della traduzione letterale, prendendo atto della diversità delle lingue come di un mero inconveniente tecnico, fastidioso perché del tutto inspiegabile dal punto di vista delle scienze fisiche. Non è soltanto la traduzione letterale degli stimoli verbali da una lingua all'altra ad essere mistificatoria: lo è fatalmente ogni tentativo di legare un certo concetto a una definizione operativa uguale per tutte le società e immutabile nel corso del tempo.

Tutto questo contribuisce a indebolire la pretesa di validità universale delle ipotesi, perché introduce un elemento di irriducibile soggettività: infatti, chi può stabilire con certezza se e quanto cambia il concetto, allorché la sua definizione operativa muta per adattarsi alla situazione? Un ulteriore indebolimento di quella pretesa deriva dal fatto che nelle scienze sociali non esiste un embrione di accordo neppure sulle definizioni teoriche dei concetti più importanti.

C)  Il terzo ostacolo consiste nei problemi connessi alla specificazione dei modelli. Le scienze fisiche non si devono occupare di tutto quell'insieme di elementi difficilmente enumerabili e afferrabili che costituiscono la tradizione storico-culturale di una società. Inoltre, avendo un quadro teorico più sviluppato e confortato da secoli di ricerche, le scienze fisiche tracciano con ben maggiore sicurezza il confine tra le variabili che possono e quelle che non possono avere rilevanza per il problema allo studio. Nelle scienze sociali, esperienze di ricerca comparata insegnano che da una società all'altra e da un periodo all'altro mutano i coefficienti e i segni dello stesso modello, e soprattutto che un modello discretamente specificato rispetto ai dati di un paese o di un periodo non appare più tale lavorando con i dati di un altro paese o periodo, perché le variabili rilevanti per quel problema non sono le stesse nelle due situazioni. Naturalmente questa è, fra tutte, la smentita più diretta e inequivocabile alla pretesa di validità universale delle ipotesi.


Le teorie (p. 105)

Sia il referente empirico, sia la precisione sono attributi necessari del concetto di teoria che intendiamo discutere, e che esso ha in comune con il concetto di ipotesi.

Per molti epistemologi, la distinzione fra ipotesi e teorie è strutturale: la teoria è un'insieme di proposizioni collegate in modo gerarchico. In queste teorie organizzate gerarchicamente, la proposizione-madre, collocata al massimo livello di generalità, viene spesso detta assioma

"I livelli di una teoria non possono esser concepiti come collegati deduttivamente l'uno all'altro. sono i concetti che fanno parte delle proposizioni a un livello, e non le proposizioni stesse, ad esser logicamente collegati alle proposizioni al livello sottostante" (Toulmin 1969).

Nelle scienze sociali le regole di interpretazione sono sia semantiche (rapporti di indicazione) sia operative (definizioni operative). Il legame che esse stabiliscono fra concetti generali e concetti più specifici, e fra questi e operazioni di ricerca, non può certo esser ritenuto deduttivo, in quanto dipende da una (opinabile e contestabile) valutazione semantica del o dei ricercatori.

Per Gibbs la distinzione tra teoria e ipotesi consiste nel fatto che la teoria, essendo costituita da legami fra concetti non operativizzati, non è controllabile se non deviandone delle ipotesi che, essendo costituite da legami fra variabili, fanno necessariamente riferimento a specifiche situazioni spazio-temporali alle quali le definizioni operative devono adattarsi.

Anche le teorie di portata non universale sono ritenute non-verificabili dalla generalità degli epistemologi, perché non ci sono limiti al numero di teorie dalle quali un'ipotesi confermata può essere dedotta. Pertanto, non si potrebbe affermare che proprio una data teoria, delle tante possibili, viene confermata per riflesso della conferma di una data ipotesi.

D'altra parte, anche l'eventuale accertamento della falsità di un'ipotesi non ha conseguenze automatiche per una teoria: prima di arrivare a una modifica, si muteranno le ipotesi, adottando differenti definizioni operative, scelte di indicatori, maniere di creare gli indici. Solo in casi estremi, cioè di fronte a risultati clamorosamente contrari, l'intera teoria viene abbandonata, quanto meno da parte della maggioranza dei suoi fautori. Ma neppure in presenza di puntuali e clamorosi insuccessi è il caso di parlare di falsificazione definitiva di una teoria; non si può, né si deve, impedire a un ricercatore di formulare e controllare ipotesi ad essa ispirate. Una pluralità di teorie alternative intorno allo stesso oggetto è stata la caratteristica delle scienze sociali nel loro primo secolo di sviluppo; è difficile pensare che lo sviluppo successivo elimini o riduca tale caratteristica. In questo processo, una teoria "non è la conoscenza, ma uno strumento sulla via della conoscenza" (Eulau 1961).

L'ipostatizzazione dello strumento ha una serie di conseguenze negative. La prima e più paradossale è il fatto che proprio la ricerca ossessiva della teoria unica, onnicomprensiva e definitiva nega se stessa causando la proliferazione di teorie originai, chiuse, naturalmente in conflitto fra loro.

Una seconda conseguenza, collegata alla prima, è il fatto che questi sistemi teorici non sono concepiti per essere controllabili empiricamente, e invece indulgono spesso al formalismo.

Infine, anche se il costruttore di sistemi teorici trova modo di ricavarne delle ipotesi e di controllarle empiricamente, difficilmente si tratterà di un controllo equanime.




Privacy




Articolo informazione


Hits: 9295
Apprezzato: scheda appunto

Commentare questo articolo:

Non sei registrato
Devi essere registrato per commentare

ISCRIVITI



Copiare il codice

nella pagina web del tuo sito.


Copyright InfTub.com 2024