Caricare documenti e articoli online  
INFtube.com è un sito progettato per cercare i documenti in vari tipi di file e il caricamento di articoli online.
Meneame
 
Non ricordi la password?  ››  Iscriviti gratis
 

Concetti e strumenti per l'analisi sociologica e la pianificazione sociale - DAL PROBLEMA AI CONCETTI E AL CONTROLLO METODOLOGICO DELLE VARIABILI

sociologia


Inviare l'articolo a Facebook Inviala documento ad un amico Appunto e analisi gratis - tweeter Scheda libro l'a yahoo - corso di



ALTRI DOCUMENTI

INTEGRAZIONE SOCIALE : STRUMENTI PROGETTUALI E METODOLOGICI
Concettualizzazione, modelli e disegni di ricerca
Legame e slegame sociale
Il Corpo
I FONDATORI DELLA SOCIOLOGIA - AUGUSTE COMTE (Francia 1798/1857)
APPUNTI DI SOCIOLOGIA GENERALE DEL PROFESSOR CARMELO CARABETTA
Il Sinai o la legge negoziata
(SOCIOLOGIA) SCHEDE DEGLI AUTORI - AUGUSTE COMTE, KARL MARX, HERBERT SPENCER, EMILE DURKHEIM
Concetti e strumenti per l'analisi sociologica e la pianificazione sociale - DAL PROBLEMA AI CONCETTI E AL CONTROLLO METODOLOGICO DELLE VARIABILI

Concetti e strumenti per l'analisi sociologica e la pianificazione sociale

Frudà

E' del tutto infondata e artificiale la rituale differenziazione tra analisi qualitativa e analisi quantitativa. Bisogna recuperare la genesi progettuale dei dati, che non esistono ontologicamente di per sé, ma in quanto traduzioni operative di concetti problematicamente orientati.

CAPITOLO I - DAL PROBLEMA AI CONCETTI E AL CONTROLLO METODOLOGICO DELLE VARIABILI

1. Relazioni sociali e variabili empiriche

In un problema di rilevanza scientifica, la questione principale rimane il controllo metodologico delle variabili, che costituiscono i materiali di base su cui si fonda l'intero processo di esplorazione e/o spiegazione di un evento.

Nell'uso sociologico, al termine variabile si attribuiscono sia caratteri qualitativi che quantitativi, mentre si dovrebbe distinguere tra oggetti che hanno variazione (quantità) e oggetti di analisi che, al contrario, possono mutare (qualità). Quindi il significato generale di variabile è da reperire nel temine carattere, che si articola in modalità ora qualitative ora quantitative a seconda della natura del carattere analizzato.

La definizione del problema, il ricorso ad una progettualità concettuale, la scomposizione dei concetti in dimensioni empiriche, l'individuazione di un universo di variabili, espresso da un insieme ampio di indicatori analitici o sintetici, hann 555g62f o una loro diretta proiezione su tutte le successive fasi di produzione dei dati e sulla capacità che questi hanno di fornire una descrizione / interpretazione del fenomeno in esame. E soprattutto la possibilità che i dati prodotti conducano a legittime generalizzazioni, si fonda su una appropriata e congruente progettazione concettuale e tecnica delle variabili. L'esigenza metodologica non si limita alla fase di individuazione delle variabili, ma anche alla fase di progetto interno di ogni singola variabile, che è fortemente connesso ai contenuti qualitativi espressi dalla variabile: assume valenze sostanziali in rapporto a procedure di operazionalizzazione empirica che sono sempre specifiche per ogni singola indagine. Non solo, ma il controllo della variabili va anche impostato come riprogettazione di eventuali dati preesistenti all'indagine, che vengono spesso assunti con insufficiente senso critico.



La metodologia migliore appare quella della rappresentazione della complessità attraverso modelli. I materiali che costituiscono la struttura portante di ogni ipotetico modello sono costituiti da variabili, ovvero indicatori empirici generati concettualmente e governati da metodologie e tecniche specializzate la cui validità si fonda non tanto su procedure onnivalenti e atematiche, quanto sulla progettata aderenza alla situazione problematica oggetto di indagine.

2. Operazionalizzazione e progetto delle variabili

Il periodo tra il 1950 e il 1967 è stato indubbiamente significativo per lo sviluppo e la sistematizzazione dei metodi di ricerca empirica nel campo sociologico.

Nella sociologia italiana c'è una particolare preoccupazione per la fondazione teorica di ogni indagine empirica, ed una accentuata sensibilità per una funzione critica e problematica della sociologia.

Una indagine quale L'attivista di partito condotta negli anni '60 da Alberoni e Capecchi testimonia bene l'intera gamma di problematiche connesse al controllo rigoroso delle variabili utilizzate, anche se mancano molti elementi a giustificazione delle scelte compiute per le singole variabili.

Se è pur vero che per alcune variabili esistono degli automatismi che definiscono l'andamento analitico-strutturale delle modalità (es.: istruzione scolastica: nessuna, licenza elementare, studi medi senza diploma, diploma di scuola media inferiore, etc.), lo stesso non può dirsi per la maggior parte delle restanti variabili utilizzate in sociologia, che esigono un appropriato ed articolato progetto a partire dall'apparato concettuale utilizzato. Una insufficiente legittimazione della progettazione della variabile rende gratuita qualsiasi generalizzazione.

Se le variabili si pongono quali referenti empirici di un concetto esse sottostanno alle dimensioni empiriche del concetto cui si riferiscono e quindi una corretta operazionalizzazione, per dar conto di una legittima congruenza di contenuti, deve fondarsi sulla esplicitazione dell'intero universo delle dimensioni empiriche, per rapportare ad esso le dimensioni privilegiate e selezionate, e stimarne così la portata euristica e la rilevanza in termini sociologici. Ogni variabile è sempre una diversa variabile, a seconda dell'assetto delle modalità, della maggiore o minore distensione di esse, del grado di sintesi espresso per l'utilizzo di quel determinato contesto di indagine. Il problema si sposta necessariamente a monte, a livello di progetto, costruzione e controllo delle variabili.

L'indagine Il destino sociale dei laureati dell'Università di massa del 1977 è centrata sulle problematiche e le razionalizzazione operative che hanno condotto il gruppo di ricerca dai concetti agli indicatori empirici, e da questi agli strumenti d'indagine. Ogni variabile è ricondotta nell'ambito problematico e concettuale dal quale si origina come referente empirico e di tale processo vengono presentate tutte le fasi intermedie sino alla formulazione delle singole modalità delle variabili, del piano di aggregazione e delle ipotesi sottese al piano di incroci. Ricostruendo sinotticamente le dimensioni concettuali ed empiriche, sono rilevabili tre specifici sottoprogetti:

1.      analisi del mutamento ottenuta attraverso l'articolazione diacronica (pre, durante e post studi universitari) del blocco di contenuti selezionati;

2.      progettazione e scomposizione della valutazione di adeguatezza su due diversi universi di contenuto: ambito dei parametri oggettivi (tipo di attività) e dei fattori soggettivi (autovalutazione, elementi di soddisfazione / insoddisfazione);

3.      rilevazione delle dimensioni di ordine generale sottostanti alla concezione del lavoro espressa e che portano alla progettazione di una complessa scala di atteggiamento.

L'articolazione dell'area tematica richiamata impegnò un ampio gruppo di domande strutturato in più blocchi, ma tutte strettamente interconnesse in catene logiche ed ipoteticamente causali: una tale impostazione progettuale ha consentito di lavorare come se tutti gli indicatori empirici fossero collocati su una matrice simmetrica, con un uguale peso potenziale, con l'evidente vantaggio di un forte controllo empirico di ogni ipotesi sia progettuale che interpretativa.

3. Dimensioni temporali e territoriali delle variabili di base

Le variabili di base strutturano i gruppi sociali organizzati a livello di classificazione elementare. Solo per poche variabili si può assumere che le procedure indicate siano costantemente generalizzabili.

La proposta di Frudà, empiricamente sperimentata, è di attivare controlli sulla genesi della variabile, e più che affidarsi a una o poche variabili, centrare le operazione sulla riprogettazione del concetto utilizzato e sulle più opportune procedure di operazionalizzazione ad esso collegabili, per poi costruire strutture multiple di dati, reti di dati che annullino l'errore o lo compensino sia qualitativamente che quantitativamente.

Due variabili di uso estesissimo, quali la popolazione e la densità di abitanti, possono risultare utili a presentarne una veloce illustrazione. Prioritariamente va posta la questione delle fonti statistiche disponibili, al fine di sondare la congruenza tra concetto dinamico, socio-demografico di popolazione e dato quantitativo producibile, e tra la corrispondenza fra realtà quantitativa dei dati e qualità sociale della dinamica sotto osservazione.

La popolazione residente nel Comune di Roma: l'analisi sintetica dell'incremento demografico mostra con evidenza la forte decelerazione dei ritmi di crescita soprattutto negli ultimi 10 anni. Se parallelamente si prendono in considerazione altri dati quali il movimento naturale e il movimento migratorio, si rafforza la convinzione di una pronunciata tendenza verso la crescita zero, nel quadro di una dinamica demografica molto modesta. Queste conclusioni, quantitativamente esatte, contraddicono e mascherano vistose dinamiche sociali e territoriali, come gli spostamenti intraterritoriali di popolazione in connessione con il completamento di grossi nuclei residenziali di edilizia popolare, e rilevante incremento e gravitazione di ampie fasce di popolazione nei territori limitrofi al territorio comunale di Roma.



4. Analisi e sintesi nel trattamento di alcune variabili di base: popolazione, sesso, età, territorio

Alcune variabili di base, spesso sono presentate ad un tale livello di sintesi (eccessiva aggregazione) o di analisi (eccessiva frantumazione) da produrre effetti mimetici nei confronti delle dinamiche sotto osservazione.

La scomposizione analitica delle variabili e la loro ricomposizione sintetica su una precisa base di progetto garantisce entrambi i livelli di lettura.

Se si dovesse seguire la via sintetica nell'analizzare gli andamenti intercensuali della popolazione romana si dovrebbe concludere che si è prossimi ad una situazione di crescita zero con un progressivo e notevole invecchiamento della popolazione. Il livello di lettura analitico consente, al contrario, di aderire alla variegata disomogeneità sociale dei territori romani e di orientare congruenti quadri di conoscenza anche nella direzione delle politiche di pianificazione sociale.

Progressivo invecchiamento del centro storico, sua specializzazione per funzioni rappresentative, politico-istituzionali, commerciali, alberghiere; giovinezza dell'VIII circoscrizione. (Indice di invecchiamento)

A livello analitico, la griglia proposta individua una prima fascia di socializzazione primaria che viene strutturata dal ciclo prescolare della scuola materna (0-5) e dalla scuola dell'obbligo (6-14). Seguono due fasce (15-19) e (20-29) caratterizzate dal proseguimento degli studi superiori o dall'apprendistato, dalle prime esperienze di lavoro, dall'entrata nell'area del mercato del lavoro. Il periodo della maturità vitale e professionale (30-64) e il periodo dell'uscita dal mercato del lavoro (65 e oltre) completano la scala dell'età. Il modello tende a cogliere la declinazione "naturale" del ciclo vitale.

Indicazione metodologica: gli indici sintetici, prima di produrre generalizzazioni più ampie, vanno sottoposti a verifiche incrociate e, ove necessario, ad approfondimenti di tipo qualitativo-analitico.

5. Progetto di un indice sintetico: la densità della popolazione

Nessun progetto di analisi è tecnicamente neutrale e la scelta di una determinata soglia di analisi o di sintesi include o esclude contenuti che, di volta in volta, è bene valutare sia rispetto al complesso di conoscenze che vengono chiamate in causa, sia rispetto agli obiettivi che si vogliono raggiungere. Da questo punto di vista, le decisioni apparentemente più rilevanti possono comportare conseguenze notevoli, e il controllo va pertanto realizzato componendo e scomponendo le modalità delle variabili e valutando gli effetti sui contenuti espressi dalle variabili, singolarmente e nel loro insieme. Non è sempre però possibile disporre dei dati utili per il tipo di analisi proposto, e soltanto attraverso controlli indiretti o incrociati si può controllare il progetto di alcune particolari variabili. E' questo il caso di un indicatore empirico di uso frequente quale la densità della popolazione, che è in realtà scarsamente controllabile per difetto di specificazioni analitiche. La proposta è di rifiutare, perché privi di portata conoscitiva, gli indici di densità calcolati su puri parametri quantitativi non sottoposti a controlli qualitativi (es. XV circ. castelfusano e Fiumicino => 405 ab/ha).

Il metodo seguito è quello di analizzare serie di dati disponibili e di compararli tra loro al fine di sondarne il livello di analiticità e di precisione con l'obiettivo di reperire o un sistema di compensazione dell'errore o una vera e propria procedura di pulizia dei dati generali relativi alla superficie territoriale (es. alla cartina delle zone urbanistiche si rapportano i dati analitici delle particelle di territorio e di popolazione: sottraendo alla superficie totale le superfici agricole e quelle specializzate con funzioni non residenziali, è stata ricalcolata la densità di abitanti per ettaro).

Il risultato di aggiustamento raggiunto, va interpretato come una attendibile stima dei valori che correggono l'errore nella valutazione delle densità reali in ambiente urbano, per fa sì che se ne possa ricavare un indicatore empirico valido anche sul piano sociologico. La difficoltà metodologica di maggior rilievo è costituita dal fatto di dover produrre delle sintesi descrittive medie che mostrano di resistere, sociologicamente, proprio al processo di sintesi e di omogeneizzazione.

Si è cercato di dimostrare da un lato l'esigenza di un più accurato controllo critico delle fasi di progetto di variabili e dall'altro la concreta possibilità, concettuale e tecnica, di una rigida verifica dell'intero processo di operazionalizzazione.

 

CAPITOLO II - CLASSIFICAZIONE E ANALISI MULTIVARIATA DEI DATI SULLA BASE DI TECNICHE FATTORIALI E CLUSTER ANALYSIS

1. Variabili e gestione delle procedure di cluster analysis

Tutte le tecniche di clustering (metodi scissori e metodi aggregativi; metodi gerarchici e non gerarchici) si fondano sul fatto che ad un determinato fenomeno dotato di una qualche complessità, il ricercatore, individuato un insieme abbastanza ampio di variabili, con determinate procedure di calcolo, diverse a seconda dei metodi di clustering che vengono adottati, tende ad isolare e interpretare un determinato numero di gruppi (clusters) che descrivano in modo sufficientemente articolato e differenziato aspetti simili e dissimili di una ipotizzabile stratificazione interna della fenomenologia oggetto di analisi. Appare evidente che la questione fondamentale è in primo luogo la scelta delle variabili, cioè di quegli indicatori, capaci in ipotesi e in via probabilistica, di rappresentare, sulla scorta di dati ed osservazioni empiriche un determinato fenomeno. All'origine di ogni operazione di clustering si pongono questioni sostanzialmente qualitative di progettazione, concettualizzazione e operazionalizzazione. Tecniche quantitative di controllo dei dati non autorizzano quindi alcuna malintesa scorciatoia per la produzione di sintesi e generalizzazioni. Tanto premesso, le tecniche di analisi dei gruppi sono da ritenere, a determinate condizioni di controllo qualitativo, degli ottimi strumenti per l'analisi dei dati anche in campo sociologico.




Dato lo sviluppo del software, la clusters analysis potrebbe routinariamente essere adottata per un controllo di corroborazione e di ulteriore affinamento delle evidenze in parte già raggiunte attraverso altre forme di analisi. Per le scienze sociali che trattano fenomeni fortemente dinamici e complessi, i metodi di clustering risultano altrettanto produttivi anche sul piano del controllo di determinati livelli della complessità osservata.

L'analisi dei gruppi produce dei clusters che esistono soltanto in virtù del tipo di procedimento di clustering e che sono definiti come gruppi unicamente per il fatto di rientrare in determinati valori di coefficienti di calcolo. Le tecniche di clusters analysis impongono quindi una fase di riprogettazione a posteriori e di taratura delle evidenze raggiunte sul piano tecnico.

Realtà socio-demografica di Roma. Il punto di partenza può essere costituito dalla provata esistenza di territori sociali profondamente disomogenei che, però, possono essere ricondotti a tipologie: sul piano demografico, ad esempio, esistono circoscrizioni più anziane di altre. A definire tale andamento tipologico della demografia romana, sono sufficienti analisi incrociate su semplici basi percentuali, ma possiamo attivare un progetto di clusters analysis per approfondire la lettura delle similarità e delle differenze e specializzare infine, su questa base, una interpretazione tipologica, che ha un suo rilievo in termini di conoscenza sociologica delle problematiche di un grande e complesso agglomerato urbano come quello di Roma.

In una prima fase utilizzeremo un'unica variabile scomposta analiticamente in molte classi di valori (classi di età), operando come se ogni classe di età fosse una singola variabile e concorresse quindi singolarmente a determinare dei clusters. Successivamente introdurremo un secondo livello di analisi con altre variabili connesse all'ambito problematico e concettuale isolato (popolazione lavorativa, popolazione anziana, indice di dipendenza economica, indice di vecchiaia, età media).

Fonte: dati del censimento.

La prima operazione è quella della creazione di un file di dati. Sulla base di questa prima matrice si costruisce la corrispondente matrice dei dati standardizzati (indispensabile quando si utilizzano variabili espresse in unità di misura tra loro diverse - si trasformano i diversi valori in numeri cosiddetti puri).

(Formula della standardizzazione)

Vantaggi in termini di comparabilità; svantaggi per la perdita di informazioni.

Scelta del metodo di clustering:

·         metodi aggregativi - partendo da coefficienti che leggono la similarità o la differenza arrivano alla formazione dei gruppi aggregando via via le singole unità ad un nucleo di partenza (una prima coppia) e distribuendo infine l'intera stratificazione così ottenuta in un certo numero di classi più sintetiche stabilite in precedenza dal ricercatore per via orientativa;

·         metodi scissori;

·         analisi gerarchica - ordina i gruppi in un sistema crescente che da un gruppo iniziale (2 unità) procedendo gerarchicamente e aggregando altre unità, arriva alla fine del raggruppamento di tutte le unità osservate in un unico gruppo;

·         metodi non gerarchici.

Metodi gerarchici: legame singolo e legame medio: sono fondati sul calcolo di matrici di distanze fra le singole unità osservate e successivamente fra coppie di unità, iniziando ad aggregare le due unità che hanno minore distanza, ricalcolando di nuovo le matrici delle distanze e aggregando per passi successivi.

Numero dei clusters: un numero basso di gruppi può far perdere informazioni anche altamente discriminanti, un numero alto polverizza eccessivamente la stratificazione => bisogna legare la scelta finale a fattori qualitativi riferiti ad evidenze tratte dallo stesso ambito di indagine. Nel nostro esempio, la qualità sociale e funzionale delle circoscrizioni agisce come fattore per il controllo della congruenza.

Il modo di poter verificare l'ipotesi è quello di reiterare la procedura di clustering con un diverso metodo.



Rimane da definire il profilo dei cinque clusters.

Ci deve essere una indicazione operativa che salvi le singolarità e i casi devianti delle distribuzioni, e a favore di un rigido controllo qualitativo della procedure di clustering che costituiscono, a queste sole condizioni, un valido strumento per la produzione di sintesi nel caso di realtà complesse ancorate analiticamente ad un numero ampio di variabili.

2. Semplificazione della matrice di dati

Si può far riferimento a trasformazioni interne delle singole variabili, avendo come obiettivo una semplificazione delle modalità e una presentazione della variabile che non faccia perdere contenuti sostanziali. L'operazione successiva è quella di descrivere un determinato contenuto della variabile, ritenuto sostanziale dal ricercatore, in termini di indice sintetico (es. età: età media, indice di vecchiaia, etc.).

E' possibile inoltre costruire degli indici artificiali che sulla base di determinati valori di scale sommano gli effetti congruenti dello stesso segno (positivi o negativi) forniti da più indicatori: è il caso di moltissimi indicatori ed indici economici, sociologici e demografici (tasso di attività, di dipendenza economica, indice di sindacalizzazione, di politicizzazione, densità abitativa, consumi pro-capite, etc.).

Analisi della matrice delle correlazioni delle variabili. Dalla matrice è possibile rilevare indirettamente il grado di similarità fra le variabili a partire dal tipo e dall'intensità delle relazioni tra loro esistenti. In base a ciò si può decidere la scelta finale di una particolare variabile e l'eliminazione di tutte le rimanenti con caratteri similari. Passando dalla matrice più estesa alle due successive, via via più aggregate, i valori di correlazione con gli indici sintetici mutano di poco, rimanendo impregiudicate la direzione e l'intensità del legame. La procedura indicata consente di decodificare meglio il ruolo che alcune variabili hanno in un complesso più ampio di informazioni e quindi snellisce l'intero quadro di analisi.

3. Variabili e analisi fattoriale delle componenti principali

Prima di pervenire alle operazioni di clustering: analisi delle componenti principali: a partire dalla matrice delle correlazioni di tutte le variabili si perviene alla individuazione di un insieme di fattori artificiali (da definire successivamente in termini qualitativi) che hanno la caratteristica di spiegare una certa proporzione della varianza di ogni variabile.

4. Variabili e rotazione dei fattori nelle analisi di tipo fattoriale

Tecnica della rotazione dei fattori: la rotazione può essere obliqua (correlazione) o ortogonale (non correlazione). Il vantaggio di questo metodo è quello di produrre una identificazione migliore del fattore che viene rapportato nettamente ad alcune variabili ed altrettanto nettamente staccato da altre. (SPSS, SAS lo fanno automaticamente).

5. Interpretazione qualitativa delle componenti

Procedendo nell'analisi delle procedure di clustering, troveremo delle discriminanti nella stessa direzione e con la stessa intensità, con ulteriori elementi di definizione della stratificazione del nostro universo che la cluster analysis è capace di porre perfettamente a fuoco.

La definizione qualitativa delle componenti, costituisce un momento di estrema delicatezza nel percorso dell'indagine.

6. Complessità sociale e clusters analysis: tecniche di verifica

Elevando il grado di complessità delle matrici, sia per il numero di casi osservati, sia per il tipo di variabili introdotte, sia per la natura della realtà sociale chiamata in causa, dovremmo verificare poi il grado di tenuta di queste stesse tecniche e soprattutto gli accorgimenti operativi e critici da porre in atto per la risoluzione positiva dei problemi di sintesi.

Analisi delle provincie italiane attraverso l'analisi delle singole realtà comunali: Frosinone.

Caratteristiche socio-economiche: pianura e media collina; zone montano-collinari => consente di individuare aree ad incremento demografico e produttivo, evidenziando in opposizione i decrementi più vistosi.

Vi si connettono fattori di incremento dello sviluppo economico industriale, agricolo-produttivo, commerciale e turistico.

Piccole industrie con 20 operari e la fiat: lo scarto fra realtà analitica e le ipotesi di rappresentazione sintetica è di tale ampiezza da chiamare in causa necessari approfondimenti: le procedure di clusters analysis e di analisi fattoriale possono riuscire di notevole aiuto.

7. Progetto e controllo contestuale degli indicatori empirici: cluster analysis ed effetti spuri

Il discorso fin qui svolto ci porta alla conclusione che ogni automatismo di raggruppamento va controllato si atecnicamente che qualitativamente, e che il ricercatore deve soprattutto orientare la cluster analysis attraverso fasi successive di comparazione, fino a raggiungere il migliore bilancio perdite-guadagni fra livello analitico e livello sintetico dei raggruppamenti. Occore soprattutto controllare a monte il progetto di ogni singola variabile e il complesso dei contenuti cui le variabili rinviano. La situazione ideale è quella in cui gli indicatori empirici utilizzati per la costruzione di determinate variabili rimandano a contenuti pressoché unidimensionali; ma al contrario la cluster analysis viene chiamata in causa per risolvere più spesso problemi che hanno sottostanti strutture multidimensionali.

Si hanno effetti spuri quando l'indicatore utilizzato rinvia a contenuti di altro tipo, la cui base di realtà non è riferibile al contesto di indagine (es. spesa pro-capite per spettacoli: forte potere discriminante a livello geografico e locale).

 








Privacy

Articolo informazione


Hits: 2551
Apprezzato: scheda appunto

Commentare questo articolo:

Non sei registrato
Devi essere registrato per commentare

ISCRIVITI

E 'stato utile?



Copiare il codice

nella pagina web del tuo sito.


Copyright InfTub.com 2019