3. Prevedere domanda e bisogno: teorie e metodi
Da sempre l’uomo ha tentato di prevedere il futuro. Il bisogno di anticipare quanto il futuro riservi agli uomini è strettamente connesso alla necessità di controllare il proprio contesto. Tanto più il contesto è confuso e complesso tanto maggiore è il bisogno di prevedere e anticipare il futuro. L’esperienza quotidiana ci insegna quanto sia difficile riuscire a fare delle previsioni certe rispetto ad aspetti incerti sulla base – quasi sempre – di un set di informazioni parziali.
È possibile identificare almeno tre momenti storici in relazione a come l’uomo abbia approcciato la previsione del futuro:
- pre-scientifico, periodo storico in cui l’evento oggetto della previsione e le tecniche previsionali sono completamente sconnesse tra loro. Per avere informazioni sull’esito di una battaglia venivano analizzate le interiora di un animale;
- probabilistico, fase in cui vengono calcolate – in linea teorica – le probabilità che un determinato evento si verifichi, sia in relazione alle alternative possibili sia in relazione alle serie storiche a disposizione. I limiti di questo approccio si manifestano in presenza di sistemi con alto livello di complessità;
- modellistico, ultimo dei tre periodi, basato sull’elaborazione di modelli che siano in grado di simulare il comportamento di sistemi complessi. Questo approccio esprime i suoi limiti nelle situazioni in cui non è possibile fornire tutte le informazioni iniziali necessarie.
Quando ci riferiamo alla previsione di fenomeni socio-economici, sia l’approccio probabilistico sia quello basato su modelli presentano una serie di criticità, riassumibili in relazione ai tre elementi fondamentali del processo previsionale:
- oggetto: il fenomeno, il processo o il sistema oggetto della previsione;
- metodologia: l’insieme delle pratiche e degli strumenti a supporto del processo di formulazione della previsione;
- soggetto: colui che intende formulare la previsione sulla base di una osservazione attenta del fenomeno.
Nei paragrafi seguenti saranno riepilogate le principali criticità legate a ciascuno di questi elementi fondamentali, anche se lo stretto legame tra i tre aspetti rende estremamente prossime le problematiche in questione.
3.1 Questioni connesse all’oggetto
In uno dei suoi ultimi saggi, il premio nobel per la chimica Prigogine (2003) mise in evidenza come le due principali visioni del mondo ereditate dal diciannovesimo secolo, meccanica e termodinamica, siano entrambe pessimistiche e non esaustive. Entrambe propongono una visione meccanicistica e deterministica, in cui:
- tutto – al mondo – opera al pari di una macchina;
- ogni parte – o insieme – si comporta in modo tale da raggiungere un obiettivo;
- è possibile spiegare ogni azione secondo un modello lineare di causa ed effetto;
- la conoscenza deriva da ciò che è direttamente osservabile ed è raggiunta unicamente attraverso i sensi.
Secondo la visione deterministica ogni evento – sia mentale sia fisico – è predeterminato da cause: data una causa, ne seguirà inevitabilmente l’evento, non lasciando posto né a eventi che siano frutto del caso, né a libere scelte dell’uomo.
Nel corso del ventesimo secolo i limiti di questa visione sono apparsi sempre più evidenti. Dare un calcio a un sasso può essere interpretato come un comportamento lineare di causa-effetto fintantoché quel sasso colpisce – ad esempio – una macchina. Ma se il sasso dovesse colpire un cane, sono in grado di prevedere la reazione del cane? Inoltre, come posso prevedere la mia reazione di rimando a quella del cane (Watzlawick et al., 1971)?
Le spinte date dal progresso tecnologico in tutti gli ambiti e i numerosi mutamenti sociali hanno reso necessario trovare una spiegazione del mondo più articolata e complessa, superando una visione meccanicistica del mondo e trovando al contempo un linguaggio comune e condiviso.
L’urgenza di trovare nuovi paradigmi e modelli in grado di consentire uno spostamento di focus dagli oggetti alle relazioni tra gli oggetti e di affrontare temi complessi ha dato origine alla teoria dei sistemi.
Il primo a parlare di teoria dei sistemi è stato il biologo Ludwig Von Bertalanffy (1940). Lo studioso descrisse la teoria dei sistemi come una teoria basata su un insieme di concetti con una validità e applicabilità pressoché generale e applicabili a fenomeni e ambiti diversi.
In un’ottica sistemica:
- nessun oggetto può essere studiato isolatamente e tutti i fenomeni esistono in relazione gli uni agli altri;
- la realtà può essere conosciuta solo se si tiene in considerazione questa relazione;
- il comportamento della persona è visto come il prodotto di un sistema dinamico all’interno del quale le persone interagiscono in modo complesso (Chartrand et al., 1995).
In questa prospettiva, la teoria dei sistemi rappresenta una meta-disciplina in grado di superare i limiti della visione meccanicistica (Checkand, 1979).
Essa offre una cornice comune in grado di mettere in comunicazione settori scientifici molto distanti tra loro: da quelli considerati hard, come la fisica e la matematica, a quelli soft, come le scienze comportamentali, biologiche e psicosociali (Loriedo e Picardi, 2000), diventando – in questo modo – il leit-motiv di riferimento per il lavoro dei ricercatori in diversi e numerosi ambiti disciplinari.
3.1.1 L’approccio sistemico
Secondo Hall e Fagen (1956) un sistema è un insieme di oggetti, di relazioni tra gli oggetti e tra i loro attributi. Con oggetti gli autori si riferiscono alle diverse componenti di un sistema, con attributi alle proprietà degli oggetti e con relazioni a quell’insieme di dinamiche che consentono l’esistenza del sistema. Qualsiasi sistema è inserito in un ambiente, in uno spazio entro il quale sono inclusi tutti gli oggetti che si influenzano con il sistema. Fanno parte di un sistema gli oggetti il cui cambiamento determinerebbe un cambiamento sul sistema stesso e viceversa. Per quanto riguarda gli aspetti strutturali, i sistemi sono organizzati gerarchicamente. All’interno di ogni sistema sono presenti numerosi sottosistemi in relazione tra loro, con altri sistemi e con i sottosistemi di altri sistemi.
Kenneth Boulding, uno dei sostenitori più convinti della teoria generale dei sistemi, concettualizzò il mondo come una gerarchia ordinata di sistemi (cfr. Laudadio, 2007).
Tab. 3.1 – Sistemi ordinati in modo gerarchico
Livello | Caratteristiche | Esempio |
Contesto | Etichette e terminologia. Sistemi di classificazione | Anatomie, geografie, liste, indirizzi, cataloghi |
Meccanismi | Eventi ciclici. Semplici con moti regolari o regolati. | Sistema solare, macchine semplici (orologio o carrucola) |
Sistemi di controllo | Auto-controllo Feedback Trasmissione delle informazioni | Termostato Omeostasi Pilota automatico |
Sistemi aperti | Autoconservazione Scorrimento ed eliminazione di materiale Riproduzione | Cellula Fiume |
Sistemi genetici | Divisione del lavoro (cellule) | Pianta |
Animali | Mobilità, consapevolezza di sé, Struttura di conoscenza | Cane, Gatto, Elefante |
Esseri umani | Auto-coscienza Capacità di produrre, assimilare, interpretare i simboli | Io, tu |
Organizzazioni sociali | Sistema dei valori, significati | Imprese, governi |
Sistemi trascendentali | La realtà inesorabilmente sconosciute | Metafisica, estetica |
3.1.2 Caratteristiche dei sistemi
Tutti i sistemi aperti condividono alcune caratteristiche comuni:
- feedback;
- totalità e olismo;
- emergenze e vincoli;
- causalità;
- equifinalità.
Il feedback (o retroazione) rappresenta una caratteristica importante dei sistemi. Secondo Weiner (1966) si può parlare di feedback nel caso in cui «tra gli elementi che determinano un’azione entra l’informazione relativa ai risultati dell’azione stessa» (p. 5). In esso la relazione tra gli elementi viene espressa come passaggio di informazioni tra i diversi elementi che caratterizzano un sistema. Il feedback può essere positivo o negativo in relazione agli effetti o ai cambiamenti che produce.
La totalità e l’olismo (non sommatività) rappresentano i due estremi di un continuum. La totalità presuppone che ogni elemento del sistema sia in relazione con gli altri in modo tale che il cambiamento in uno degli elementi determini un cambiamento (anche minimo) negli altri. La non sommatività implica che il sistema è qualcosa in più della semplice somma delle parti. La totalità descrive un sistema in termini positivi, indicando ciò che il sistema è, la sommatività consente di definirlo in termini negativi, sottolineando ciò che il sistema non è: una semplice somma di parti (Patton e McMahon, 2006). In chimica si è soliti parlare di qualità emergente di una sostanza intesa come quella qualità che è frutto di una particolare e originale combinazione tra elementi. In fisica si parla di moiré patterns, cioè di quei fenomeni ottici ottenuti sovrapponendo due o più reticoli, la cui complessità non potrebbe essere spiegata dalla semplice somma degli elementi. In psicologia la famiglia è descritta come un sistema i cui componenti sono più della somma delle singole parti (Minuchin et al., 1980).
Il sistema implica la presenza sia di vincoli sia di opportunità: gli elementi di un sistema sono sia qualcosa in più sia qualcosa in meno della somma delle singole parti. Sono qualcosa in più, quindi una risorsa, perché il tutto organizzato consente di osservare delle qualità che le componenti prese singolarmente non possederebbero. Allo stesso tempo, sono qualcosa in meno, quindi un vincolo, perché nel diventare un tutto alcune sfumature individuali si perdono.
All’interno di un sistema la causalità va intesa in termini circolari piuttosto che lineari. Essa si presenta quando si verificano una successione di nessi causali lineari collegati tra loro e concatenati con il punto d’origine. Watzlawick et al. (1971) riportano come esempio di causalità un litigio tra moglie e marito. In presenza di un problema nella coppia il marito reagisce chiudendosi in sé stesso, la moglie brontolando. Il marito sostiene di chiudersi in sé stesso perché la moglie brontola e la moglie di brontolare perché non ha nessuno con cui parlare. Chi dei due è la causa del comportamento dell’altro? È questo il caso di una comunicazione circolare in cui non è possibile individuare l’origine del problema. In un’ottica sistemica ogni parte del sistema è organizzante e organizzata rispetto alle altre. Così un comportamento individuale può essere la causa ma – al contempo – essere anche l’effetto di altre cause (Minuchin et al., 1980).
Lo stato in cui si trova il sistema è l’esito di uno dei molti processi che potrebbero essersi verificati. Il principio di equifinalità è strettamente collegato a quello di causalità. Essendo presente una causalità di tipo circolare molteplici possono essere i processi che conducono a uno stesso esito.
3.1.3 Domanda o bisogno?
Quando si decide di studiare un sistema sulla base di una valutazione dei soggetti che lo costituiscono due importanti aspetti possono risultare problematici :
- attendibilità di quanto riferito dal soggetto;
- desiderabilità sociale;
- differenza tra domanda e bisogno.
Generalmente nelle indagini socio-economiche si assume che la risposta fornita dal soggetto corrisponda esattamente a quello che il soggetto pensa o al modo in cui si comporta, anche se non sempre è così.
Un esempio classico su come la verità possa in realtà differire da quanto sostenuto dai soggetti è rintracciabile in uno studio dello psicologo La Pierre, il quale nei primi anni trenta attraversò gli Usa con una coppia di cinesi (un suo studente e la moglie di quest’ultimo), in un periodo storico in cui l’etnia cinese era oggetto di un profondo razzismo all’interno del Paese. I tre si fermarono in 66 alberghi e 184 ristoranti. Nonostante il forte pregiudizio razziale che esisteva in quel periodo verso i cinesi e gli orientali in generale, un solo albergo si rifiutò di ospitarli. Al termine del viaggio La Pierre scrisse a tutti i ristoranti e gli alberghi dove era stato e chiese loro se fossero disposti a ospitare dei cinesi. Delle 128 risposte pervenute a La Pierre, il 92% risultava negativo.
Inoltre, alcuni aspetti possono comportare maggiori difficoltà di rilevazione, come ad esempio il reddito dei soggetti a causa della presenza e diffusione di comportamente illegali o immorali e – in particolare – la convinzione diffusa che esso sia ritenuto dai soggetti una informazione personale e privata.
Un ulteriore problema può essere dovuto all’esistenza di due fenomeni noti con il nome di “desiderabilità sociale” e “acquiescenza” (Roccato, 2003). Il primo fa riferimento al desiderio dei soggetti di dare una immagine di sé positiva fornendo risposte considerate socialmente più accettabili rispetto ad altre. L’acquiescenza fa riferimento alla tendenza dei soggetti – in particolare per alcune fasce di popolazione (es. bassa scolarizzazione o in relazione all’età) – a non contraddire l’interlocutore o l’intervistatore.
In ultimo è doveroso sottolineare la non completa corrispondenza tra domanda dei soggetti e bisogno effettivo. Il bisogno è una dimensione profonda dell’individuo che fa riferimento a una istanza di necessità, la domanda è la verbalizzazione di questo bisogno. Non sempre il bisogno riesce a raggiungere lo stato di coscienza e in molti casi rappresenta una dimensione latente difficilmente esplorabile in autonomia da parte del soggetto. Le analisi previsionali si basano essenzialmente su una analisi della domanda dei soggetti che però – successivamente – viene analizzata come se si facesse riferimento a un bisogno. Assumere domanda e bisogno come equivalenti non solo significa compiere un errore dal punto di vista metodologico ma comporta una probabile distorsione dei risultati della ricerca.
3.2 Questioni connesse alla metodologia
L’aspetto metodologico rappresenta un problema centrale nell’ambito delle ricerche finalizzate allo sviluppo di previsioni. La questione principale da affrontare riguarda l’esistenza di un ampio dibattito che contrappone le metodologie di natura qualitativa alle metodologie quantitative.
3.2.1 Qualità e Forma
I due termini: qualitativo e quantitativo, anche nel linguaggio comune, vengono il più delle volte intesi in forma dicotomica, come se la scelta del primo implicasse una rinuncia al secondo, e viceversa. Analogamente, quando qualità e quantità si riferiscono alle metodologie di ricerca, i termini vengono tipicamente assunti come contrapposti (Zammunner, 2003): tanto più si tenta di ricondurre l’osservazione a dati numerici, suscettibili di analisi statistiche specifiche per una lettura di questi il più possibile precisa, tanto più siamo nell’ambito del quantitativo; al contrario, quando si tende a credere che tale scelta quantitativa comporti una riduzione significativa delle informazioni a disposizione, e si decide di adottare un approccio meno riduzionistico, siamo nell’area del qualitativo.
La rivoluzione qualitativa ha avuto inizio negli anni settanta (Cicognani, 2002a) e attualmente è entrata nella settima fase del suo sviluppo, fase caratterizzata da fermento ed esplosione, in cui la ricerca qualitativa ha assunto un ruolo sociale finalizzato allo sviluppo e al progresso, comprovato dalle recenti pubblicazioni e dall’aumento di credibilità che queste ricerche riscuotono.
La prospettiva che si vuole proporre in questo contributo non intende qualitativo e quantitativo come due possibilità di scelta che si escludono vicendevolmente quanto, piuttosto, posizioni diverse che possono essere assunte. La visione dicotomica che contrapponeva i due modelli sembra ormai decisamente superata (Mazzara, 2002a; Laudadio et al., 2004) lasciando posto a una visione che sembra spingere verso una integrazione dei rispettivi metodi e tecniche.
Alcuni contributi individuano una via di uscita al dualismo appena proposto (Cipolla e De Lillo, 1996) nel passaggio da una contrapposizione bipolare (in cui le diverse tecniche vengono considerate lungo un continuum che va dal qualitativo al quantitativo, le prime legate agli aspetti metrici, le seconde agli aspetti di forma) a un approccio integrato fra i due modelli metodologici (in cui il rapporto tra forma e dimensione è inseparabile).
Fig. 3.1 – Contrapposizione Qualitativo – Quantitativo
Fig. 3.2 – Integrazione Qualitativo – Quantitativo
La contrapposizione bipolare quantitativo/qualitativo si tramuterebbe in una nuova distinzione tra metodologie: quelle con riferimento alla quantità (o della misura) e metodologie della qualità (o della forma). Il passaggio culturale implicato in questo cambiamento è di considerare i modelli qualitativi (forma) e quantitativi (misura) come compresenti nella maggior parte delle metodologie di ricerca.
Parallelamente, il rinnovamento ha interessato anche il linguaggio tecnico della ricerca. Guba e Lincoln (1982) suggeriscono di sostituire i concetti di validità con credibilità, attendibilità con affidabilità, obiettività con confermabilità e generalizzazione con trasferibilità.
In termini sistemici, la conoscenza non è la ricerca della verità oggettiva ma implica, piuttosto, la capacità di operare adeguatamente in una determinata situazione (Maturana, 1980).
L’accordo su questo rinnovamento terminologico non è univoco, mentre sembra condiviso (Mazzara, 2002b; Cicognani, 2002b) l’auspicio che la ricerca qualitativa – nel tentativo di sciogliere il nodo della validità – ponga maggiore attenzione alle modalità con le quali la ricerca è stata svolta, entrando maggiormente nel merito delle fasi della ricerca e delle metodologie impiegate.
In questo modo la validità diventa il frutto di un processo sociale di negoziazione tra gli scienziati (Mazzara, 2002a), dove ruolo fondamentale diventa l’esplicitazione della prospettiva da cui parte l’analisi (Cicognani, 2002b).
3.2.2 Prevedere il futuro
La metodologia adottata riguarda essenzialmente la modalità con cui l’osservatore sceglie di raccogliere dati hic et nunc sull’oggetto di studio.
Nel caso dei modelli previsionali è necessario interrogarsi anche su come quello che è stato raccolto sia in grado di prevedere il futuro.
Le prime critiche alla possibilità di prevedere il futuro sulla base dei dati presenti fu mossa nel 1923 da Ludwig Wittgenstein che affermò che gli eventi del futuro non potevano essere inferiti dai presenti e che la credenza nel nesso causale era pura superstizione.
Un esempio di fallimento di modello previsionale è rintracciabile nel dibattito riguardo la validità dei meccanismi di previsione dell’esito elettorale. Diversamente da quanto accade per altri tipi di inchieste campionarie, i pronostici formulati sulla base di sondaggi preelettorali possono essere valutati (e anche inequivocabilmente smentiti) alla luce dei risultati ufficiali delle consultazioni elettorali (Gasperoni e Callegaro, 2007). Le analisi elettorali si prestano ad alcune interessanti considerazioni generalizzabili ai modelli previsionali in quanto per ciascun sondaggio è possibile calcolare un indice complessivo che ne stima la bontà previsionale. Da una analisi di Gasperoni e Callegaro (2007) nel 2006 solo il 4 % dei sondaggi ha avuto un indice di previsione accettabile (ovvero con una differenza dai risultati effettivi vicina a 0). In particolare sembrerebbe che l’approssimarsi del giorno del voto, piuttosto che ridurre le imprecisioni previsionali le abbia in larga parte incrementate.
A nostro avviso è possibile identificare una serie di cause che sono alla base di queste distorsioni, sia in relazione ai sondaggi elettorali, sia – più in generale – alle analisi previsionali in ambito socio-economico:
- le previsioni sono in larga parte realizzate sulla base delle intenzioni espresse e non manifestate dei soggetti intervistati;
- la raccolta dei dati avviene attraverso il metodo dell’intervista telefonica su telefono fisso, in un periodo nel quale secondo l’Eurobarometro il telefono cellulare è l’unico telefono posseduto dal 25% delle famiglie;
- le dichiarazioni dei soggetti sono espresse in relazione al voto, ma il voto per essere espresso richiede che il soggetto si rechi effettivamente a votare, ovvero che all’intenzione segua l’azione;
- la campagna elettorale, nel corso del suo sviluppo e all’approssimarsi della scadenza elettorale prevede una escalation di promesse. In altre parole, il fenomeno cambia nel tempo e aumenta il suo livello di complessità;
- gli aggiustamenti, le ponderazioni e le proiezioni raramente vengono basate su metodi scientifici o in relazione a dei parametri di controllo, ma più frequentemente si basano sull’esperienza del sondaggista;
- formulazione della domanda, a cui si associa una sostanziale differenza tra quello che viene effettivamente chiesto e l’interpretazione che viene successivamente fatta della risposta;
- l’analisi viene condotta presupponendo una stabilità del sistema e una scarsa influenza da parte di altri sistemi (prossimi o distanti).
Le distorsioni dovute a difetti di campionamento sono un fenomeno non nuovo proprio in ambito previsionale. Il caso più noto è quello che accadde nel 1936, quando la rivista “Literary Digest” inviò per posta 10 milioni di schede invitando i destinatari, anonimamente, a indicare il candidato che avrebbero votato alle imminenti elezioni per il presidente degli Usa tra Landon (repubblicano) oppure Roosevelt (democratico). Il campione venne selezionato dagli elenchi telefonici e dai registri automobilistici. Il risultato del sondaggio fu:
- Landon 57,1%
- Roosevelt 42,9%
Nelle elezioni che seguirono Roosevelt raccolse il 62,5% dei voti. La spiegazione dell’errore previsionale è da imputare principalmente alla strategia di campionamento, che prelevando i nominativi proprio da elenchi telefonici e automobilistici (in un periodo in cui l’auto e il telefono erano beni di lusso) finì per sovrastimare il voto dei repubblicani, tradizionalmente associato alle classi più agiate.
Similmente, la tipologia di domanda produce differenze significative nelle risposte dei soggetti. Negli Usa periodicamente viene condotto uno studio circa i problemi principali del Paese, in cui la stessa domanda viene posta sia in modalità chiusa (tramite una lista di preferenza o alternative) sia tramite modalità aperta (libera risposta), proprio per tenere sotto controllo questo effetto.
Tab. 3.2 – Risultati dello studio circa i problemi del Paese
% | Domanda chiusa | % | Domanda aperta |
6,0 % | Problemi energetici | 1,7% | Problemi energetici: Scarsità di energia, ecologia, sovraffollamento… |
34,9% | Criminalità e violenza | 15,7% | Criminalità: problemi di ordine pubblico, eccessiva indulgenza dei giudici … |
12,6% | Inflazione | 13,3% | Inflazione: alti prezzi, aumento del costo della vita… |
19,7% | Disoccupazione | 19,1% | Disoccupazione |
9,9% | Scarsa fiducia nel governo | 3,0% | Scarsa fiducia nel governo: la gente non crede che il governo farà ciò che è giusto… |
1,1% | Trasporti | 1,1% | Trasporti |
9,2% | Rilassamento morale e religioso | 5,7% | Rilassamento morale e religioso: disgregazione della famiglia, alcool, droga, allontanamento dalla religione … |
1,6% | Problemi razziali | 2,4% | Problemi razziali: conflitti tra gruppi etnici, tra minoranze … |
32,7% | Altre categorierie | ||
1,8% | Altro | 3,0% | Altro |
0,2% | Non so | 1,1% | Non so |
3,0% | Non risposta | 1,3% | Non risposta |
100 % | Totale | 100% | Totale |
Regolarmente, i risultati tra le due metodologie sono dissimili. Come si evince dalla tab. 3.2 alcuni problemi ricevono percentuali di risposta significativamente maggiori (problemi energetici, criminalità, scarsa fiducia nel governo…) quando la richiesta viene posta sulla base di un elenco ed esiste una significativa polverizzazione delle risposte (+32,7% di risposte associabili ad altre categorie) quando la risposta è libera. Quello che colpisce è la stabilità, con entrambi i metodi, di alcune risposte come l’inflazione e la disoccupazione. Questo è dovuto al fatto che più un problema è sentito come centrale ed esperito direttamente dal soggetto più è probabile che esista una variazione ridotta in relazione alla modalità con cui viene formulata la domanda.
Alle volte, come è stato ampiamente documentato in letteratura, è sufficiente modificare una parola all’interno di una domanda per produrre differenze significative nelle risposte dei soggetti.
In un noto studio compiuto annualmente negli Usa con due campioni equivalenti (per tutte le variabili di campionamento) viene chiesta l’opinione riguardo i discorsi pubblici sulla democrazia. Al primo gruppo viene chiesto se si dovrebbero proibire i discorsi pubblici contro la democrazia e al secondo gruppo se si dovrebbero permettere i discorsi pubblici contro la democrazia.
Tab. 3.3 – Differenze di risposte tra permettere e proibire
Anno | Domanda | Si | No |
1941 | Proibire | 54% | 46% |
Permettere | 25% | 75% | |
1981 | Proibire | 23,2% | 76,8% |
Permettere | 54,4% | 45,6% |
Come si evince dalla tab. 3.3, non proibire e permettere non prevedono dei risultati simili in nessuna delle due rilevazioni. L’uso del verbo proibire è, secondo alcuni autori, inteso con un significato più duro e i soggetti possono trattenersi dal sottoscriverlo, al contrario l’uso di permettere può essere inteso come un incoraggiamento a un comportamento deviante e invitare perciò all’opposizione. Tale effetto risulta significativamente maggiore quando l’opinione dei soggetti non è pienamente strutturata rispetto a un certo tema. In altre parole, più il soggetto non ha una opinione stabile più è probabile che la formulazione della domanda ne modifichi o indirizzi la risposta.
È necessario sottolineare che in questo tipo di analisi viene assunto come presupposto di base di trovarsi a cospetto di sistemi in equilibrio, o comunque di sistemi chiusi. Spesso si dimentica che i sistemi complessi rispondono solo raramente a delle regole lineari e nella quasi totalità dei casi sono esposti al caos e, di conseguenza, ad aspetti ed evoluzioni non prevedibili.
3.2.3 Ordine e Caos
Nello studio dei fenomeni fisici, Prigogine (2003) sottolinea come in un sistema il non-equilibrio conduca all’ordine. Secondo l’autore sarebbe proprio la lontananza dall’equilibrio a far comparire nuove strutture con proprietà auto-organizzatrici. Lo studio dei fenomeni di non-equilibrio è reso particolarmente interessante proprio dal fatto che quello che avverrà non è determinato (sia in relazione agli esiti sia ai processi). Perturbando dei sistemi in condizione di non-equilibrio, in conformità con la proprietà dell’equifinalità, si potrebbero osservare processi diversi che conducono allo stesso esito o processi simili che conducono a esiti diversi, o – ancora – processi ed esiti diversi.
Ilya Prigogine (2003) spiega molto bene questo concetto utilizzando come esempio le reazioni chimiche:
«In una reazione chimica, sappiamo che si producono senza sosta delle fluttuazioni. C’è sempre, qui o là, un po’ più un po’ meno d’un composto dato di come non vorrebbe la sua concentrazione media. Senza dubbio, per uno stato prossimo all’equilibrio o in equilibrio, questo fatto è insignificante: le fluttuazioni muoiono, e l’ambiente torna verso uno stato omogeneo. Ma lontano dall’equilibrio può prodursi l’inverso: invece di constatare un ritorno verso lo stato iniziale, vediamo una amplificazione delle fluttuazioni, e questa amplificazione porta a una situazione nuova, che apre a una serie di possibilità variate che oggi la fisica ha solo cominciato a esplorare. Non c’è campo più “esplosivo”, oggi, dello studio dei fenomeni di non-equilibrio.» (p.77).
Inoltre, aggiunge:
«Vicino all’equilibrio è sempre possibile linearizzare, mentre lontano dall’equilibrio abbiamo una non-linearità dei comportamenti della materia. Non-equilibrio e non-linearità sono concetti legati tra loro.
Le equazioni non-lineari hanno molte soluzioni possibili e pertanto una molteplicità, una ricchezza di comportamenti che non si possono trovare vicino all’equilibrio.» (p.83).
Tradizionalmente, per spiegare la teoria del caos viene utilizzato il noto effetto farfalla di Lorenz (1984). Egli, nel tentativo di prevedere determinate condizioni atmosferiche a partire da dati fissi attraverso l’utilizzo di potenti sistemi di calcolo basati su computer, si è reso conto che esistono piccole perturbazioni, legate a processi di approssimazione nella misurazione, che a lungo andare producono un allontanamento da quelli che sono i risultati attesi. In pratica, approssimando in modo infinitesimale gli indici che venivano inseriti all’interno del processo di calcolo gli esiti venivano irrimediabilmente modificati. In altre parole, il semplice battito di ali di una farfalla può produrre all’interno del sistema modificazioni profonde e del tutto imprevedibili.
Smale (1980) nell’ambito dello studio sulle popolazioni in biologia, ha osservato come sia arbitrario predire l’evoluzione di una data popolazione umana o animale. L’evoluzione è influenzata da alcuni fattori casuali, come variazioni climatiche, fenomeni ambientali e così via che non possono essere predetti. Risultati del tutto simili sono stati ottenuti dagli economisti nel tentativo di predire le fluttuazioni dei costi dei prodotti. Secondo James Gleick (2000) il caos è presente ovunque:
« Una colonna di fumo di sigaretta si rompe in spire irregolari. Un rubinetto gocciolante passa da un ritmo regolare a uno casuale. Il caos fa la sua apparizione nei fenomeni metereologi, in quello di un aereo in volo, nei raggruppamenti di automobili su di un’autostrada, nelle modalità di flusso del petrolio in oleodotti sotterranei…il caos valica le linee di demarcazione delle varie discipline scientifiche.» (p. 11).
La teoria del caos focalizza l’attenzione sull’impossibilità di fare delle previsioni e studia gli eventi complessi e turbolenti dei sistemi non lineari. Per questo, partendo dall’assunto che il sistema uomo interagisce con molti altri sistemi non è possibile prevedere completamente l’esito di queste interazioni (Bandura, 1982).
Il caos è sempre la conseguenza di fattori di instabilità (Prigogine, 1999). La maggior parte dei sistemi di interesse fisico sono sistemi instabili. In essi una piccola perturbazione si amplifica e traiettorie inizialmente vicine divergono e l’instabilità introduce nuovi aspetti essenziali.
Secondo Prigogine (2003) la fisica del non equilibrio ha fornito una migliore comprensione del meccanismo della comparsa degli eventi i quali vengono sempre associati a delle biforcazioni. Secondo Antoniou (2003) i sistemi trovano la propria strada attraverso attrattori e repulsori, subendo transizioni critiche in seguito al cambiamento dei parametri d’ordine, determinato dalle fluttuazioni. Di conseguenza, tanto più il sistema è complesso, tanto maggiore è il numero di possibili biforcazioni e quindi tanto più importante il ruolo delle fluttuazioni individuali (Pessa, 2003). Queste, e altre, considerazioni hanno portato Prigogine a sostenere con forza che il futuro non è e non può essere determinato.
3.3 Questioni connesse al soggetto
Al pari degli aspetti legati all’oggetto e della metodologia adottata anche il soggetto che osserva pone delle questioni, in parte ancora aperte. Parlare del soggetto significa porsi domande in relazione alla validità della realtà osservata e alla capacità del soggetto di rilevarla. La realtà osservata da un soggetto è oggettiva o piuttosto una costruzione a cui contribuisce in modo considerevole colui che osserva? Questa domanda è alla base dell’approccio costruttivista. In un’ottica costruttivista la conoscenza è vista come un processo di costruzione di significato che l’individuo compie a partire dalle proprie esperienze organizzate e ordinate in modo originale e personale (Mahoney e Patterson, 1992). In contrapposizione a una concezione della realtà come unica, esterna e stabile, il costruttivismo sottolinea il processo di costruzione della realtà (che non risulta quindi più oggettiva) e una visione proattiva dell’individuo (Joung e Collins, 2004).
Secondo Patton e McMahon (2006) gli assunti sistemici su cui si fonda il costruttivismo sono tre:
- la soggettività della persona è centrale;
- è impossibile separare le persone dal contesto;
- nulla è assoluto e non è possibile rintracciare un set di regole valide per tutti.
Secondo il costruttivismo, l’oggettività e la conoscenza pura sono impossibili: tutto il conosciuto rappresenta – necessariamente – il prodotto di un processo di interpretazione. L’individuo è considerato il costruttore attivo della propria vita ed è impossibile conoscere la realtà che l’osservatore ci vuole proporre in modo separato dall’osservatore stesso (Ames, 1960). I soggetti, a partire dalle personali esperienze costruiscono e organizzano la realtà e – in questo modo – cambiano e si modificano costantemente pur rimanendo sempre gli stessi (Mahoney e Lyddon, 1988).
L’individuo è concepito come un sistema aperto auto-organizzato che mantiene uno stato di equilibrio attraverso processi di adattamento con la realtà esterna. Per mantenere l’equilibrio l’individuo riorganizza gli eventi costruendovi un significato unico e originale e, per questo motivo, lo sviluppo del soggetto/sistema non può essere semplificato in un processo lineare che determina il passaggio da uno stadio all’altro secondo una progressione di tipo evolutivo (Savickas, 2000).
La validità di un’osservazione risiede nell’osservatore. Ogni osservatore che guarda un sistema in interazione con un ambiente ne darà una propria irriducibile lettura e offrirà informazioni nuove e diverse. Di conseguenza non è possibile considerare nessuna osservazione migliore delle altre e si può ottenere una conoscenza più ricca se si fa riferimento a più fonti.
Questa posizione ha effetti dirompenti anche sulle metodologie di ricerca e – più in generale – sull’approccio epistemologico alla base della scienza. Heisenberg (1953), con la formulazione del teorema di indeterminazione sancisce – anche nell’ambito della fisica – il crollo della scienza oggettiva. Heisenberg ha dimostrato il principio di indeterminazione delle particelle atomiche, secondo il quale: possiamo sapere dove si trova una particella atomica in un determinato istante, oppure dove essa stia andando, ma non entrambe le cose; più precisa è la sua posizione meno precisa sarà la sua quantità di moto (Heisenberg et al., 1959) e quindi l’informazione elementare per conoscere la direzione.
Secondo Heisenberg (1953) tutto ciò che osserviamo non è la natura in se stessa ma la natura esposta ai nostri metodi di indagine. L’osservatore umano non è necessario solo per osservare le proprietà e le caratteristiche di un oggetto ma è necessario anche per determinare queste proprietà. Di conseguenza, l’unica realtà esistente è quella costruita dall’osservatore in interazione con l’osservato. Capra (1975, 1982), nell’ambito della fisica, per spiegare la stretta relazione esistente tra chi osserva e ciò che è osservato riporta l’esempio dell’elettrone. Un elettrone, cioè l’osservato, può essere identificato solo con apparecchiature complesse di laboratorio, quindi può essere osservato solo dall’osservatore in un determinato contesto. Anche sulla base di queste considerazioni, von Foerster (1981) sostenne l’urgenza di una descrizione del descrittore, ovvero di una teoria dell’osservatore. Introdurre il ruolo dell’osservatore all’interno del costruttivismo produce il passaggio dai contenuti alle strutture, ovvero da un sapere che a un sapere come (Del Miglio, 1989). In termini sistemici, è necessario passare da una teoria dei sistemi di primo ordine (senza osservatore) a una teoria dei sistemi di secondo ordine, ovvero sistemi dotati di auto-osservazione (von Foerster, 1981).
3.4 Conclusioni
Nella veloce disamina presentata emergono alcune criticità attualmente non ancora risolte nell’ambito degli studi previsionali.
In particolare, in relazione agli studi di analisi dei fabbisogni rispetto al mercato del lavoro, le cause degli errori previsionali sono legate a:
- ampiezze campionarie insufficienti: le ampiezze campionarie generano margini di errori superiori alla stima stessa. In altre parole, con una ampiezza campionaria di 1.000 imprese si ha un errore di stima di circa il 3%. Molte delle variazioni occupazionali sono inferiori a questo valore. Ad esempio, potremmo avere una professione di cui si prevede una crescita dell’1,5% ma questo valore va visto all’interno della forchetta (calcolata stima +/- errore di stima): -1,5% + 4,5%;
- basso coinvolgimento del territorio: le aziende e le strutture che operano direttamente sul territorio (cpi, Enti di formazione, organismi sindacali…) sono scarsamente coinvolte nel processo di analisi;
- lunga coda delle professioni: le analisi non tengono conto della frammentazione e polverizzazione delle professioni e del fatto che queste si distribuiscono seguendo un modello tipico della lunga coda;
- le analisi fanno riferimento esclusivamente a profili chiari e ben definiti: ma – e chi opera direttamente sul campo ne è ben consapevole – le pmi tendono a occupare anche professionisti ecclettici in grado di operare in diversi contesti della stessa azienda. Molto spesso questi professionisti sono considerati più in relazione al loro quadro di competenze che alla specifica etichetta professionale;
- nel corso della ricerca viene intervistato il responsabile dell’azienda chiedendo di indicare quante e quali tipologie di lavoratori pensa di occupare: in questo modo l’intervistato non ha punti di riferimento certi ed è dimostrato come la sua stima – spesso – sia fortemente distorta;
- viene assunto come valido quanto sostenuto dalle aziende in relazione al fabbisogno occupazionale, senza tener conto della desiderabilità sociale e dell’acquiescenza;
- raramente chi realizza le ricerche – rispetto alla teoria dell’osservatore – sottolinea o evidenzia le motivazioni alla base dell’indagine e la posizione politica propria del ricercatore o della struttura di appartenenza;
- viene tenuta in considerazione solo in modo marginale la presenza di eventi casuali che possono influenzare significativamente la previsione;
- la previsione viene condotta presupponendo una sostanziale stabilità degli altri sistemi. Ad esempio, viene presupposto un costante sviluppo socio-economico.
In relazione a quest’ultimo aspetto vogliamo sottolineare come nelle analisi previsionali sul sistema formativo o del mercato del lavoro viene completamente ignorato l’andamento macro dell’economia o della demografia. Viene presupposta una sostanziale stabilità del contesto e delle circostanze. In altre parole, viene previsto lo stato dell’acqua all’interno di un bicchiere mentre intorno al bicchiere potrebbe infuriare una tempesta.
Proprio in questi giorni, la crisi economica globale ha messo in seria discussione qualsiasi analisi previsionale. In primo luogo perché la bassa possibilità di previsione della crisi, della sua durata e del suo impatto sull’economia reale evidenzia i limiti già in precedenza descritti delle analisi previsionali; in secondo luogo la crisi ha messo in discussione qualsiasi previsione su altri aspetti proprio perché una crisi economica globale potrebbe creare tali e tanti elementi di perturbazione delle previsioni da renderle sostanzialmente nulle.
Abbiamo ritenuto opportuno condurre una triplice analisi dei fabbisogni in relazione al territorio della Provincia di Cosenza che, partendo da queste considerazioni, tentasse di superare alcuni dei limiti discussi, ma soprattutto che potesse costituire uno strumento (e non “lo strumento”) viabile di supporto per la programmazione delle politiche di governance per la formazione e l’orientamento.
Nello specifico sono state condotte tre indagini, finalizzate a rilevare:
- fabbisogni professionali;
- fabbisogni formativi;
- fabbisogni orientativi.
Nei prossimi capitoli saranno descritti i principali risultati di queste indagini.