The Strange Case of Dr. Learning and Mr. Accountability.
di Andrea Laudadio*, Marco Amendola**, Antonio Flamini***
* Gruppo e-Laborando. Responsabile Area Mercato del Lavoro e Formazione;
e-mail: a.laudadio@gruppoe-laborando.it
tel. 06.854.9.854
** Gruppo e-Laborando. Consulente;
e-mail: info@gruppoe-laborando.it
tel. 06.854.9.854
*** Gruppo e-Laborando. Senior Partner;
e-mail: a.flamini@gruppoe-laborando.it
tel. 06.854.9.854
Premessa
Nella formazione, così come in altri ambiti applicativi, è consuetudine sostenere la necessità di promuovere uno scambio sempre più serrato tra le riflessioni che provengono dal mondo della ricerca e quelle che scaturiscono dalla pratica professionale, ovvero di fare in modo che la nuova conoscenza prodotta costituisca un valore aggiunto per l’intera comunità degli addetti ai lavori. L’ambito della valutazione si presta in modo particolare a contaminazioni di questo genere.
Attualmente non c’è area professionale che non sia interessata a procedure, metodi o esperienze di valutazione, ma soprattutto a strumenti di raccolta e analisi dei dati. Tra queste, la formazione.
A prima vista sembrerebbero scontate le ragioni per le quali si valuta un corso/percorso a carattere formativo. Parafrasando un noto assioma sulla comunicazione[1] – come ricorda Avallone (1996) – si può sostenere che “non si può non valutare”, ovvero che la valutazione sia la premessa per dirigere e orientare l’azione e – in chiave non solo formativa – costituisca “un atto di attribuzione di significato, con forte valenza decisoria, che implica una specifica attribuzione di responsabilità” (ibidem, pag. 23).
Data per scontata l’inevitabilità (più che l’importanza) della valutazione, l’impressione da cui siamo partiti è che in riferimento a questo specifico aspetto della pratica professionale – così come sosteneva Carli (1999) a proposito della formazione – la valutazione sia data, e non pensata.
Coloro che operano in ambito formativo non avranno difficoltà nel riconoscersi nel fatto che: (a) la valutazione – benché riferita ad un intero processo, e non ad un momento specifico – si concretizza tipicamente nell’utilizzo di strumenti di rilevazione dei dati (questionari di fine corso); (b) alla domanda “Che fine fanno i questionari di fine corso?” si registra una curiosa omogeneità nelle risposte.
Incoraggiati dal sospetto che la consuetudine di somministrare un questionario di fine corso non consenta di riflettere in modo approfondito sull’essenza delle procedure a carattere valutativo, adottate più per automatismo che per necessità, in questo contributo si vogliono presentare i risultati di alcuni studi realizzati dalla società di formazione Gruppo e-Laborando con l’intento di fornire un supporto per coloro che, nella quotidianità della pratica professionale, si occupano di mettere a punto e/o utilizzare strumenti di valutazione, nonché promuovere un più serrato dialogo tra versante della ricerca e quello dell’esperienza professionale.
Learning e accountability
Osservando la questione sotto il profilo organizzativo ci si accorge di come il tema della valutazione si presti ad essere affrontato in una prospettiva di più ampio respiro. Ad esempio, De Polo (1998) sottolinea in che modo le procedure a carattere valutativo abbiano diversa valenza in ragione del mandato iniziale che le ha generate.
Negli ultimi anni, a seguito del massiccio ricorso ai Fondi della Comunità Europea, l’insieme delle riflessioni rintracciabili in letteratura sulla valutazione ha subito una decisiva accelerazione in virtù della quale – oggi – valutare significa anche e soprattutto rispondere ad un mandato preciso, ovvero quello esemplificato nella distinzione tra accountability e learning proposta da Palumbo (2001).
Secondo Palombo (2001) le ragioni per le quali si valuta sarebbero riconducibili a due: da un lato la necessità di “rendere conto” (accountability) alla collettività soprattutto in relazione ai finanziamenti ricevuti (in cui è possibile imbattersi – aggiungiamo noi – in una tendenza ad omettere o minimizzare gli aspetti negativi); dall’altro la necessità di “apprendere dall’esperienza” (learning), in cui il focus è dato dai problemi e dalle strategie cui si è fatto ricorso per superarli.
A nostro avviso, accountability e learning sono aspetti che orientano in modo decisivo un impianto valutativo, laddove l’utilizzo dei questionari di fine corso costituisce solamente l’esito finale di un insieme di riflessioni che andrebbero opportunamente anticipate nella fase di avvio di un progetto.
Le ricerche presentate di seguito ripercorrono il tentativo di rispondere agli interrogativi in cui ci siamo imbattuti nel corso degli ultimi anni “facendo il punto” sui progetti realizzati.
Il parere dei nostri formatori
Il nostro primo studio – risalente a ormai tre anni fa – si basava su un questionario somministrato (in forma anonima) a 65 formatori[2] e faceva riferimento ad alcuni aspetti specifici del processo di valutazione. In particolare abbiamo chiesto loro di esprimersi circa l’impatto che le valutazioni avevano sulle loro modalità formative, ottenendo risposte (in una certa misura) sorprendenti.
Da un lato il 90,76% dei soggetti giudicava molto o del tutto importante realizzare interventi di valutazione; dall’altro, solo il 18,46% valutava molto o del tutto utile l’attività di valutazione da noi svolta. Inoltre, solo il 13,84% riferiva di aver apportato modifiche ai moduli successivi sulla base delle valutazioni ricevute in precedenza. Il 93,84% dei soggetti riteneva di essere in grado di prevedere con buona approssimazione i risultati del processo di valutazione e, al tempo stesso, il 78,46% era dell’opinione che i “risultati della valutazione dipendono più dai soggetti presenti in aula che dai formatori”.
Veniva spontanea una considerazione: perché i formatori trovano così importante il processo di valutazione se l’esito è prevedibile, non dipende principalmente dal loro lavoro e non comporta sostanziali modifiche al loro modo di fare formazione? In altre parole, come può essere la valutazione (di un corso) molto importante ma anche poco utile?
Alcune argomentazioni venivano in soccorso. Analizzando le domande aperte del questionario emergeva che spesso i risultati della valutazione giungono al committente solo a una distanza considerevole dal corso, quando non è più possibile “trarre insegnamento” dai risultati che emergono. Inoltre, i formatori giudicavano poco utili i criteri di valutazione utilizzati, con particolare riferimento allo spazio marginale dedicato alla “modalità formativa”, privilegiando aspetti strutturali ed organizzativi.
Il parere dei partecipanti: una prima analisi dei dati aggregati
Ulteriormente incoraggiati dalle perplessità emerse si è pensato di eseguire una analisi dei dati su tutti i questionari di valutazione di fine corso di formazione in nostro possesso.
E’ doveroso precisare che i corsi di formazione da noi realizzati sono essenzialmente inquadrabili nell’ambito della formazione professionale finanziata dall’FSE e rivolti a disoccupati e inoccupati.
La struttura dei questionari esaminati è la seguente: 21 item, dei quali 1 centrato sulla valutazione del corso in generale e i rimanenti 20 su aspetti specifici del corso riconducibili – essenzialmente – a due categorie di contenuto:
- Organizzazione (ovvero: modalità organizzative, gestione degli orari, aspetti logistici …), a cui afferivano 8 item (es. quando si ritiene soddisfatto dell’aula; quanto si ritiene soddisfatto del tutor d’aula);
- Contenuti (competenze apprese, modalità didattiche…), a cui afferivano 12 item (es. quanto si ritiene soddisfatto delle competenze acquisite; quanto si ritiene soddisfatto dei docenti);
La struttura delle risposte prevedeva una scala Likert a 5 passi (1= per nulla e 5= del tutto) in cui veniva chiesto di esprimere il livello di soddisfazione in relazione ai diversi aspetti presentati.
I dati in nostro possesso si basavano su un totale di 558 questionari che facevano riferimento a 34 diversi corsi di formazione realizzati. Il totale dei dati è stato sottoposto ad analisi fattoriale per verificare quali fossero le dimensioni latenti legate alla valutazione del corso. L’obiettivo era semplicemente quello di realizzare una prima “esplorazione” delle dimensioni che sottendono il processo di valutazione[3].
L’analisi fattoriale[4] ha evidenziato l’esistenza di un unico fattore latente in grado di spiegare il 72% della varianza complessiva. Analizzando infatti le correlazioni tra la valutazione generale (item 21 del questionario) e ciascuno degli altri 20, si registravano valori molto alti e compresi tra 0.73 e 0.92.
A quali conclusioni si prestava questo risultato? Benché interrogati su aspetti diversi tra loro, i soggetti esprimerebbero una valutazione complessiva, senza evidenziare alcuna dimensione specifica. Le ipotesi, a nostro avviso sono sostanzialmente due: o bisogna accettare l’idea che esista una dimensione generica di valutazione – indipendente da aspetti specifici – oppure il nostro questionario non era in grado di distinguere tra i diversi aspetti che caratterizzano un corso.
La procedura del card sorting per un nuovo strumento di rilevazione
In altre parole, è possibile che il nostro questionario parli il linguaggio dei formatori e che questo linguaggio sia distante da quello dei partecipanti ad un corso di formazione? Potremmo anche ritenere che sia agevole esprimersi su un certo tipo di oggetto di analisi, ma siamo poi in grado di scendere nel dettaglio? E fino a che livello di dettaglio siamo in grado di arrivare?
Un esempio, in particolare, ci convinse della bontà delle nostre riflessioni. Se ci chiedessero se siamo soddisfatti del nostro telefono cellulare, probabilmente saremmo in grado di fornire una risposta senza particolari difficoltà; ma siamo in grado di diversificarla sui diversi aspetti che lo caratterizzano (display, tasti, peso, qualità audio, funzioni particolari, durata della batteria e via dicendo)? E come risponderemmo alla domanda sulla nostra soddisfazione circa la sua velocità? Interattività? Collegamenti ed interfacce? Personalizzazioni? Con tutta probabilità risponderemmo rifacendoci al nostro giudizio generale, per poi modularlo esclusivamente sulla base degli aspetti di cui siamo molto soddisfatti, oppure per quelli che ci hanno creato dei problemi. Inoltre, sul nostro “primo” cellulare, rispetto a quello che possediamo oggi, saremmo stati così bravi a rispondere?
Tornando alla valutazione di un corso di formazione: le dimensioni che inseriamo in un questionario di valutazione sono prossime e comprensibili per chi frequenta i nostri corsi? Oppure siamo davanti a questionari per tecnici della telefonia cellulare, che poi usiamo indistintamente anche per gli utenti finali?
Per questo motivo – abbiamo pensato – potrebbe essere tutt’altro che superfluo interrogarsi su quali siano le categorie cognitive[5] cui fa riferimento il partecipante per valutare il corso che ha appena frequentato.
Il metodo che abbiamo adottato per l’analisi delle categorie cognitive è quello del card sorting (letteralmente “ordinare le schede”) che consiste in una procedura utilizzata nella ricerca specialistica per verifiche di usabilità o, più in generale, per entrare nel merito del processo di categorizzazione che gli individui mettono in atto (cfr. Ferlazzo, 2005).
Ad ogni soggetto abbiamo presentato una serie di cartoncini su ciascuno dei quali era riportato un aspetto specifico di un percorso di formazione, in ordine casuale. Veniva poi chiesto ai soggetti di organizzare (tutti) i cartoncini secondo criteri scelti liberamente e, in particolare, di categorizzare tutti i cartoncini in un numero qualsiasi di categorie omogenee, da loro create in base ad un qualsiasi criterio di categorizzazione (ovvero non si ponevano limiti al numero di categorie, al numero di cartoncini all’interno di ciascuna categoria, né al tipo di categorizzazione scelta) e – quando avevano terminato – i soggetti venivano invitati ad attribuire un nome descrittivo a ciascuna delle categorie individuate.
I cartoncini sono stati elaborati ad hoc: 46 in tutto, che riportavano, ad esempio, caratteristiche del tipo “Strumenti didattici”, “Docente”, “Tutor”, “Orario”, e via dicendo.
L’utilizzo di specifiche procedure di analisi dei dati ha consentito di produrre delle rappresentazioni grafiche della struttura categoriale definita dagli utenti.
Dall’analisi sembrerebbero emergere 5 categorie omogenee di contenuto:
- Organizzazione del corso (segreteria, tempi e spazi, struttura, aula…);
- Personale (docente e tutor);
- Utilità professionale (ricaduta professionale del corso);
- Utilità personale (ricaduta personale – e non professionale – del corso, ad esempio cultura generale e miglioramento delle relazioni personali).
- Congruenza con gli obiettivi e le aspettative.
Nuovo questionario, medesimi risultati
Sulla base dei risultati prodotti si è proceduto alla costruzione di un nuovo questionario di valutazione, non senza sollevare ulteriori dubbi. Come declinare le dimensioni identificate? Adeguatezza o soddisfazione? Congruenza con il patto formativo o rispondenza alle aspettative?
Domande diverse che con tutta probabilità avrebbero condotto a risultati profondamente diversi.
Confrontando altri strumenti di valutazione sia reperiti in letteratura sia adottati in altre strutture di formazione, le posizioni – su questo specifico aspetto – sembrano sostanzialmente due: da una parte i questionari in cui si chiede il livello di soddisfazione in relazione a degli aspetti specifici del percorso; dall’altra i questionari che – suddividendo il percorso in una serie di azioni consecutive – dall’informazione/accoglienza all’accompagnamento post-percorso – chiedono quanto ciascuna delle attività sia stata svolta correttamente o, meglio, in modo adeguato.
La nostra opinione è che questa seconda posizione complichi ulteriormente la questione, in quanto si dà per scontato che il partecipante sia in qualche modo esperto ed in grado di valutare l’adeguatezza del servizio ricevuto. E’ un po’ come se – dopo aver subito una operazione chirurgica – ci chiedessero di valutare la correttezza dell’operato dell’anestesista, o di chi ha disinfettato la sala operatoria. Al massimo potremmo rispondere con un ironico auspicio: “Spero di si!”
Il punto è chiaro: è davvero appropriato chiedere a soggetti di valutare aspetti o dimensioni di cui non si ha dimestichezza? Non si rischia di ottenere valutazioni parziali o forzatamente approssimative? (sempre ricordando il livello imprescindibile di soggettività di cui è portatore un percorso/processo di valutazione)
Tenendo conto delle questioni appena ricordate abbiamo proceduto alla costruzione di un nuovo strumento di valutazione, articolato in 25 item coerenti con le dimensioni identificate con la procedura del card-sorting precedentemente descritta.
Anche in questo caso non si è andati molto lontani rispetto ai dubbi sollevati all’inizio. Infatti, dopo aver sottoposto i dati ad analisi fattoriale, sono state confermate le medesime indicazioni: pur emergendo “seconde” e “terze” dimensioni, esiste un primo fattore che si riferisce ad una dimensione “generale” di valutazione.
E’ come dire che, per conoscere l’esito di un corso a carattere formativo, basterebbe porre un’unica domanda: Come valuta in generale il corso?
Di nuovo: come spiegare questo risultato?
Ironicamente, potremmo ritenere di svolgere così bene il nostro lavoro al punto che i nostri utenti sono soddisfatti di tutto quello che viene loro offerto in un percorso formativo.
In realtà è nostra convinzione che sul processo di formulazione di giudizio abbiano effetto una serie di aspetti non trascurabili. Pur non essendo in grado di ordinarli rispetto all’incidenza sul processo di valutazione, non possiamo di certo prescindere – ad esempio – da considerazioni sul contesto in cui viene proposto il questionario: se somministrato l’ultimo giorno del corso assisteremo probabilmente ad un effetto “ringraziamento” (o al suo reciproco, effetto “penalizzazione”) che peserà in modo significativo sul giudizio complessivo, generalizzandolo, nel bene o nel male.
Un nuovo tentativo: il ruolo delle motivazioni e delle metodologie d’aula
Recentemente – tutt’altro che scoraggiati dalla difficoltà di discriminare in più dimensioni quello che, a tutti gli effetti sembra riconducibile ad una unica e ingombrante dimensione – abbiamo centrato la nostra attenzione su altre questioni, sempre in riferimento al processo di valutazione: le motivazioni che portano i soggetti a partecipare al percorso formativo.
Nello specifico, relativamente a tre corsi di formazione professionale, abbiamo chiesto ai soggetti di compilare un questionario nel quale veniva chiesto quanto fosse “rilevante” ciascuna delle 16 motivazioni proposte. Sulla base delle risposte fornite le motivazioni sono state successivamente aggregate in due categorie: motivazioni intrinseche (volontà di imparare cose nuove, piacere personale, curiosità, e via dicendo) ed estrinseche (trovare lavoro, migliorare la mia condizione occupazionale, e via dicendo).
La novità più rilevante è che in questo caso il questionario è stato consegnato in due momenti distinti: a fine corso, e trascorsi tre mesi dalla fine.
In estrema sintesi: laddove le risposte fornite alla fine del corso sono tendenzialmente assimilabili tra loro – ovvero non si registrano particolari differenze o criteri per aggregare l’insieme dei soggetti in gruppi – nella valutazione prodotta dopo tre mesi dalla fine del corso le cose stanno diversamente. I soggetti attivati da motivazioni intrinseche – diversamente dai secondi – mantengono la valutazione data del corso (anche se si registra un lieve decremento); per gli altri la valutazione è fortemente legata al raggiungimento degli obiettivi. Coloro che hanno trovato lavoro, o migliorato la loro condizione occupazionale, manterrebbero la valutazione fornita del corso; coloro che non hanno tratto benefici immediati dal corso, sotto il profilo professionale, lo valutano in termini estremamente più negativi.
Ma – ci siamo chiesti – il conseguimento (o meno) dei propri obiettivi professionali è imputabile esclusivamente al corso? Come possiamo tenere conto di queste differenze? Tra le valutazioni fornite dai soggetti (al termine e dopo tre mesi) qual è quella più veritiera? Quanto pesano le dimensioni individuali nel processo di valutazione di un percorso di formazione?
Un’altra sezione del nostro protocollo di valutazione consentiva di entrare nel merito di ulteriori questioni.
Analizzando i dati aggregati di una sezione del nostro questionario (dedicata prettamente agli aspetti didattici) e somministrata alla fine di ciascun modulo formativo, emergono ulteriori indicazioni interessanti.
In primo luogo, sembrerebbe esistere un effetto “entusiasmo” sul processo di valutazione: sarebbero i moduli iniziali ad essere valutati in modo migliore, per poi registrare un naturale decremento nei giudizi valutativi. In secondo luogo, alcune modalità didattiche (prescindendo dagli argomenti del corso) sembrano fornire garanzie di un successo valutativo: l’utilizzo di role playing, autocasi, le esercitazioni pratiche in generale, fanno registrare livelli di valutazione nettamente superiori, così come la proposta di contenuti associati più alla trasmissione di metacompetenze che di competenze tecniche specifiche.
Conclusioni
Di seguito vogliamo presentare brevemente alcune considerazioni che hanno caratterizzato il dibattito all’interno del gruppo di lavoro che si è occupato delle ricerche presentate.
- La nostra esperienza sul campo ci spinge a pensare che le procedure e le tecniche di valutazione utilizzate oggi all’interno dell’area della formazione siano ancora lontane dal fornire un concreto apprendimento per il sistema-formazione. I nostri formatori lo hanno capito prima di noi che progettiamo e gestiamo i corsi, e sanno che i risultati della valutazione non cambieranno il loro modo di svolgere la loro attività di lavoro. E’ necessaria una inversione di tendenza che promuova una maggiore partecipazione di tutti i soggetti all’interno del processo di valutazione, affinché “l’apprendimento” prodotto dalla valutazione sia socializzato e soprattutto leva del miglioramento. Nel nostro piccolo, il nostro percorso di ricerca presentato, anche se di fatto non ha condotto alla costruzione di uno strumento in grado di superare tutti i limiti del precedente questionario, ha comunque consentito di produrre una riflessione che ha interessato tutta la nostra struttura producendo nuovi interrogativi che, ci auguriamo, siano di supporto per coloro che si imbattono quotidianamente in questioni analoghe. Anche se sollecitati (giustamente) dall’esigenza di rendere conto di finanziamenti ricevuti si può – e si deve – trovare il tempo (e il modo) di produrre conoscenza e, soprattutto, di condividerla.
- La valutazione (o meglio, la costruzione di un giudizio valutativo) è una azione riconducibile all’interno delle relazioni sistemiche (e complesse) tra l’oggetto e il soggetto che la valuta e risente pertanto di un molteplice spettro di dimensioni, a volte proprie dell’oggetto della valutazione, altre volte del soggetto che effettua la valutazione. L’adozione di una prospettiva sistemica e relazionale se da un lato introduce un elemento di complessità dall’altro supera l’annosa questione: valutazione oggettiva vs. soggettiva, spostando il focus su come gestire una valutazione – per forza di cose – di natura essenzialmente soggettiva.
- Da operatori del settore vogliamo sottolineare l’urgenza di poter disporre di uno strumento di valutazione del percorso formativo, validato e sperimentato in ambito nazionale, che consenta la possibilità di discriminare tra le diverse dimensioni implicate nel processo formativo, fornendo indicazioni utili sia al formatore che a coloro che organizzano e gestiscono corsi/percorsi formativi: uno strumento che tenga nella dovuta considerazione le differenze individuali (come ad esempio la motivazione, ma anche il genere e alcune dimensioni socio-anagrafiche) e che sia in grado di supportare non solo le necessità di accountability ma anche – e soprattutto – di learning. In termini generali questo strumento consentirebbe di “ridurre lo spreco di risorse finanziarie e professionali, dunque di recuperare efficienza, modificare i programmi formativi negli aspetti meno efficaci e di salvaguardare le aree di sperimentata affidabilità” (Amietta, Amietta, 1992) non solo a livello aziendale ma anche in ambito nazionale (in relazione all’utilizzo dei fondi FSE), se adottato da tutte le strutture e se la comparazione dei risultati avvenisse anche ad un livello centrale (quello che attualmente l’ISFOL realizza tramite interviste telefoniche all’interno del programma di valutazione degli esiti occupazionali degli interventi finanziati dall’FSE).
- Non possiamo non tenere in considerazione la dimensione temporale della valutazione. Non solo distinguendo tra la valutazione a caldo e a freddo (Amietta, Amietta, 1992) ma anche in relazione al raggiungimento degli obiettivi personali dell’evaluando. In altre parole, quale delle due valutazioni fatte è la più corretta? A distanza di mesi dalla fine del percorso oppure immediatamente dopo la fine dello stesso. Quale tra queste due valutazioni è più vicina alla realtà? Oppure, stiamo parlando di due dimensioni valutative diverse?
- La nostra esperienza di valutazione ha – all’interno della nostra struttura – sollevato numerosi interrogativi. Dal confronto attivo con esperti e colleghi, abbiamo evidenziato due problematiche: la prima legata ad un basso coordinamento tra i docenti e la seconda in relazione ad una mancata integrazione tra le attività di progettazione e di valutazione degli interventi. Il risultato più interessante è che la metodologia di valutazione utilizzata, che ha interessato gran parte della struttura, oltre ad aver aumentato l’interazione tra i soggetti coinvolti ha fatto da volano ad una serie di attività volte a migliorare la qualità. In altre parole, un processo di valutazione trasparente che interessi una struttura in modo trasversale può essere uno strumento utile per l’empowerment organizzativo. Attualmente, sulla base dei risultati registrati stiamo predisponendo un protocollo di valutazione che coinvolga docenti, allievi, tutor, responsabili delle sedi formative e responsabili degli stage finalizzato non soltanto a supportare la formulazione di giudizio ma – soprattutto – a coinvolgere attivamente tutti gli attori del processo formativo nell’ottica di una promozione e sviluppo della qualità dell’offerta formativa.
In ultimo, vogliamo sottolineare come molti degli interrogativi prodotti nel corso del nostro lavoro restino irrisolti, ma che – proprio il superamento di alcune di queste questioni – possa rappresentare il primo passo per rendere meno “distanti” l’importanza e l’utilità della valutazione dei percorsi formativi.
Bibliografia
Amietta F., Amietta P.L. (1992) Perché valutare la formazione diventa strategico? Professionalità – VII-VIII
Amietta P.L., Amietta F. (1996) Interformazione, Valutare la formazione. Milano: Unicopli.
Avallone F. (1996). Analisi della realtà e valutazione nelle organizzazioni, in Borgogni L. (a cura di) Valutazione e motivazione delle risorse umane nelle organizzazioni. Milano: Angeli, 21-33.
Carli R., Paniccia R.M. (1999) Psicologia della formazione, Bologna: Il Mulino
Depolo, M. (1998). Psicologia delle organizzazioni. Bologna: Il Mulino.
Ferlazzo F. (2005) Metodi in ergonomia cognitiva. Roma: Carocci
Palumbo (2001). Internet, il processo di valutazione. Decidere, programmare, valutare. Milano: Angeli.
Pellizzi C. (1954) Il metodo e la sistematica delle discipline sociologiche, in AA.VV. Atti del Congresso di studi metodologici. Torino (pp 373 – 80) opera citata in Marradi A., Concetti e metodi per la ricerca sociale, Firenze: La Giuntina 1984
Rosch E. (1978) Principles of categorization, in E. Rosch & B.B. Lloyd (a cura di), Cognition and categorization, Erlbaum, Hillsdale (N.J.)
Tyler, S.A. (1969) Cognitive Anthropology, New York.
Watzlawick P. (1997). Pragmatica della comunicazione umana. Roma: Astrolabio Editore
[1] Il riferimento è a Watzlawick P., Pragmatica della comunicazione umana. Astrolabio Editore,. Roma, 1997
[2] Che avevano realizzato per conto del Gruppo e-Laborando almeno 10 ore di formazione nel corso dei precedenti 12 mesi
[3] La valenza “esplorativa” della ricerca autorizzava ad essere indulgenti sul fatto che i 558 questionari fossero riferiti a 34 corsi, ovvero a 34 oggetti di valutazioni diversi, benché assimilabili tra loro.
[4] Prima di eseguire l’analisi fattoriale è stata esplorata la normalità distributiva degli item, procedura d’obbligo al fine di verificare che tutti gli item si distribuiscano (al loro interno) in modo “normale”. Benché quasi la totalità degli item non dava garanzia in questo senso (indici di Skewness e Kurtosi superiori ad 1) data la natura esplorativa dell’analisi si è comunque deciso procedere con la tecnica dell’analisi fattoriale in modo da ottenere alcune prime indicazioni circa le dimensioni latenti.
[5] Categorizzare è un processo naturale dell’uomo, poiché grazie alla capacità di formare concetti e di raggrupparli in categorie questi riesce a districarsi nella “caotica molteplicità dell’esperienza” (Pellizzi, 1954). Anche se siamo in grado di percepire ed evidenziare delle differenze tra i componenti di una stessa categoria, li consideriamo come simili, e scegliamo di ignorarne le differenze. Così facendo, per dirla con le parole di Tyler (1969), «l’infinita variabilità del mondo si riduce a dimensioni tollerabili e manipolabili».
Molto di quello che sappiamo oggi sulle categorie lo dobbiamo al lavoro svolto da Eleanor Rosch, che ha supposto, nell’ambito del processo di categorizzazione, l’esistenza di due tipi di strutture. Una prima struttura, definita orizzontale e interna alla categoria, in cui è possibile individuare delle gradazioni di appartenenza riconducibili a “membri che fanno parte della categoria” e “membri relativamente marginali”; una seconda struttura, verticale, farebbe invece riferimento alle relazioni esistenti tra le categorie stesse, che spesso assumono una forma gerarchica, da una categoria superordinata fino a quelle più subordinate (per esempio: Mobilia → Sedia → Poltrona). All’interno di tale gerarchia è possibile individuare un livello particolare detto: “livello di base della categorizzazione”.
Un appassionato di automobili non avrà una categoria di base “automobili” ma, probabilmente, ciascun modello di automobile (o addirittura ciascun autoveicolo) ne costituisce una a sé. Per questa ragione non si può accettare l’ipotesi che le categorie vengano generate unicamente in base all’apparenza, ma occorre tenere in considerazione anche le implicazioni culturali e soggettive della categorizzazione.