Navigazione – Mappa del sito

HomeNumeri35la società italiana / L’universit...La valutazione nelle università i...

la società italiana / L’università valutata

La valutazione nelle università italiane: processi organizzativi ed indicatori

Alberto Baldissera
p. 5-21

Testo integrale

Oggetto e scopi

1La legge del 19 ottobre 1999, n. 370, potrebbe essere un provvedimento di fondamentale importanza per lo sviluppo delle università italiane. In un ambiente in gran parte autoreferenziale e pressoché stagnante dal punto di vista organizzativo essa ha introdotto il germe di una serie di innovazioni istituzionali di grande rilievo. La legge prescrive infatti la pratica della

valutazione interna della gestione amministrativa, delle attività didattiche e di ricerca, degli interventi di sostegno al diritto allo studio, verificando anche mediante analisi comparate dei costi e dei rendimenti, il corretto uso delle risorse pubbliche, la produttività della ricerca e della didattica, nonché l’imparzialità e il buon andamento dell’azione amministrativa (art. 1).

2In questo breve articolo intendo anzitutto indicare quali potrebbero essere le conseguenze di un’attività sistematica di valutazione delle routines e dei risultati delle attività universitarie. Discuterò in seguito alcuni problemi connessi agli oggetti e alle proprietà da valutare, con particolare attenzione a una possibile classificazione degli indicatori considerati. Affronterò infine alcuni problemi più contingenti, riguardanti la valutazione della didattica e della ricerca oggi in Italia.

1. Valutazione come innovazione organizzativa1

  • 1 Riprendo in questo paragrafo alcune osservazioni svolte in un articolo incluso in volume curato da (...)

3Dalla legge ricordata risulta chiaro che oggetto della valutazione non sono solo singole attività svolte dalle università, ma anche i processi organizzativi che in esse si svolgono: anzitutto quelli diretti a raggiungere i loro obiettivi più rilevanti – di efficacia e di efficienza.

4Il compito di valutare le attività delle Facoltà e dei Dipartimenti è affidato dalla legge ad organismi creati ex novo: il Comitato nazionale per la valutazione del sistema universitario (cnvsu), i Nuclei di valutazione interna degli atenei e, per le attività di ricerca, il più recente Comitato di indirizzo per la valutazione della ricerca (Civr). La mancata istituzione dei nuclei interni di ateneo, o il loro non regolare funzionamento, è sanzionata dalla legge con pesanti disincentivi, di carattere finanziario, a carico delle università inadempienti. Lo stesso vale per gli atenei, o i dipartimenti, che decidessero di non sottoporre a valutazione i risultati («prodotti» nel gergo ministeriale) della loro ricerca. In tempi di vacche magre come gli attuali si tratta, per le università italiane, di argomenti particolarmente convincenti.

5A giudicare dalle esperienze di questi primi anni, queste norme sono state probabilmente più imposte che desiderate. La macchina organizzativa degli atenei si è messa in moto lentamente e sono apparse, più che contestazioni, interpretazioni riduttive o minimizzatrici. Sono reazioni normali, ed anche prevedibili. Azioni di retroguardia, forme di resistenza o recalcitranza sono sovente utili al progetto riformatore: se non altro perché individuano difetti, punti deboli, interventi mal studiati o progettati.

  • 2 Per una rassegna della letteratura più recente si veda Parra Saiani (2002).

6Perché questa legge può essere così importante per il rinnovamento organizzativo delle università italiane? Il suo scopo esplicito è l’istituzionalizzazione di un’attività di ricerca diretta a controllare periodicamente l’evoluzione delle prestazioni di facoltà, dipartimenti, atenei, e soprattutto a suggerire miglioramenti e cambiamenti laddove si manifestino scarti o disfunzioni. La valutazione non si limita ad accertare se certi obiettivi sono stati raggiunti o se una situazione data si conforma o no a specifici standard minimi. Essa riguarda anche la natura e la qualità di un’azione o di un progetto; e permette di stimare la misura in cui essi sono efficaci ed efficienti2.

7La valutazione di un’organizzazione è, o dovrebbe essere, un’attività di ricerca, svolta con il metodo e le tecniche delle scienze sociali, non un giudizio estemporaneo emesso da un giudice o da una giuria. Essa prende le mosse da un progetto; viene realizzata con procedure controllabili nel corso di una o più ricerche empiriche; «sfocia infine in una discussione dei risultati e in una proposta» (Stame, 1998, 9) rivolta ai soggetti interessati.

8Si può dire, da questo punto di vista, che con queste misure le università italiane potrebbero essere trasformate da sistemi debolmente connessi, caratterizzati da scarsa coesione e integrazione, in organizzazioni «che apprendono»; da «anarchie organizzative» (Cohen, March e Olsen, 1972) in organismi capaci di pianificare un processo continuo di aggiustamenti e miglioramenti.

9L’innovazione fondamentale che viene introdotta riguarda i processi di apprendimento organizzativo. L’attività di valutazione prescrive il ricorso ad attività di ricerca, lascia dietro di sé rapporti e documenti scritti, stimola il dibattito all’interno degli organi collegiali, è (o dovrebbe essere) visibilmente connessa a premi e punizioni. Essa rende quindi più probabili le azioni correttive, e meno probabili forme di apprendimento incompleto che potrebbero rinforzare, più che attenuare, gli orientamenti di partenza (Friedberg, 1996).

10Questa è d’altra parte, la linea di evoluzione organizzativa emersa negli ultimi decenni in aziende industriali e di servizi, negli enti pubblici e privati (Baldissera, 1996). La novità principale, introdotta nelle organizzazioni produttive moderne – a partire dalle esperienze svolte in alcune imprese automobilistiche giapponesi negli anni ’70 e ’80 (Ohno, 1993) – è un insieme di formule e di imperativi che stimolano ciascun membro a ricercare continuamente piccoli miglioramenti nel modo di produrre prodotti o servizi. L’espressione, alquanto impropria, coniata per indicare questa caratteristica è «l’organizzazione che apprende». È impropria perché i soggetti dell’apprendimento sono singoli esseri umani, non entità astratte come «l’organizzazione». Cumulativamente, piccoli mutamenti, innovazioni organizzative incrementali possono generare – in un periodo anche relativamente breve – vantaggi competitivi definiti (Stinchcombe, 1974).

11Paul Romer (1993) ha rilevato giustamente come una delle sfide principali delle organizzazioni produttive di beni e servizi, nei paesi economicamente avanzati, sia seguire scrupolosamente pratiche e procedure collaudate e ricercare nello stesso tempo processi più efficienti ed efficaci. Decisivi da questo punto di vista sono sia il rispetto delle procedure operative sia la sperimentazione controllata, vale a dire la ricerca continua di soluzioni organizzative innovative. Per lo sviluppo economico sono più importanti, da questo punto di vista, i processi di replicazione e di scoperta organizzativa, che non i calcolatori, gli utensi-li, i telefoni cellulari. Queste macchine, sostiene a ragione Romer, assumono sovente oggi un significato simbolico immeritato, così come lo ebbe in passato la catena di montaggio. La ricchezza delle nazioni non è infatti contenuta nelle cose, bensì nelle idee; nel software e nell’orgware piuttosto che nell’hardware; nel capitale umano piuttosto che in quello fisico o nelle risorse naturali (Landes, 2000).

12Queste considerazioni valgono in larga parte anche per le università, anche se queste organizzazioni manterranno anche in futuro un’identità peculiare, diversa da quella delle imprese economiche. Dal punto di vista pratico, tuttavia, i processi di creazione e di diffusione delle innovazioni hanno principi e andamenti simili in gran parte delle organizzazioni, pur se diverse – soprattutto se esse sono in qualche misura esposte al mercato e/o sottoposte a vincoli da parte delle autorità politiche (Ribolzi, 1997).

13Solo il futuro ci dirà quali saranno i risultati, attesi e non, del tentativo di trasformare gradualmente, ma sistematicamente, i processi organizzativi delle università italiane mediante l’istituzionalizzazione di attività di valutazione delle loro prestazioni.

2. Le proprietà da valutare: classificazioni e misurazioni

14Una condizione indispensabile, anche se non sufficiente, del mutamento nella direzione indicata è l’affinamento dei concetti e degli strumenti usati nella valutazione.

15In particolare, la classificazione e misurazione dei prodotti (o outputs) dei sistemi universitari sono operazioni che richiedono un grande investimento di risorse e d’impegno di ricerca. Senza questi strumenti non è però possibile rilevare se una certa azione ha contribuito a migliorare o danneggiare le prestazioni di un certo sistema, né comparare gli stati di più sistemi (facoltà, dipartimenti, atenei) su una stessa (o su più) proprietà.

16Non mi perito di affrontare questi problemi, che impegnano ormai da decenni le intelligenze di molti ricercatori in diversi paesi (Gardner, 1977; Berk, 1979; Kurz et alii, 1989; Hinton, 1993; Koon e Murray, 1995; Fox e Keeter, 1996). Mi limito a segnalare alcune linee generali di riflessione sotto forma di interrogativi e ad indicare alcuni problemi riguardanti lo stato della valutazione delle università, oggi in Italia.

17Un problema preliminare riguarda l’individuazione delle unità della valutazione. Si tratta dei singoli docenti-ricercatori, dei dipartimenti, delle facoltà, degli atenei, dei raggruppamenti scientifico-disciplinari, sino al sistema universitario nazionale? I problemi e gli indicatori cambiano ovviamente a seconda delle unità considerate.

18In secondo luogo: quale l’oggetto della valutazione? L’attività di ricerca scientifica, l’attività didattica (a diversi livelli di complessità – dalle lezioni per le matricole a quelli svolte nelle scuole di dottorato?) e/o le prestazioni organizzative di un certo sistema o sub-sistema?

  • 3 Molti di questi aspetti sono stati studiati dalle ricerche presentate nei volumi curati da Grimaldi (...)

19Quali le proprietà considerate? Se l’attività da valutare – ad esempio – è l’attività didattica, le proprietà considerate possono essere le opinioni degli studenti (in particolare: il loro grado di soddisfazione rispetto ai servizi ottenuti) in un certo momento (subito dopo aver seguito un corso, al momento della laurea, dopo qualche anno dall’ottenimento della stessa); le loro prestazioni cognitive (in modo analogo a quanto rilevato dal progetto Pisa dell’Ocse per gli allievi della scuola secondaria) all’inizio e/o alla fine del curriculum universitario; i loro comportamenti (il numero degli esami sostenuti, le ore dedicate allo studio, i voti conseguiti negli esami e in occasione della laurea); le attrezzature e l’organizzazione dei corsi e molte altre ancora3.

20Ancora: chi ha la responsabilità principale della valutazione? Il Ministero, i nuclei di valutazione dei singoli atenei o altre strutture al loro interno? Come vedremo, la domanda è meno retorica di quanto sembri a prima vista. In particolare, chi decide gli standard in relazione ai quali vengono valutate le attività universitarie? Chi decide le tecniche di raccolta dei dati? C’è una certa differenza tra la raccolta di dati mediante succinti (e come vedremo, tecnicamente inadeguati) questionari autosomministrati o mediante interviste, la raccolta di informazioni mediante l’osservazione, l’esame di portfolio o di altri progetti e dimostrazioni. Ancora: chi decide il grado di complessità con cui i dati raccolti vanno elaborati ed analizzati? Esiste una certa differenza tra le semplici distribuzioni di frequenza presentate dai rapporti dei Cnvsu e dai nuclei locali di valutazione e analisi multivariate capaci di individuare le fonti di variazione delle prestazioni accademiche degli studenti universitari italiani o che frequentano uno specifico corso di laurea in un certo ateneo. Quali i soggetti hanno accesso ai dati e a quali livello di aggregazione? Chi decide eventuali misure o interventi basati sulle analisi dei dati rilevati? E infine: chi valuta i programmi di valutazione effettuati nelle università, chi valuta cioè l’opera dei valutatori?

  • 4 Riprendo qui una tipologia degli stati di un sistema sociale, elaborata negli anni ’70 da Luciano G (...)

21Altri problemi riguardano l’ordine e la classificazione degli indicatori utili alla valutazione dei sistemi universitari. Un primo gruppo di indicatori riguarda senz’altro l’efficacia di una certa attività, unità o sistema, ovvero la capacità di raggiungere gli obiettivi prefissati4. Qui occorre specificare chiaramente i risultati attesi: ad es. si può desiderare di far terminare gli studi ad una percentuale elevata di studenti iscritti, sottoposti o meno a prove di ammissione oppure di aumentare il quoziente tra lavori scientifici che presentino certi requisiti e il numero di ricercatori-docenti presenti in un certa unità organizzativa. O altri obiettivi ancora. La massimizzazione congiunta tutti gli obiettivi di efficacia appare assai improbabile, se non impossibile. Occorre scegliere, e stabilire un ordine delle priorità.

22A proposito di efficacia, va osservato che non conosciamo, neppure in modo approssimato, quali mutamenti nelle conoscenze e nelle competenze (per non parlare degli orientamenti di valore e dei tratti caratteriali) degli studenti vengano stimolati dalla frequenza delle università e dallo studio, prolungato per alcuni anni, ad essa connesso. Oggi non possiamo in alcun modo stabilire se, coeteris paribus, l’ateneo A stimoli mediamente un miglior apprendimento rispetto all’università B o se garantisca lo stesso livello d’acquisizione di conoscenze e competenze in minor tempo o con risorse inferiori. Molti ritengono che misurazioni del genere siano impossibili e che quindi non meritino alcuna attenzione. Chi si occupa di ricerca sociale, e conosce la difficoltà di mettere a punto indicatori di fenomeni sociali complessi, potrebbe cercare di smentire nei prossimi anni l’opinione di scettici e indecisi.

23Un secondo insieme di risultati attesi – soprattutto dagli organi che svolgono attività gestionali e da chi fornisce agli atenei le risorse finanziarie: contribuenti, studenti, clienti che richiedono specifiche prestazioni universitarie – è l’efficienza, ovvero il rapporto tra risultati ottenuti e costi sopportati.

24Un terzo riguarda la capacità di adattamento all’ambiente esterno esibita da un sistema o sottosistema universitario. Questa capacità può essere valutata, per così dire, in ingresso – osservando ad esempio le capacità che una certa facoltà o università ha di attrarre gli studenti scolasticamente più preparati e/o più motivati allo studio. Un altro indicatore di questa proprietà potrebbero essere i risultati ottenuti dalle attività di orientamento dei giovani iscritti, o dalle attività didattiche intese a garantire una formazione di base degli studenti del primo o del secondo anno. Un ulteriore aspetto dell’adattamento in input riguarda i risultati ottenuti dalle attività di reclutamento di personale – docente e no – professionalmente preparato e capace di prestazioni adeguate o eccellenti, nell’insegnamento e nella ricerca.

  • 5 L’attività del consorzio Alma Laurea rischia di essere compromessa da una decisione – presa dal Con (...)

25L’adattamento può essere valutato anche in uscita, in relazione alla capacità che i prodotti e dei servizi forniti hanno di soddisfare le esigenze e le richieste del mercato di lavoro locale, nazionale ed internazionale, nonché le aspettative dei laureati e delle loro famiglie. Gran parte delle ricerche empiriche svolte dal benemerito consorzio Alma Laurea, sulla condizione occupazionale e sui profili dei laureati, riguarda appunto questo ultimo gruppo di variabili5.

26Un ulteriore gruppo di indicatori riguarda infine l’integrazione interna di un dato sistema universitario. Qui le proprietà considerate possono essere il clima organizzativo, il grado di sinergia e di coordinazione esistente tra diverse funzioni e attività (quelle proprietà emergenti che vengono sovente indicate con la presenza di una «scuola» di docenti e studiosi), la capacità di stimolare il benessere, oltre all’apprendimento, degli studenti. Altri indicatori potrebbero essere l’assenteismo esibito dal personale docente e no, la frequenza e l’intensità di eventuali scioperi ed altri ancora.

  • 6 L’analisi dei termini usati nella letteratura sulla valutazione in Italia (e in particolare dal Cnv (...)

27Questi concetti – più precisamente, questi stati di un sistema o sottosistema universitario – potrebbero essere utilmente adottati come criteri di classificazione prima e di raggruppamento poi degli indicatori usati nella valutazione. Quale i vantaggi derivanti dall’adozione di questa proposta? Adottare criteri semplici e chiaramente definiti e porre fine alla torre di Babele di «macro» e «microindicatori», «parametri», «criteri», «variabili» che popolano il linguaggio della valutazione oggi in Italia6.

28Esamino ora brevemente alcuni problemi connessi alla valutazione della didattica e della ricerca oggi in Italia.

3. La valutazione della didattica universitaria

29La legge ricordata sulla valutazione nelle università (n. 370/1999) non si accontenta di rendere obbligatoria la valutazione delle attività universitarie, ma impone anche la rilevazione delle opinioni degli studenti frequentanti:

...i nuclei acquisiscono periodicamente, mantenendone l’anonimato, le opinioni degli studenti frequentanti sulle attività didattiche e trasmettono un’apposita relazione, entro il 30 aprile di ciascun anno, al Ministero dell’università e della ricerca scientifica e tecnologica e al Comitato nazionale per la valutazione del sistema universitario (art. 1, comma 2).

30Questa formulazione fa subito intendere quale sia lo scopo principale della somministrazione dei questionari agli studenti previsto dalla legge: «permettere al Ministero e al Cnvsu di formulare valutazioni comparative, utilizzabili a livello politico» sull’attività di atenei e di facoltà. Si tratta inoltre – ma solo in secondo istanza – «di rilevare variabili che pur essendo cariche di soggettività (sic) risultano fondamentali per orientare i docenti e le università verso una didattica sempre più in sintonia con la reale (sic) platea degli utenti» (Di Nauta e Monastero, 2002).

31Il bilancio non presenta risultati memorabili: nel 2002 sono stati valutati con un questionario solo il 56% degli insegnamenti attivati (sopra queste media molte università del Centro Nord; sotto gran parte degli atenei del Mezzogiorno); ogni studente regolare ha compilato in media due questionari, ovvero ha valutato due insegnamenti frequentati; l’insoddisfazione degli studenti si concentra non tanto sulla qualità della didattica (che viene in media valutata positivamente) quanto – in modo del tutto prevedibile, dato il sottofinanziamento cronico goduto dall’università in Italia (Oecd, 2004) – sulle «strutture insufficienti, i «laboratori carenti» e le «biblioteche poco fornite». Solo il 23,4% degli atenei dichiara inoltre di aver usato in qualche modo i dati di questi sondaggi – per incentivare i docenti, per migliorare le strutture, per modificare «l’impianto dei corsi». Il resto si limita, a quanto pare, a raccogliere i dati e inviarli all’organo centrale. Un numero limitato di atenei (Bologna, Calabria, Firenze, Milano Bicocca, Milano Cattolica, Venezia) ha infine curato la diffusione sistematica di questi dati tra gli studenti o realizzato ricerche più sofisticate rispetto a quelle standard prescritte dalla legge e dal Cnvsu.

32Di fronte a risultati tanto magri è opportuno chiedersi se non conviene cambiare qualcosa. Scopo principale di un programma di quality assessment in un’università dovrebbe anzitutto essere il miglioramento delle prestazioni di studenti, docenti e della sua struttura organizzativa. I dati raccolti in proposito dovrebbero quindi usati anzitutto a livello locale, nei luoghi stessi in cui essi sono stati raccolti: a livello di ogni singolo ateneo o, meglio ancora, di ciascuna facoltà e corso di laurea. Questo almeno per tre buone ragioni:

  1. a livello locale c’è in genere maggiore possibilità ed interesse a raccogliere, elaborare, analizzare dati e informazioni;

  2. a livello locale la competenza per svolgere questi compiti è, nella maggior parte dei casi, almeno uguale o superiore a quella esistente a livello centrale;

    • 7 A livello locale possono essere inoltre studiate forme efficaci di comunicazione degli student rati (...)

    solo a livello locale le risultanze delle analisi dei dati raccolti possono essere più facilmente usate per migliorare pratiche e decisioni7.

33Il Cnvsu sembra aver interpretato la situazione in modo diametralmente opposto e alla fine del 2002 ha ritenuto opportuno consigliare (in realtà imporre) a tutti gli atenei italiani l’adozione «integrale» di un «questionario di riferimento». Ha così redatto un questionario standard, mediante cui rilevare i dati in ogni ateneo italiano. La proposta è stata accettata da molte università italiane, con il risultato che a partire dal 2003 è stato possibile stilare un primo bilancio sui risultati di queste «indagini statistiche» in gran parte degli atenei (Cnvsu, 2003b).

  • 8 Il questionario consigliato dal cnvsu sembra inadeguato da molti punti di vista. Alcune domande, an (...)
  • 9 Sui limiti degli student ratings si vedano la ancor utile rassegna di Greenwood e Ramagli (1980) e (...)
  • 10 Recentemente il cnvsu ha deciso di dare maggior importanza alle valutazioni ex post della didattica (...)

34Il questionario sarebbe stato elaborato «anche avvalendosi di esperti del settore» (Di Nauta e Monastero, 2002). Esso sembra tuttavia inadeguato a rilevare le proprietà rilevanti per la valutazione della didattica, anche se si resta nell’ambito dei confini angusti di una ricerca riguardante la customer satisfaction e non si affronta il problema assai più complesso della valutazione della didattica8. Quest’ultima non si esaurisce infatti solo la valutazione di singoli corsi da parte di studenti che vengono ritenuti «frequentanti» solo perché presenti nel giorno della somministrazione del questionario9. Ho chiesto recentemente a una giovane laureata nella facoltà di Scienze della formazione dell’Università di Torino quali corsi frequentati considerasse più utili per la sua formazione culturale e professionale. Me ne elencò solo quattro (su circa venticinque del suo curriculum), indicandomi anche una serie di possibili modifiche dell’impianto del suo corso di laurea. Una raccolta sistematica di informazioni del genere, insieme alla somministrazione di prove cognitive dirette ad accertare gli incrementi di conoscenze e competenze derivanti dalla frequenza di corsi universitari, potrebbe probabilmente fornire informazioni assai utili per valutare e migliorare le attività didattiche, di certo più utili di quelle raccolte mediante i questionari autosomministrati distribuiti attualmente nelle aule universitarie10.

  • 11 Sulla situazione negli usa si veda la ricerca di Colbeck (1998).

35Si tratterebbe inoltre di effettuare ricerche su altri aspetti, non secondari, della didattica e della vita universitaria: dalla valutazione degli esami di profitto (Baldissera, 2001; Coggi, 2004; Nigris, 2004; Trinchero, 2001) e di laurea (Borini e Grimaldi, 2001; Grimaldi, 2004); alle ragioni che inducono gli studenti a preferire una certa facoltà e trascurarne qualcuna – come ad esempio di Scienze; alle ragioni che inducono una buona percentuale di studenti ad abbandonare gli studi (Coggi, 2001), sino alla distribuzione del lavoro tra ricercatori e docenti universitari – in alcune facoltà molto ineguale11.

36Il problema sta qui nella norma di legge, più che nelle iniziative del Cnvsu. Invece di limitarsi a favorire ed incentivare un esame sistematico di opinioni, conoscenze e comportamenti degli studenti e lasciare alle singole università (o anche facoltà) il compito di scegliere quali informazioni rilevare e quali strumenti di ricerca usare, la legge ha imposto la rilevazione delle sole «opinioni degli studenti frequentanti sulle attività didattiche».

  • 12 Dai dati ricavati da un questionario redatto dal Nucleo di valutazione della facoltà di Scienze del (...)

37Anche il ruolo del cnvsu potrebbe essere tuttavia meglio articolato. Invece di imporre standard insoddisfacenti, stilare graduatorie dei nuclei di valutazione locali sulla base del grado di conformità ad essi (cnvsu 2003b) ed elaborare dati di scarsa utilità, compito di questo organo potrebbe essere anzitutto stimolare la ricerca di valutazione nei vari atenei e diffondere in seguito le «buone pratiche», insieme ad eventuali «istruzioni per l’uso» intese ad applicarle. Le «buone pratiche» dovrebbero includere anche modalità di analisi dei dati più complesse di quelle usualmente svolte dai nuclei di valutazione locali, che si limitano per lo più alla presentazione di distribuzioni di frequenza o dei loro valori caratteristici o sintetici – come moda, mediana e media. Risultati più interessanti possono essere infatti fornite da forme di analisi multivariata, come ad es. un’analisi delle fonti di variazione delle prestazioni scolastiche degli studenti (o di altre variabili dipendenti rilevanti)12.

38Un ultimo problema – uno tra i più rilevanti, dal mio punto di vista – riguarda le iniziative che intraprenderanno atenei, facoltà e corsi di laurea sulla base delle risultanze della valutazione della didattica (Peterson ed Einarson, 2001). Si possono immaginare conseguenze sull’organizzazione dei corsi, sulla retribuzione dei docenti, sui loro avanzamenti di carriera – come avviene negli usa e in altri paesi (Blank, 1978). Chi potrebbe rischiare di più sono i docenti che verranno reclutati nei prossimi anni con contratti a termine – se i criteri di valutazione per acquisire la stabilità occupazionale dovessero includere anche la valutazione degli studenti della loro didattica. Un ulteriore problema riguarda il peso da attribuire alle valutazioni sulla didattica rispetto a quelle riguardanti la ricerca.

39Anche in questo caso mi sembra opportuno un periodo relativamente lungo di sperimentazione a livello locale, eventualmente stimolato da forme di incentivazione provenienti dal centro. In questo processo, il ruolo del cnvsu potrebbe essere decisivo: per la raccolta delle informazioni rilevanti dalle varie sedi, per la loro organizzazione e sintesi, per l’elaborazione di progetti e di ipotesi di innovazione organizzativa.

40A seconda delle decisioni prese su questi problemi, si articolerà probabilmente il giudizio dei docenti italiani sulla valutazione della didattica.

4. La valutazione della ricerca scientifica

41La primavera-estate del 2004 sarà probabilmente ricordata in futuro da molti professori e ricercatori universitari italiani come la prima stagione della valutazione sistematica dei prodotti della loro attività scientifica. Nel giro di pochi mesi, inizialmente con un certo grado di incertezza e approssimazione, essi sono stati per così dire costretti a redigere schede di presentazione sulla base di formati preordinati, a compilare istruzioni on line sul sito del Comitato di Indirizzo per la Valutazione della Ricerca -(civr ), a partecipare ad affollate riunioni a livello di ateneo o di dipartimento. Un utile richiamo alla trasparenza dell’attività di ricerca, alla comparazione e alla responsabilità di ognuno.

42L’avvento di forme di valutazione sistematica dei prodotti dell’attività di ricerca segna quindi un momento di svolta, se non epocale almeno rilevante, nella vita delle università italiana. Conseguenze possibili potrebbero essere un ripensamento delle pratiche e degli indirizzi di ricerca da parte di singoli e gruppi di ricercatori, oltre a un benefico mutamento nelle gerarchie accademiche. I prodotti della ricerca di molti giovani ricercatori dispongono infatti di un valore scientifico nettamente superiore a quello di ordinari di «chiara fama». Dipartimenti ed atenei interessati a ottenere maggiori finanziamenti non potranno far a meno di rivedere le loro pratiche di reclutamento.

  • 13 Non è questa la sede per un esame del sistema dei concorsi universitari in Italia. Sull’argomento e (...)

43Un’innovazione del genere non può essere certo sminuita dalla circostanza che già oggi i prodotti della ricerca di ricercatori e professori sono valutati attraverso le tappe successive di prove e di concorsi. Queste valutazioni successive sono certo molto utili, anche se non impediscono a persone mediocri di superarle e a studiosi dotati di essere scoraggiati o emarginati13. Far riferimento a una serie di giudizi di merito, svolti da persone competenti e indipendenti, può servire ad indirizzare meglio le energie e le risorse dei ricercatori italiani.

44È probabile che alcuni, o anche molti, degli apprezzamenti espressi dai panel delle aree scientifico-disciplinari verranno a loro volta criticati o contestati. L’unico strumento per ridurre esiti del genere è la selezione di giudici (i membri dei diversi panel di area) scientificamente autorevoli, che dispongano di un solido orientamento universalistico e siano estranei a logiche partigiane o spartitorie.

45È prematuro esprimere un giudizio su un processo appena iniziato, che durerà tra l’altro almeno sino al 2006. Se va considerata in modo molto positivo la messa in moto di una macchina organizzativa complessa, il suo avvio avrebbe potuto essere forse meglio preparato.

46Anzitutto: alcune aree scientifico-disciplinari prese a riferimento dal civr sono, per ragioni storiche, fortemente disomogenee (come l’area 11; discipline storiche, filosofiche, psicologiche, pedagogiche; o l’area 10: discipline dell’antichità, filologico-letterarie e storico-artistiche). Questa situazione rende difficile, se non impossibile, una valutazione comparata dei prodotti della ricerca da parte dei referees. La compresenza di discipline leggermente diverse nella stessa area sembra invece opportuna, almeno al momento, allo scopo di aumentare la possibilità di comparazione tra i relativi prodotti di ricerca. Ad es., la sociologia italiana ha senz’altro qualcosa da imparare dalla scienza politica – se non in tutti, almeno in alcuni atenei.

47Un secondo appunto riguarda i criteri consigliati dal Civr per la valutazione dei risultati della ricerca. In parte essi si sovrappongono: accade per i criteri della «rilevanza» e dell’«originalità/innovazione», definiti con gli stessi termini dagli esperti del Civr (Civr, 2004). Un ulteriore rischio riguarda il peso attribuito dal Civr nella valutazione al criterio dell’«internazionalizzazione» dei prodotti della ricerca scientifica. Definito come «posizionamento del prodotto nello scenario internazionale in termini di rilevanza, competitività, diffusione anche editoriale e apprezzamento della comunità scientifica» (Civr, 2004), esso è stato sovente interpretato in molti atenei come l’equivalente di «pubblicazione in lingua inglese» o altra lingua straniera. Ora: esistono molti lavori di qualità eccellente che non hanno però una diffusione internazionale; in inglese si pubblicano peraltro molte sciocchezze – almeno nelle scienze sociali – che restano tali anche se redatti nella lingua franca dominante. Aggiungo: forse sarebbe opportuno pensare alla costituzione di un fondo per la traduzione in inglese di un numero limitato di lavori, selezionati da panel di qualità e pubblicati da case editrici o da riviste scientifiche del nostro paese. I costi potrebbero non essere molti elevati, finanziabili anche a livello locale e non solo dal ministero. Anche in questo modo si può infatti difendere il made in Italy.

48Per quanto opportune e benvenute siano queste innovazioni, e più in generale quelle delle buone pratiche di valutazione della ricerca e della didattica, la loro efficacia non potrà che rimanere modesta a meno che i finanziamenti destinati alla ricerca e all’istruzione universitaria non vengano aumentati in modo significativo. I dati recentemente resi noti dall’Ocse (2004), riportati nella tab. n. 1, mostrano come il nostro paese dedichi alla scuola nel suo complesso una percentuale solo leggermente inferiore a quelli di altri paesi (5,2% anziché 5,3%). Nettamente inferiore alla media è invece la quota destinata all’istruzione e alla ricerca universitaria: 0,9% del prodotto interno lordo (pil). Benché sia aumentata del 0,1% rispetto al 1995, questa percentuale è nettamente inferiore anche a quella dedicata all’istruzione di terzo livello non solo da gran parte di paesi membri dell’Ocse, ma anche da Cile, Argentina, Giamaica. L’Italia per la sua università spende però percentualmente di più della Russia, dell’India, dell’Indonesia e dell’Uruguay.

49Se confrontiamo questi dati con quelli dedicati negli ultimi trenta anni per sanare i deficit sistematici del sistema pensionistico italiano (circa il 4% del pil ogni anno – il che significa una somma equivalente ad un anno di pil ogni 20 anni o poco più, per mantenere in vita un sistema generosamente iniquo – ma anche a quelle destinate a ripianare i deficit cronici di aziende come le ffss e le pptt, ci rendiamo facilmente conto di quali siano state (e siano tuttora) le priorità nell’impiego della spesa pubblica in Italia.

Tab. 1 Percentuali del pil destinate alle università e ad ogni livello di istruzione in diversi paesi Ocse (2001)

Paesi membri dell’Ocse

Istruzione universitaria

Tutti i i livelli di istruzione

Australia

1,5

6,0

Austria

1,2

5,8

Belgio

1,4

6,4

Canada

2,5

6,1

Corea

2,7

8,2

Danimarca

1,8

7,1

Francia

1,1

6,0

Germania

1,0

5,3

Grecia

1,1

4,1

Italia

0,9

5,3

Giappone

1,1

4,6

Messico

1,0

5,9

Nuova Zelanda

0,9

5,5

Norvegia

1,3

6,4

Olanda

1,3

4,9

Polonia

1,1

5,6

Portogallo

1,1

5,9

Regno Unito

1,1

5,5

Repubblica Ceca

0,9

4,6

Slovacchia

0,9

4,1

Spagna

1,2

4,9

Stati Uniti

2,7

7,3

Svezia

1,7

6,5

Svizzera

1,2

5,3

Turchia

1,1

3,5

Ungheria

1,2

5,2

Media paesi Ocse

1,3

5,5

Paesi partner dell’Ocse

Argentina

1,2

6,2

Cile

2,2

7,5

Federazione Russa

0,5

3,0

Filippine

1,3

5,4

Giamaica

2,4

11,3

India

0,8

4,2

Indonesia

0,7

2,0

Israel

2,0

8,6

Malaysia

2,1

7,2

Peru

1,1

4,2

Uruguay

0,7

3,4

Fonte: Oecd (2004)

Torna su

Bibliografia

Baldissera A. (1996), Re-engineering organizzativo: innovazione o moda manageriale?, «Quaderni di Sociologia», 40, 12, pp. 131-140.

Baldissera A.(2001), Il declino della meritocrazia nell’università italiana. I casi di Psicologia e Scienze della formazione a Torino (1997-2000), in Grimaldi R. (a cura di), Valutare l’università. La Facoltà di Scienze della Formazione a Torino, Torino, Utet, pp. 31-44.

Baldissera A. (2003), Gli usi della comparazione, Milano, Angeli.

Baldissera A. (2004), Valutazione della qualità della didattica e innovazione organizzativa, in Coggi C. (a cura di), pp. 197-240.

Berk R. A. (1979), The Construction of Rating Instruments For Faculty Evaluation: a Review of Methodological Issues, «The Journal of Higher Education», 50, 5, pp. 650-669.

Blank R. (1978), Faculty Support for Evaluation of Teaching: a Test of Two Hypothesis, «The Journal of Higher Education», 42, 2, pp. 163-176.

Borini L. e Grimaldi R. (2001), La valutazione delle lauree (1995-2000), in Grimaldi R. (a cura di), Valutare l’università. La Facoltà di Scienze della Formazione a Torino, Torino, Utet, pp. 45-86.

Bottani N. (1994), Professoressa addio, Bologna, Il Mulino.

Brinko K.T. (1993), The Practice of Giving Feedback to Improve Teaching: What is Effective?, «The Journal of Higher Education», 64, 5, pp. 574-593.

Cassese S., De Maio A. et al. (2004), L’università soffre di una crisi di credibilità. È necessario un forte richiamo all’etica, «Corriere della Sera», cxxix, 219, 14 settembre, p. 18.

Cattelino E. (2001), La valutazione della didattica: Una proposta di questionario e alcuni risultati (2000), in Grimaldi R. (a cura di), Valutare l’università. La Facoltà di Scienze della Formazione a Torino, Torino, Utet Libreria, pp. 99-122.

Coggi C. (2001), Successi ed abbandoni (1996-2000), in Grimaldi R. (a cura di), Valutare l’università. La Facoltà di Scienze della Formazione a Torino, Torino, Utet, pp. 173-212.

Coggi C. (a cura di) (2004), Una facoltà allo specchio. Contributi di ricerca in un’università che cambia, Pensa, Lecce.

Cohen M. D., March J. G. e Olsen J. P. (1972), A Garbage Can Model of Organizational Choice, «Administrative Science Quarterly, xvii, pp. 1-25 [trad.it. Un modello di scelta organizzativa a «cestino di rifiuti», in March J. G., Decisioni e organizzazioni, Bologna, Il Mulino, 1993, pp. 287-334].

Colbeck C.L. (1998), Merging in a Seamless Blend; How Faculty Integrate Teaching and Research, «The Journal of Higher Education», 69, 6, pp. 647-571.

Comitato Nazionale per la Valutazione del Sistema Universitario (2003a), Proposta di un insieme minimo di domande per la valutazione dell’esperienza universitaria da parte degli studenti che concludono gli studi, doc 4/02.

Comitato Nazionale per la Valutazione del Sistema Universitario (2002), Proposta di un insieme minimo di domande per la valutazione della didattica da parte degli studenti frequentanti, doc 9/02.

Comitato Nazionale per la Valutazione del Sistema Universitario (2003b), Analisi delle relazioni dei Nuclei di valutazione delle opinioni degli studenti frequentanti in merito alle attività didattiche per il 2002, doc 7/03, Roma.

Comitato Nazionale per la Valutazione del Sistema Universitario (2004) Proposte per la costituzione di un nuovo modello per la ripartizione «teorica» del ffo alle università statali, doc 1/04.

Comitato di Indirizzo per la Valutazione della Ricerca (2004), Linee Guida per i Comitati (Panel) di Area per l’esercizio 2001-2003, Roma. Il documento può essere scaricato dal sito web http://www.Civr.it/news.asp [link non raggiungibile: 05/01/2017].

Di Franco G. (2001), Eds: esplorare, descrivere e sintetizzare i dati, Milano, Angeli.

Di Nauta P. e Monastero B. (2002), Modelli per la valutazione della didattica, «Atenei. Rivista bimestrale del Ministero dell’istruzione. dell’università e della ricerca», 5-6, vol. II, pp. 257-271. Il testo può essere scaricato in formato pdf dal sito http://www.Cnvsu.it/_library/downloadfile.asp?id=11196.

Fox J.C. e Keeter S. (1996), Improving Teaching and Its Evaluation: a Survey of Political Science Departments, «Political Science and Politics», 29, 2, pp. 174-180.

Friedberg E. (1996), Organizzazione, in Boudon R. (a cura di), Trattato di sociologia, Bologna, il Mulino, pp. 323-358.

Gallino L., Baldissera A. e Ceri P. (1976), Per una valutazione analitica della qualità del lavoro, in Baldissera A. (a cura di), Indagini sull’organizzazione del lavoro in Italia, fascicolo speciale di «Quaderni di Sociologia», xxv, 1, pp. 297-322.

Gardner D.E. (1977), Five Evaluation Frameworks: Implications for Decision Making in Higher Education, «The Journal of Higher Education», 48, 5, pp. 571-693.

Greenwood G.E. e Ramagli Jr. H.J. (1980), Alternatives to Students Ratings of College Teaching, «The Journal of Higher Education», 51, 6, pp. 873-684.

Grimaldi R. (a cura di) (2001), Valutare l’università. La Facoltà di Scienze della Formazione a Torino, Torino, Utet Libreria.

Grimaldi R. (2004), L’esito delle carriere universitarie: la valutazione dei voti di laurea, in Coggi C. (a cura di), Una facoltà allo specchio. Contributi di ricerca in un’università che cambia, Pensa, Lecce, pp. 285-330.

Hinton H. (1993), Reliability and Validiry of Student Evaluations: Testing Models versus Survey Research Models, «Political Science and Politics», 26, 3, pp. 562-569.

Koon J. e Murray H.G. (1995), Using Multiple Outcomes to Validate Student Ratings of Overall Teacher Effectiveness, «The Journal of Higher Education», 66, 1, pp. 61-81.

Kurz R.S., Mueller J.J., Gibbons J.L. e Di Cataldo F. (1989), Faculty Performance. Suggestions for the Refinement of the Concept and Measurement, «The Journal of Higher Education», 60, 1, pp. 43-58.

Landes D.L. (2000), La ricchezza e la povertà delle nazioni, Milano, Garzanti.

Marradi A. (1984), Concetti e metodo per la ricerca sociale, Giuntina, Firenze.

Marradi A. e Di Franco G. (2003), Analisi fattoriale e analisi in componenti principali, Acireale-Roma, Bonanno.

Nigris D. (2004), La valutazione nell’insegnamento universitario. Metodologia delle prove strutturate e standardizzate e trasparenza della relazione didattica, in questo numero di «Quaderni di Sociologia».

oecd (2004), Education at a Glance, Paris.

Ohno T. (2003), Lo spirito Toyota, Torino, Einaudi (ed. originale 1978).

Parra Saiani P. (2002), La valutazione tra arte e scienza, «Quaderni di Sociologia», xlvi, 28, pp. 135-144.

Pavsic R. e Pitrone M.C. (2003), Come conoscere opinioni ed atteggiamenti, Roma-Acireale, Bonanno.

Peterson M.W. e Einarson M.K. (2001), What Colleges are doing about Student Assessment? Does It Make a Difference? «The Journal of Higher Education», 72,6, pp. 629-669.

Ribolzi L. (1997), Natura e fini dell’università tra autonomia e controllo statale, «Quaderni di Sociologia», xli, 15, pp. 81-96.

Romer P. M. (1993), Idea Gaps and Object Gaps in Economic Development, «Journal of Monetary Economics», 32, 3, pp. 543-73.

Stame N. (1998), L’esperienza della valutazione, Roma, Seam.

Stinchcombe A.L., (1974), Creating Efficient Industrial Administrations, New York, Academic Press.

Trinchero R. (2001), Gli esami, quando e come (1996-2000), in Grimaldi R. (a cura di), Valutare l’università. La Facoltà di Scienze della Formazione a Torino, Torino, Utet Libreria, 245-298.

Torna su

Note

1 Riprendo in questo paragrafo alcune osservazioni svolte in un articolo incluso in volume curato da Coggi (2004).

2 Per una rassegna della letteratura più recente si veda Parra Saiani (2002).

3 Molti di questi aspetti sono stati studiati dalle ricerche presentate nei volumi curati da Grimaldi (2001) e Coggi (2004).

4 Riprendo qui una tipologia degli stati di un sistema sociale, elaborata negli anni ’70 da Luciano Gallino e usata anche da chi scrive in ricerche empiriche svolte in diverse imprese industriali. A quanto mi risulta, la tipologia non ha ancora formato oggetto di una formalizzazione esplicita. Alcuni riferimenti in Gallino, Baldissera, Ceri (1976).

5 L’attività del consorzio Alma Laurea rischia di essere compromessa da una decisione – presa dal Consiglio dei Ministri su iniziativa del Ministero del welfare (settembre 2004) – che preclude l’attività di job placement o intermediazione ai consorzi, anche se se si tratta di consorzi tra università e anche se queste ultime – singolarmente considerate – possono invece svolgere attività di intermediazione. Non si capisce bene a chi giovi questa decisione. Non certo ai circa 500.000 laureati italiani che hanno messo gratuitamente in rete il loro curriculum vitae.
Dal punto di vista che qui interessa, una decisione del genere rischia di compromettere l’attività di ricerca e di valutazione che Alma Laurea svolge sul sistema universitario italiano, un attività indipendente dal potere politico (come non lo è invece quella svolta dal CNVSU), frutto dell’autonomia universitaria e di notevole qualità scientifica.

6 L’analisi dei termini usati nella letteratura sulla valutazione in Italia (e in particolare dal Cnvsu e talvolta anche dai Nuclei di ateneo) meriterebbe una considerazione a parte. Dominano in genere un’epistemologia positivistica, un’ideologia vagamente scientista e credenze radicate sulla possibilità di ‘misurazione’ delle proprietà tipicamente considerate dalle scienze sociali. ‘Misurabili’ sono ritenute, da questo punto di vista, non solo le proprietà continue, ma anche quelle categoriali. Come sovente capita, a convinzioni del genere sono frequentemente associate sciatterie nella formulazione di domande e risposte nei questionari.

7 A livello locale possono essere inoltre studiate forme efficaci di comunicazione degli student ratings ai docenti interessati (Brinko, 1993) – un argomento che non mi risulta esser stato ancora affrontato in modo sistematico nel nostro paese.

8 Il questionario consigliato dal cnvsu sembra inadeguato da molti punti di vista. Alcune domande, anzitutto, possono creare problemi di risposta agli intervistati e presentare conseguenti difficoltà interpretative da parte dei ricercatori. Mi riferisco, ad esempio, alla presenza di domande (numeri 2, 11 e 12) cosiddette «doppie» o «con più oggetti», in cui lo studente si trova costretto ad esprimere un giudizio su più oggetti cognitivi con un’unica risposta, senza avere la possibilità di distinguere tra essi (Pavsic e Pitrone, 2003). La domanda n. 2 riguarda ad esempio «orari ed esami sia intermedi sia finali»; la n. 11 «esercitazioni, laboratori, seminari»; la n. 12 «la visione in aula, l’ascolto e la possibilità di trovare posto». Non è detto che il giudizio sui diversi oggetti coincida: può ad essere positivo su un oggetto e negativo (o indifferente) su un altro.
Problema minore, ma che può creare difficoltà di comprensione nell’intervistato, è l’uso di espressioni poco chiare. Nelle domande nn. 1 e 2, ad esempio, l’espressione «periodo di riferimento» si riferisce al momento in cui avviene la compilazione?
Infine la scala scelta per la formulazione della valutazione è del tutto inadeguata. La scala Likert « a quattro modalità bilanciate» è ordinale e può porre rilevanti problemi al momento dell’analisi dei dati. La variabile così ricavata è infatti categoriale e come tale dovrebbe essere usata. Quali punteggi non arbitrari si possono infatti assegnare alle risposte «decisamente no», «più no, che si», «più si che no». «decisamente no»? Inoltre: per quale ragione non prevedere la possibilità per lo studente di rispondere «non so» e «non mi interessa» a una certa domanda? Al posto di una scala Likert (tra l’altro di sole quattro modalità), sarebbe stato più opportuno adottare una scala autoancorante.
Ci si può infine domandare se, dal punto di vista del contenuto, le domande previste dal «questionario di riferimento» contengano le proprietà più rilevanti per la valutazione della didattica da parte degli studenti.

9 Sui limiti degli student ratings si vedano la ancor utile rassegna di Greenwood e Ramagli (1980) e il saggio più recente di Peterson ed Einarson (2001).

10 Recentemente il cnvsu ha deciso di dare maggior importanza alle valutazioni ex post della didattica e della formazione ricevuta da parte di laureandi e laureati, predisponendo un questionario ad hoc e proponendo di inserire questa attività nei futuri modelli di valutazione dei risultati dei processi formativi forniti dalle università italiane (cnvsu, 2004).

11 Sulla situazione negli usa si veda la ricerca di Colbeck (1998).

12 Dai dati ricavati da un questionario redatto dal Nucleo di valutazione della facoltà di Scienze della Formazione dell’Università di Torino (Cattelino, 2002; Baldissera, 2004) e somministrati agli studenti di quella facoltà nel primo semestre 2001, ho ricavato quattro indici fattoriali, sulla base di un’analisi in componenti principali a due stadi (Marradi, Di Franco, 2003). I dati (n > 4300), ricavati da scale autoancoranti (punteggi 0-10 – lo 0 indica il «non so»), sono stati sottoposti a un’operazione di centratura e poi di deflazione, in modo da correggere le distorsioni nell’uso delle scale autoancoranti (Marradi, 1984; Di Franco, 2001).
Gli indici fattoriali individuati sono stati quattro:
a) una valutazione dell’orientamento del docente verso gli studenti, ricavato da questi items: «il docente favorisce il dialogo con gli studenti», «il docente è disponibile a ricevere gli studenti», «il docente è gentile»;
b) una valutazione della qualità del corso e delle lezioni, ricavato dalle seguenti frasi: «il docente espone in modo chiaro», «il docente stimola l’interesse degli allievi», «il corso (progressione logica, collegamenti) è strutturato in modo adeguato»;
c) una valutazione della misura e dell’utilità degli apprendimenti, ricavato dalle domande « «il corso ti è sembrato utile per la tua preparazione culturale?», «quanto ti sembra di aver imparato frequentando questo corso?», «il corso ti è sembrato utile per la tua preparazione professionale?»;
d) una valutazione dell’adeguatezza delle strutture didattiche e del loro uso, ricavato dalle frasi: «l’aula è attrezzata in modo adeguato: lavagna luminosa, proiettore, computer, videoregistratore»; «le attrezzature disponibili sono utilizzate in modo adeguato»; «l’aula è adeguata: si trova posto, si vede, si sente».
Queste quattro dimensioni delle valutazioni degli studenti sembrano essere indipendenti le une dalle altre. L’esame delle correlazioni tra gli indici fattoriali e alcune variabili rilevanti (frequenza riportata del corso; carico di lavoro percepito) ha prodotto alcuni risultati inattesi.
L’indice fattoriale più importante (la valutazione dell’utilità e della misura degli apprendimenti; sub c) nell’elenco) è correlato negativamente con la valutazione dell’orientamento del docente verso gli studenti (-0,27); e in minor misura con il carico di lavoro percepito (-0,09). Sembra proprio paradossale: tanto più il docente si sforza di essere gentile e disponibile verso gli studenti, tanto meno questi valutano di aver appreso qualcosa di utile, dal punto di vista culturale e professionale, frequentando il suo corso.

Tra la valutazione delle strutture didattiche (indice d), la qualità percepita del corso (indice b) e la valutazione dell’apprendimento (indice c) esistono inoltre forti correlazioni negative (-0,45; -0,37).
Il carico di lavoro percepito è correlato negativamente con le valutazioni dell’orientamento del docente (-0,20), con la qualità della didattica (-0,35) e in misura minore con la valutazione dell’apprendimento (0.09).
Non è qui il caso di trarre conclusioni, soprattutto perché mancavano nel questionario items riguardanti le aspettative degli studenti nei confronti dell’università e dei docenti. Risultanze del genere mostrano tuttavia l’utilità di analisi multivariate dei dati raccolti – analisi non consentite dai dati ricavati dal questionario promosso dal Cnvsu.

13 Non è questa la sede per un esame del sistema dei concorsi universitari in Italia. Sull’argomento esiste una serie sterminata di valutazioni, denunce ed appelli (l’ultimo firmato da Cassese et al., 2004). Mancano invece ricerche empiriche significative ed aggiornate.

Torna su

Per citare questo articolo

Notizia bibliografica

Alberto Baldissera, «La valutazione nelle università italiane: processi organizzativi ed indicatori»Quaderni di Sociologia, 35 | 2004, 5-21.

Notizia bibliografica digitale

Alberto Baldissera, «La valutazione nelle università italiane: processi organizzativi ed indicatori»Quaderni di Sociologia [Online], 35 | 2004, online dal 30 novembre 2015, consultato il 05 novembre 2024. URL: http://0-journals-openedition-org.catalogue.libraries.london.ac.uk/qds/1106; DOI: https://0-doi-org.catalogue.libraries.london.ac.uk/10.4000/qds.1106

Torna su

Autore

Alberto Baldissera

Dipartimento di Scienze dell’Educazione e della Formazione – Università di Torino

Articoli dello stesso autore

Torna su

Diritti d'autore

CC-BY-NC-ND-4.0

Solamente il testo è utilizzabile con licenza CC BY-NC-ND 4.0. Salvo diversa indicazione, per tutti agli altri elementi (illustrazioni, allegati importati) la copia non è autorizzata ("Tutti i diritti riservati").

Torna su
Cerca su OpenEdition Search

Sarai reindirizzato su OpenEdition Search