1La legge del 19 ottobre 1999, n. 370, potrebbe essere un provvedimento di fondamentale importanza per lo sviluppo delle università italiane. In un ambiente in gran parte autoreferenziale e pressoché stagnante dal punto di vista organizzativo essa ha introdotto il germe di una serie di innovazioni istituzionali di grande rilievo. La legge prescrive infatti la pratica della
valutazione interna della gestione amministrativa, delle attività didattiche e di ricerca, degli interventi di sostegno al diritto allo studio, verificando anche mediante analisi comparate dei costi e dei rendimenti, il corretto uso delle risorse pubbliche, la produttività della ricerca e della didattica, nonché l’imparzialità e il buon andamento dell’azione amministrativa (art. 1).
2In questo breve articolo intendo anzitutto indicare quali potrebbero essere le conseguenze di un’attività sistematica di valutazione delle routines e dei risultati delle attività universitarie. Discuterò in seguito alcuni problemi connessi agli oggetti e alle proprietà da valutare, con particolare attenzione a una possibile classificazione degli indicatori considerati. Affronterò infine alcuni problemi più contingenti, riguardanti la valutazione della didattica e della ricerca oggi in Italia.
- 1 Riprendo in questo paragrafo alcune osservazioni svolte in un articolo incluso in volume curato da (...)
3Dalla legge ricordata risulta chiaro che oggetto della valutazione non sono solo singole attività svolte dalle università, ma anche i processi organizzativi che in esse si svolgono: anzitutto quelli diretti a raggiungere i loro obiettivi più rilevanti – di efficacia e di efficienza.
4Il compito di valutare le attività delle Facoltà e dei Dipartimenti è affidato dalla legge ad organismi creati ex novo: il Comitato nazionale per la valutazione del sistema universitario (cnvsu), i Nuclei di valutazione interna degli atenei e, per le attività di ricerca, il più recente Comitato di indirizzo per la valutazione della ricerca (Civr). La mancata istituzione dei nuclei interni di ateneo, o il loro non regolare funzionamento, è sanzionata dalla legge con pesanti disincentivi, di carattere finanziario, a carico delle università inadempienti. Lo stesso vale per gli atenei, o i dipartimenti, che decidessero di non sottoporre a valutazione i risultati («prodotti» nel gergo ministeriale) della loro ricerca. In tempi di vacche magre come gli attuali si tratta, per le università italiane, di argomenti particolarmente convincenti.
5A giudicare dalle esperienze di questi primi anni, queste norme sono state probabilmente più imposte che desiderate. La macchina organizzativa degli atenei si è messa in moto lentamente e sono apparse, più che contestazioni, interpretazioni riduttive o minimizzatrici. Sono reazioni normali, ed anche prevedibili. Azioni di retroguardia, forme di resistenza o recalcitranza sono sovente utili al progetto riformatore: se non altro perché individuano difetti, punti deboli, interventi mal studiati o progettati.
- 2 Per una rassegna della letteratura più recente si veda Parra Saiani (2002).
6Perché questa legge può essere così importante per il rinnovamento organizzativo delle università italiane? Il suo scopo esplicito è l’istituzionalizzazione di un’attività di ricerca diretta a controllare periodicamente l’evoluzione delle prestazioni di facoltà, dipartimenti, atenei, e soprattutto a suggerire miglioramenti e cambiamenti laddove si manifestino scarti o disfunzioni. La valutazione non si limita ad accertare se certi obiettivi sono stati raggiunti o se una situazione data si conforma o no a specifici standard minimi. Essa riguarda anche la natura e la qualità di un’azione o di un progetto; e permette di stimare la misura in cui essi sono efficaci ed efficienti2.
7La valutazione di un’organizzazione è, o dovrebbe essere, un’attività di ricerca, svolta con il metodo e le tecniche delle scienze sociali, non un giudizio estemporaneo emesso da un giudice o da una giuria. Essa prende le mosse da un progetto; viene realizzata con procedure controllabili nel corso di una o più ricerche empiriche; «sfocia infine in una discussione dei risultati e in una proposta» (Stame, 1998, 9) rivolta ai soggetti interessati.
8Si può dire, da questo punto di vista, che con queste misure le università italiane potrebbero essere trasformate da sistemi debolmente connessi, caratterizzati da scarsa coesione e integrazione, in organizzazioni «che apprendono»; da «anarchie organizzative» (Cohen, March e Olsen, 1972) in organismi capaci di pianificare un processo continuo di aggiustamenti e miglioramenti.
9L’innovazione fondamentale che viene introdotta riguarda i processi di apprendimento organizzativo. L’attività di valutazione prescrive il ricorso ad attività di ricerca, lascia dietro di sé rapporti e documenti scritti, stimola il dibattito all’interno degli organi collegiali, è (o dovrebbe essere) visibilmente connessa a premi e punizioni. Essa rende quindi più probabili le azioni correttive, e meno probabili forme di apprendimento incompleto che potrebbero rinforzare, più che attenuare, gli orientamenti di partenza (Friedberg, 1996).
10Questa è d’altra parte, la linea di evoluzione organizzativa emersa negli ultimi decenni in aziende industriali e di servizi, negli enti pubblici e privati (Baldissera, 1996). La novità principale, introdotta nelle organizzazioni produttive moderne – a partire dalle esperienze svolte in alcune imprese automobilistiche giapponesi negli anni ’70 e ’80 (Ohno, 1993) – è un insieme di formule e di imperativi che stimolano ciascun membro a ricercare continuamente piccoli miglioramenti nel modo di produrre prodotti o servizi. L’espressione, alquanto impropria, coniata per indicare questa caratteristica è «l’organizzazione che apprende». È impropria perché i soggetti dell’apprendimento sono singoli esseri umani, non entità astratte come «l’organizzazione». Cumulativamente, piccoli mutamenti, innovazioni organizzative incrementali possono generare – in un periodo anche relativamente breve – vantaggi competitivi definiti (Stinchcombe, 1974).
11Paul Romer (1993) ha rilevato giustamente come una delle sfide principali delle organizzazioni produttive di beni e servizi, nei paesi economicamente avanzati, sia seguire scrupolosamente pratiche e procedure collaudate e ricercare nello stesso tempo processi più efficienti ed efficaci. Decisivi da questo punto di vista sono sia il rispetto delle procedure operative sia la sperimentazione controllata, vale a dire la ricerca continua di soluzioni organizzative innovative. Per lo sviluppo economico sono più importanti, da questo punto di vista, i processi di replicazione e di scoperta organizzativa, che non i calcolatori, gli utensi-li, i telefoni cellulari. Queste macchine, sostiene a ragione Romer, assumono sovente oggi un significato simbolico immeritato, così come lo ebbe in passato la catena di montaggio. La ricchezza delle nazioni non è infatti contenuta nelle cose, bensì nelle idee; nel software e nell’orgware piuttosto che nell’hardware; nel capitale umano piuttosto che in quello fisico o nelle risorse naturali (Landes, 2000).
12Queste considerazioni valgono in larga parte anche per le università, anche se queste organizzazioni manterranno anche in futuro un’identità peculiare, diversa da quella delle imprese economiche. Dal punto di vista pratico, tuttavia, i processi di creazione e di diffusione delle innovazioni hanno principi e andamenti simili in gran parte delle organizzazioni, pur se diverse – soprattutto se esse sono in qualche misura esposte al mercato e/o sottoposte a vincoli da parte delle autorità politiche (Ribolzi, 1997).
13Solo il futuro ci dirà quali saranno i risultati, attesi e non, del tentativo di trasformare gradualmente, ma sistematicamente, i processi organizzativi delle università italiane mediante l’istituzionalizzazione di attività di valutazione delle loro prestazioni.
14Una condizione indispensabile, anche se non sufficiente, del mutamento nella direzione indicata è l’affinamento dei concetti e degli strumenti usati nella valutazione.
15In particolare, la classificazione e misurazione dei prodotti (o outputs) dei sistemi universitari sono operazioni che richiedono un grande investimento di risorse e d’impegno di ricerca. Senza questi strumenti non è però possibile rilevare se una certa azione ha contribuito a migliorare o danneggiare le prestazioni di un certo sistema, né comparare gli stati di più sistemi (facoltà, dipartimenti, atenei) su una stessa (o su più) proprietà.
16Non mi perito di affrontare questi problemi, che impegnano ormai da decenni le intelligenze di molti ricercatori in diversi paesi (Gardner, 1977; Berk, 1979; Kurz et alii, 1989; Hinton, 1993; Koon e Murray, 1995; Fox e Keeter, 1996). Mi limito a segnalare alcune linee generali di riflessione sotto forma di interrogativi e ad indicare alcuni problemi riguardanti lo stato della valutazione delle università, oggi in Italia.
17Un problema preliminare riguarda l’individuazione delle unità della valutazione. Si tratta dei singoli docenti-ricercatori, dei dipartimenti, delle facoltà, degli atenei, dei raggruppamenti scientifico-disciplinari, sino al sistema universitario nazionale? I problemi e gli indicatori cambiano ovviamente a seconda delle unità considerate.
18In secondo luogo: quale l’oggetto della valutazione? L’attività di ricerca scientifica, l’attività didattica (a diversi livelli di complessità – dalle lezioni per le matricole a quelli svolte nelle scuole di dottorato?) e/o le prestazioni organizzative di un certo sistema o sub-sistema?
- 3 Molti di questi aspetti sono stati studiati dalle ricerche presentate nei volumi curati da Grimaldi (...)
19Quali le proprietà considerate? Se l’attività da valutare – ad esempio – è l’attività didattica, le proprietà considerate possono essere le opinioni degli studenti (in particolare: il loro grado di soddisfazione rispetto ai servizi ottenuti) in un certo momento (subito dopo aver seguito un corso, al momento della laurea, dopo qualche anno dall’ottenimento della stessa); le loro prestazioni cognitive (in modo analogo a quanto rilevato dal progetto Pisa dell’Ocse per gli allievi della scuola secondaria) all’inizio e/o alla fine del curriculum universitario; i loro comportamenti (il numero degli esami sostenuti, le ore dedicate allo studio, i voti conseguiti negli esami e in occasione della laurea); le attrezzature e l’organizzazione dei corsi e molte altre ancora3.
20Ancora: chi ha la responsabilità principale della valutazione? Il Ministero, i nuclei di valutazione dei singoli atenei o altre strutture al loro interno? Come vedremo, la domanda è meno retorica di quanto sembri a prima vista. In particolare, chi decide gli standard in relazione ai quali vengono valutate le attività universitarie? Chi decide le tecniche di raccolta dei dati? C’è una certa differenza tra la raccolta di dati mediante succinti (e come vedremo, tecnicamente inadeguati) questionari autosomministrati o mediante interviste, la raccolta di informazioni mediante l’osservazione, l’esame di portfolio o di altri progetti e dimostrazioni. Ancora: chi decide il grado di complessità con cui i dati raccolti vanno elaborati ed analizzati? Esiste una certa differenza tra le semplici distribuzioni di frequenza presentate dai rapporti dei Cnvsu e dai nuclei locali di valutazione e analisi multivariate capaci di individuare le fonti di variazione delle prestazioni accademiche degli studenti universitari italiani o che frequentano uno specifico corso di laurea in un certo ateneo. Quali i soggetti hanno accesso ai dati e a quali livello di aggregazione? Chi decide eventuali misure o interventi basati sulle analisi dei dati rilevati? E infine: chi valuta i programmi di valutazione effettuati nelle università, chi valuta cioè l’opera dei valutatori?
- 4 Riprendo qui una tipologia degli stati di un sistema sociale, elaborata negli anni ’70 da Luciano G (...)
21Altri problemi riguardano l’ordine e la classificazione degli indicatori utili alla valutazione dei sistemi universitari. Un primo gruppo di indicatori riguarda senz’altro l’efficacia di una certa attività, unità o sistema, ovvero la capacità di raggiungere gli obiettivi prefissati4. Qui occorre specificare chiaramente i risultati attesi: ad es. si può desiderare di far terminare gli studi ad una percentuale elevata di studenti iscritti, sottoposti o meno a prove di ammissione oppure di aumentare il quoziente tra lavori scientifici che presentino certi requisiti e il numero di ricercatori-docenti presenti in un certa unità organizzativa. O altri obiettivi ancora. La massimizzazione congiunta tutti gli obiettivi di efficacia appare assai improbabile, se non impossibile. Occorre scegliere, e stabilire un ordine delle priorità.
22A proposito di efficacia, va osservato che non conosciamo, neppure in modo approssimato, quali mutamenti nelle conoscenze e nelle competenze (per non parlare degli orientamenti di valore e dei tratti caratteriali) degli studenti vengano stimolati dalla frequenza delle università e dallo studio, prolungato per alcuni anni, ad essa connesso. Oggi non possiamo in alcun modo stabilire se, coeteris paribus, l’ateneo A stimoli mediamente un miglior apprendimento rispetto all’università B o se garantisca lo stesso livello d’acquisizione di conoscenze e competenze in minor tempo o con risorse inferiori. Molti ritengono che misurazioni del genere siano impossibili e che quindi non meritino alcuna attenzione. Chi si occupa di ricerca sociale, e conosce la difficoltà di mettere a punto indicatori di fenomeni sociali complessi, potrebbe cercare di smentire nei prossimi anni l’opinione di scettici e indecisi.
23Un secondo insieme di risultati attesi – soprattutto dagli organi che svolgono attività gestionali e da chi fornisce agli atenei le risorse finanziarie: contribuenti, studenti, clienti che richiedono specifiche prestazioni universitarie – è l’efficienza, ovvero il rapporto tra risultati ottenuti e costi sopportati.
24Un terzo riguarda la capacità di adattamento all’ambiente esterno esibita da un sistema o sottosistema universitario. Questa capacità può essere valutata, per così dire, in ingresso – osservando ad esempio le capacità che una certa facoltà o università ha di attrarre gli studenti scolasticamente più preparati e/o più motivati allo studio. Un altro indicatore di questa proprietà potrebbero essere i risultati ottenuti dalle attività di orientamento dei giovani iscritti, o dalle attività didattiche intese a garantire una formazione di base degli studenti del primo o del secondo anno. Un ulteriore aspetto dell’adattamento in input riguarda i risultati ottenuti dalle attività di reclutamento di personale – docente e no – professionalmente preparato e capace di prestazioni adeguate o eccellenti, nell’insegnamento e nella ricerca.
- 5 L’attività del consorzio Alma Laurea rischia di essere compromessa da una decisione – presa dal Con (...)
25L’adattamento può essere valutato anche in uscita, in relazione alla capacità che i prodotti e dei servizi forniti hanno di soddisfare le esigenze e le richieste del mercato di lavoro locale, nazionale ed internazionale, nonché le aspettative dei laureati e delle loro famiglie. Gran parte delle ricerche empiriche svolte dal benemerito consorzio Alma Laurea, sulla condizione occupazionale e sui profili dei laureati, riguarda appunto questo ultimo gruppo di variabili5.
26Un ulteriore gruppo di indicatori riguarda infine l’integrazione interna di un dato sistema universitario. Qui le proprietà considerate possono essere il clima organizzativo, il grado di sinergia e di coordinazione esistente tra diverse funzioni e attività (quelle proprietà emergenti che vengono sovente indicate con la presenza di una «scuola» di docenti e studiosi), la capacità di stimolare il benessere, oltre all’apprendimento, degli studenti. Altri indicatori potrebbero essere l’assenteismo esibito dal personale docente e no, la frequenza e l’intensità di eventuali scioperi ed altri ancora.
- 6 L’analisi dei termini usati nella letteratura sulla valutazione in Italia (e in particolare dal Cnv (...)
27Questi concetti – più precisamente, questi stati di un sistema o sottosistema universitario – potrebbero essere utilmente adottati come criteri di classificazione prima e di raggruppamento poi degli indicatori usati nella valutazione. Quale i vantaggi derivanti dall’adozione di questa proposta? Adottare criteri semplici e chiaramente definiti e porre fine alla torre di Babele di «macro» e «microindicatori», «parametri», «criteri», «variabili» che popolano il linguaggio della valutazione oggi in Italia6.
28Esamino ora brevemente alcuni problemi connessi alla valutazione della didattica e della ricerca oggi in Italia.
29La legge ricordata sulla valutazione nelle università (n. 370/1999) non si accontenta di rendere obbligatoria la valutazione delle attività universitarie, ma impone anche la rilevazione delle opinioni degli studenti frequentanti:
...i nuclei acquisiscono periodicamente, mantenendone l’anonimato, le opinioni degli studenti frequentanti sulle attività didattiche e trasmettono un’apposita relazione, entro il 30 aprile di ciascun anno, al Ministero dell’università e della ricerca scientifica e tecnologica e al Comitato nazionale per la valutazione del sistema universitario (art. 1, comma 2).
30Questa formulazione fa subito intendere quale sia lo scopo principale della somministrazione dei questionari agli studenti previsto dalla legge: «permettere al Ministero e al Cnvsu di formulare valutazioni comparative, utilizzabili a livello politico» sull’attività di atenei e di facoltà. Si tratta inoltre – ma solo in secondo istanza – «di rilevare variabili che pur essendo cariche di soggettività (sic) risultano fondamentali per orientare i docenti e le università verso una didattica sempre più in sintonia con la reale (sic) platea degli utenti» (Di Nauta e Monastero, 2002).
31Il bilancio non presenta risultati memorabili: nel 2002 sono stati valutati con un questionario solo il 56% degli insegnamenti attivati (sopra queste media molte università del Centro Nord; sotto gran parte degli atenei del Mezzogiorno); ogni studente regolare ha compilato in media due questionari, ovvero ha valutato due insegnamenti frequentati; l’insoddisfazione degli studenti si concentra non tanto sulla qualità della didattica (che viene in media valutata positivamente) quanto – in modo del tutto prevedibile, dato il sottofinanziamento cronico goduto dall’università in Italia (Oecd, 2004) – sulle «strutture insufficienti, i «laboratori carenti» e le «biblioteche poco fornite». Solo il 23,4% degli atenei dichiara inoltre di aver usato in qualche modo i dati di questi sondaggi – per incentivare i docenti, per migliorare le strutture, per modificare «l’impianto dei corsi». Il resto si limita, a quanto pare, a raccogliere i dati e inviarli all’organo centrale. Un numero limitato di atenei (Bologna, Calabria, Firenze, Milano Bicocca, Milano Cattolica, Venezia) ha infine curato la diffusione sistematica di questi dati tra gli studenti o realizzato ricerche più sofisticate rispetto a quelle standard prescritte dalla legge e dal Cnvsu.
32Di fronte a risultati tanto magri è opportuno chiedersi se non conviene cambiare qualcosa. Scopo principale di un programma di quality assessment in un’università dovrebbe anzitutto essere il miglioramento delle prestazioni di studenti, docenti e della sua struttura organizzativa. I dati raccolti in proposito dovrebbero quindi usati anzitutto a livello locale, nei luoghi stessi in cui essi sono stati raccolti: a livello di ogni singolo ateneo o, meglio ancora, di ciascuna facoltà e corso di laurea. Questo almeno per tre buone ragioni:
-
a livello locale c’è in genere maggiore possibilità ed interesse a raccogliere, elaborare, analizzare dati e informazioni;
-
a livello locale la competenza per svolgere questi compiti è, nella maggior parte dei casi, almeno uguale o superiore a quella esistente a livello centrale;
-
- 7 A livello locale possono essere inoltre studiate forme efficaci di comunicazione degli student rati (...)
solo a livello locale le risultanze delle analisi dei dati raccolti possono essere più facilmente usate per migliorare pratiche e decisioni7.
33Il Cnvsu sembra aver interpretato la situazione in modo diametralmente opposto e alla fine del 2002 ha ritenuto opportuno consigliare (in realtà imporre) a tutti gli atenei italiani l’adozione «integrale» di un «questionario di riferimento». Ha così redatto un questionario standard, mediante cui rilevare i dati in ogni ateneo italiano. La proposta è stata accettata da molte università italiane, con il risultato che a partire dal 2003 è stato possibile stilare un primo bilancio sui risultati di queste «indagini statistiche» in gran parte degli atenei (Cnvsu, 2003b).
- 8 Il questionario consigliato dal cnvsu sembra inadeguato da molti punti di vista. Alcune domande, an (...)
- 9 Sui limiti degli student ratings si vedano la ancor utile rassegna di Greenwood e Ramagli (1980) e (...)
- 10 Recentemente il cnvsu ha deciso di dare maggior importanza alle valutazioni ex post della didattica (...)
34Il questionario sarebbe stato elaborato «anche avvalendosi di esperti del settore» (Di Nauta e Monastero, 2002). Esso sembra tuttavia inadeguato a rilevare le proprietà rilevanti per la valutazione della didattica, anche se si resta nell’ambito dei confini angusti di una ricerca riguardante la customer satisfaction e non si affronta il problema assai più complesso della valutazione della didattica8. Quest’ultima non si esaurisce infatti solo la valutazione di singoli corsi da parte di studenti che vengono ritenuti «frequentanti» solo perché presenti nel giorno della somministrazione del questionario9. Ho chiesto recentemente a una giovane laureata nella facoltà di Scienze della formazione dell’Università di Torino quali corsi frequentati considerasse più utili per la sua formazione culturale e professionale. Me ne elencò solo quattro (su circa venticinque del suo curriculum), indicandomi anche una serie di possibili modifiche dell’impianto del suo corso di laurea. Una raccolta sistematica di informazioni del genere, insieme alla somministrazione di prove cognitive dirette ad accertare gli incrementi di conoscenze e competenze derivanti dalla frequenza di corsi universitari, potrebbe probabilmente fornire informazioni assai utili per valutare e migliorare le attività didattiche, di certo più utili di quelle raccolte mediante i questionari autosomministrati distribuiti attualmente nelle aule universitarie10.
- 11 Sulla situazione negli usa si veda la ricerca di Colbeck (1998).
35Si tratterebbe inoltre di effettuare ricerche su altri aspetti, non secondari, della didattica e della vita universitaria: dalla valutazione degli esami di profitto (Baldissera, 2001; Coggi, 2004; Nigris, 2004; Trinchero, 2001) e di laurea (Borini e Grimaldi, 2001; Grimaldi, 2004); alle ragioni che inducono gli studenti a preferire una certa facoltà e trascurarne qualcuna – come ad esempio di Scienze; alle ragioni che inducono una buona percentuale di studenti ad abbandonare gli studi (Coggi, 2001), sino alla distribuzione del lavoro tra ricercatori e docenti universitari – in alcune facoltà molto ineguale11.
36Il problema sta qui nella norma di legge, più che nelle iniziative del Cnvsu. Invece di limitarsi a favorire ed incentivare un esame sistematico di opinioni, conoscenze e comportamenti degli studenti e lasciare alle singole università (o anche facoltà) il compito di scegliere quali informazioni rilevare e quali strumenti di ricerca usare, la legge ha imposto la rilevazione delle sole «opinioni degli studenti frequentanti sulle attività didattiche».
- 12 Dai dati ricavati da un questionario redatto dal Nucleo di valutazione della facoltà di Scienze del (...)
37Anche il ruolo del cnvsu potrebbe essere tuttavia meglio articolato. Invece di imporre standard insoddisfacenti, stilare graduatorie dei nuclei di valutazione locali sulla base del grado di conformità ad essi (cnvsu 2003b) ed elaborare dati di scarsa utilità, compito di questo organo potrebbe essere anzitutto stimolare la ricerca di valutazione nei vari atenei e diffondere in seguito le «buone pratiche», insieme ad eventuali «istruzioni per l’uso» intese ad applicarle. Le «buone pratiche» dovrebbero includere anche modalità di analisi dei dati più complesse di quelle usualmente svolte dai nuclei di valutazione locali, che si limitano per lo più alla presentazione di distribuzioni di frequenza o dei loro valori caratteristici o sintetici – come moda, mediana e media. Risultati più interessanti possono essere infatti fornite da forme di analisi multivariata, come ad es. un’analisi delle fonti di variazione delle prestazioni scolastiche degli studenti (o di altre variabili dipendenti rilevanti)12.
38Un ultimo problema – uno tra i più rilevanti, dal mio punto di vista – riguarda le iniziative che intraprenderanno atenei, facoltà e corsi di laurea sulla base delle risultanze della valutazione della didattica (Peterson ed Einarson, 2001). Si possono immaginare conseguenze sull’organizzazione dei corsi, sulla retribuzione dei docenti, sui loro avanzamenti di carriera – come avviene negli usa e in altri paesi (Blank, 1978). Chi potrebbe rischiare di più sono i docenti che verranno reclutati nei prossimi anni con contratti a termine – se i criteri di valutazione per acquisire la stabilità occupazionale dovessero includere anche la valutazione degli studenti della loro didattica. Un ulteriore problema riguarda il peso da attribuire alle valutazioni sulla didattica rispetto a quelle riguardanti la ricerca.
39Anche in questo caso mi sembra opportuno un periodo relativamente lungo di sperimentazione a livello locale, eventualmente stimolato da forme di incentivazione provenienti dal centro. In questo processo, il ruolo del cnvsu potrebbe essere decisivo: per la raccolta delle informazioni rilevanti dalle varie sedi, per la loro organizzazione e sintesi, per l’elaborazione di progetti e di ipotesi di innovazione organizzativa.
40A seconda delle decisioni prese su questi problemi, si articolerà probabilmente il giudizio dei docenti italiani sulla valutazione della didattica.
41La primavera-estate del 2004 sarà probabilmente ricordata in futuro da molti professori e ricercatori universitari italiani come la prima stagione della valutazione sistematica dei prodotti della loro attività scientifica. Nel giro di pochi mesi, inizialmente con un certo grado di incertezza e approssimazione, essi sono stati per così dire costretti a redigere schede di presentazione sulla base di formati preordinati, a compilare istruzioni on line sul sito del Comitato di Indirizzo per la Valutazione della Ricerca -(civr ), a partecipare ad affollate riunioni a livello di ateneo o di dipartimento. Un utile richiamo alla trasparenza dell’attività di ricerca, alla comparazione e alla responsabilità di ognuno.
42L’avvento di forme di valutazione sistematica dei prodotti dell’attività di ricerca segna quindi un momento di svolta, se non epocale almeno rilevante, nella vita delle università italiana. Conseguenze possibili potrebbero essere un ripensamento delle pratiche e degli indirizzi di ricerca da parte di singoli e gruppi di ricercatori, oltre a un benefico mutamento nelle gerarchie accademiche. I prodotti della ricerca di molti giovani ricercatori dispongono infatti di un valore scientifico nettamente superiore a quello di ordinari di «chiara fama». Dipartimenti ed atenei interessati a ottenere maggiori finanziamenti non potranno far a meno di rivedere le loro pratiche di reclutamento.
- 13 Non è questa la sede per un esame del sistema dei concorsi universitari in Italia. Sull’argomento e (...)
43Un’innovazione del genere non può essere certo sminuita dalla circostanza che già oggi i prodotti della ricerca di ricercatori e professori sono valutati attraverso le tappe successive di prove e di concorsi. Queste valutazioni successive sono certo molto utili, anche se non impediscono a persone mediocri di superarle e a studiosi dotati di essere scoraggiati o emarginati13. Far riferimento a una serie di giudizi di merito, svolti da persone competenti e indipendenti, può servire ad indirizzare meglio le energie e le risorse dei ricercatori italiani.
44È probabile che alcuni, o anche molti, degli apprezzamenti espressi dai panel delle aree scientifico-disciplinari verranno a loro volta criticati o contestati. L’unico strumento per ridurre esiti del genere è la selezione di giudici (i membri dei diversi panel di area) scientificamente autorevoli, che dispongano di un solido orientamento universalistico e siano estranei a logiche partigiane o spartitorie.
45È prematuro esprimere un giudizio su un processo appena iniziato, che durerà tra l’altro almeno sino al 2006. Se va considerata in modo molto positivo la messa in moto di una macchina organizzativa complessa, il suo avvio avrebbe potuto essere forse meglio preparato.
46Anzitutto: alcune aree scientifico-disciplinari prese a riferimento dal civr sono, per ragioni storiche, fortemente disomogenee (come l’area 11; discipline storiche, filosofiche, psicologiche, pedagogiche; o l’area 10: discipline dell’antichità, filologico-letterarie e storico-artistiche). Questa situazione rende difficile, se non impossibile, una valutazione comparata dei prodotti della ricerca da parte dei referees. La compresenza di discipline leggermente diverse nella stessa area sembra invece opportuna, almeno al momento, allo scopo di aumentare la possibilità di comparazione tra i relativi prodotti di ricerca. Ad es., la sociologia italiana ha senz’altro qualcosa da imparare dalla scienza politica – se non in tutti, almeno in alcuni atenei.
47Un secondo appunto riguarda i criteri consigliati dal Civr per la valutazione dei risultati della ricerca. In parte essi si sovrappongono: accade per i criteri della «rilevanza» e dell’«originalità/innovazione», definiti con gli stessi termini dagli esperti del Civr (Civr, 2004). Un ulteriore rischio riguarda il peso attribuito dal Civr nella valutazione al criterio dell’«internazionalizzazione» dei prodotti della ricerca scientifica. Definito come «posizionamento del prodotto nello scenario internazionale in termini di rilevanza, competitività, diffusione anche editoriale e apprezzamento della comunità scientifica» (Civr, 2004), esso è stato sovente interpretato in molti atenei come l’equivalente di «pubblicazione in lingua inglese» o altra lingua straniera. Ora: esistono molti lavori di qualità eccellente che non hanno però una diffusione internazionale; in inglese si pubblicano peraltro molte sciocchezze – almeno nelle scienze sociali – che restano tali anche se redatti nella lingua franca dominante. Aggiungo: forse sarebbe opportuno pensare alla costituzione di un fondo per la traduzione in inglese di un numero limitato di lavori, selezionati da panel di qualità e pubblicati da case editrici o da riviste scientifiche del nostro paese. I costi potrebbero non essere molti elevati, finanziabili anche a livello locale e non solo dal ministero. Anche in questo modo si può infatti difendere il made in Italy.
48Per quanto opportune e benvenute siano queste innovazioni, e più in generale quelle delle buone pratiche di valutazione della ricerca e della didattica, la loro efficacia non potrà che rimanere modesta a meno che i finanziamenti destinati alla ricerca e all’istruzione universitaria non vengano aumentati in modo significativo. I dati recentemente resi noti dall’Ocse (2004), riportati nella tab. n. 1, mostrano come il nostro paese dedichi alla scuola nel suo complesso una percentuale solo leggermente inferiore a quelli di altri paesi (5,2% anziché 5,3%). Nettamente inferiore alla media è invece la quota destinata all’istruzione e alla ricerca universitaria: 0,9% del prodotto interno lordo (pil). Benché sia aumentata del 0,1% rispetto al 1995, questa percentuale è nettamente inferiore anche a quella dedicata all’istruzione di terzo livello non solo da gran parte di paesi membri dell’Ocse, ma anche da Cile, Argentina, Giamaica. L’Italia per la sua università spende però percentualmente di più della Russia, dell’India, dell’Indonesia e dell’Uruguay.
49Se confrontiamo questi dati con quelli dedicati negli ultimi trenta anni per sanare i deficit sistematici del sistema pensionistico italiano (circa il 4% del pil ogni anno – il che significa una somma equivalente ad un anno di pil ogni 20 anni o poco più, per mantenere in vita un sistema generosamente iniquo – ma anche a quelle destinate a ripianare i deficit cronici di aziende come le ffss e le pptt, ci rendiamo facilmente conto di quali siano state (e siano tuttora) le priorità nell’impiego della spesa pubblica in Italia.
Tab. 1 Percentuali del pil destinate alle università e ad ogni livello di istruzione in diversi paesi Ocse (2001)
Paesi membri dell’Ocse
|
Istruzione universitaria
|
Tutti i i livelli di istruzione
|
Australia
|
1,5
|
6,0
|
Austria
|
1,2
|
5,8
|
Belgio
|
1,4
|
6,4
|
Canada
|
2,5
|
6,1
|
Corea
|
2,7
|
8,2
|
Danimarca
|
1,8
|
7,1
|
Francia
|
1,1
|
6,0
|
Germania
|
1,0
|
5,3
|
Grecia
|
1,1
|
4,1
|
Italia
|
0,9
|
5,3
|
Giappone
|
1,1
|
4,6
|
Messico
|
1,0
|
5,9
|
Nuova Zelanda
|
0,9
|
5,5
|
Norvegia
|
1,3
|
6,4
|
Olanda
|
1,3
|
4,9
|
Polonia
|
1,1
|
5,6
|
Portogallo
|
1,1
|
5,9
|
Regno Unito
|
1,1
|
5,5
|
Repubblica Ceca
|
0,9
|
4,6
|
Slovacchia
|
0,9
|
4,1
|
Spagna
|
1,2
|
4,9
|
Stati Uniti
|
2,7
|
7,3
|
Svezia
|
1,7
|
6,5
|
Svizzera
|
1,2
|
5,3
|
Turchia
|
1,1
|
3,5
|
Ungheria
|
1,2
|
5,2
|
Media paesi Ocse
|
1,3
|
5,5
|
|
|
|
Paesi partner dell’Ocse
|
|
|
Argentina
|
1,2
|
6,2
|
Cile
|
2,2
|
7,5
|
Federazione Russa
|
0,5
|
3,0
|
Filippine
|
1,3
|
5,4
|
Giamaica
|
2,4
|
11,3
|
India
|
0,8
|
4,2
|
Indonesia
|
0,7
|
2,0
|
Israel
|
2,0
|
8,6
|
Malaysia
|
2,1
|
7,2
|
Peru
|
1,1
|
4,2
|
Uruguay
|
0,7
|
3,4
|
Fonte: Oecd (2004)