http://oldportal1.unimc.it/unimc/macerata/ateneo/canali-informativi/archivio-comunicati-stampa-2008-2012/comunicati2009/comunicati-settembre-2009/n.-147-del-18-settembre-2009

n. 147 del 18 settembre 2009

Comunicato stampa n. 147/2009 di venerdì 18 settembre 2009

Giornali73.jpg
Se questa vi sembra una valutazione

Il merito nel sistema universitario nazionale, le classifiche estive e le considerazioni dell’Università di Macerata sull’applicazione dell’art. 2 della Legge n. 1 del 2009

 
Il dossier che qui presentiamo non è una mera e alquanto irrilevante memoria difensiva, e non è neppure un cahier de doléances riguardo a una classifica – quella scaturita dalla valutazione del ‘merito’ nel sistema universitario italiano condotta ai sensi dell’art. 2 della Legge 1/2009 – diffusa dal MIUR con un comunicato all’Ansa il 24 luglio 2009 e ampiamente pubblicizzata e commentata sui principali organi di stampa e sulle reti televisive nazionali; classifica che ha visto l’Università degli Studi di Macerata collocata all’ultimo posto, insieme ad un piccolo gruppo di altri Atenei italiani.
 
L’analisi che abbiamo ritenuto opportuno svolgere nel dossier, infatti, non s’incentra, se non marginalmente, e a titolo puramente esemplificativo, sul trattamento riservato all’Ateneo maceratese e sulle conseguenze prodotte dalla sopra ricordata classifica sull’attività del medesimo Ateneo.
 
Questo dossier si propone come un convinto e doveroso atto di denuncia riguardo ad una procedura di valutazione del ‘merito’ nelle Università italiane che, tanto sotto il profilo formale, quanto, in particolare, dal punto di vista sostanziale, presenta gravi limiti e palesi incongruenze, tali da risultare un’iniziativa destinata non certo a far compiere un passo in avanti al sistema universitario e ad affermare al suo interno quell’autentica e quanto mai necessaria e urgente cultura della valutazione che noi per primi auspichiamo.
 
*****
 
La questione di fondo attiene, ovviamente, ai criteri e agli indicatori assunti per stilare la classifica. Proviamo dunque, sia pure in modo sintetico, a focalizzare l’attenzione su di essi.
 
Occorre osservare che tali indicatori sono stati individuati dal Ministero principalmente sulla base del documento del marzo di quest’anno (DOC. 07/09) stilato dal Comitato Nazionale per la Valutazione del Sistema Universitario (CNVSU) su «specifica richiesta pervenuta dal Direttore Generale per l’Università»
 
Il CNVSU nel suo documento 07/09 fa una affermazione molto importante:
 
In relazione agli obiettivi specificati nel testo sopra riportato, è evidente che occorrerebbe tener conto non soltanto dei livelli, ma anche dell’incremento qualitativo delle attività svolte e del miglioramento dell’efficacia e dell’efficienza nell’utilizzo delle risorse disponibili. Di conseguenza gli indicatori, o meglio, il sistema di indicatori da prendere in considerazione dovrebbe tener conto anche degli incrementi e miglioramenti registrati in un certo periodo di tempo e attribuire una sorta di “premio” agli incrementi più elevati.
 
Qui il Comitato definisce il “dover essere” dei sistemi di valutazione che - come si dirà meglio più avanti - non possono, per definizione, stabilire chi sono i “migliori” in assoluto ma, più realisticamente, possono segnalare gli incrementi e i processi di miglioramento fondati su criteri aggiornati, se disponibili.
Dopo aver detto del “dover essere”, però, il CNVSU opera una singolare interpretazione del primo comma:
 
Tuttavia, non avendo definito a priori che sarebbero stati dati premi in relazione alle variazioni positive di alcuni indicatori, si ritiene più logico attribuire, almeno in sede di questa prima applicazione, i “premi” alle situazioni e ai comportamenti che risultano migliori e quindi basarsi sui livelli degli indicatori che saranno scelti e non sulle loro variazioni nel tempo.
 
In realtà, il “modello” poi utilizzato dal Ministero non si basa sulle variazioni “nel tempo” ma su una congerie di “tempi” che ben poco ha di scientifico e di coerente.
Il CNVSU “mette le mani avanti” – come si suol dire – affermando che in realtà gli indicatori proposti (e poi in certa misura accolti dal Ministero) non corrispondono, se non in maniera molto imperfetta, ai criteri di partenza.
Il CNVSU ha utilizzato i suddetti criteri per individuare gli indicatori che vengono proposti nei paragrafi successivi del DOC. 07/09, consapevole del fatto che:
 
 Non tutti gli indicatori proposti rispondono pienamente a tali criteri e che i dati medi delle singole università e le comparazioni tra università risentono delle diverse caratteristiche e strutture delle stesse, il cui effetto non è sempre facile da eliminare in modo comprensibile a tutti. In altre parole, i risultati medi di Ateneo risentono della variabilità tra le situazioni e i comportamenti rilevati nelle unità interne, ad esempio tra le diverse facoltà, e della diversa importanza delle unità all’interno dell’università. Si tratta com’è noto dell’effetto struttura/composizione di cui si dovrebbe tener conto, per effettuare confronti ceteris paribus, “standardizzando” gli indicatori, operazione questa non sempre facilmente attuabile e di facile comprensione. D’altra parte la scelta e la costruzione di adeguati indicatori per valutare la qualità, l’efficienza e l’efficacia dell’attività formativa e la qualità della ricerca è un argomento che ha impegnato a lungo il CNVSU e che richiede ancora analisi e sperimentazioni per giungere ad un sistema di indicatori condiviso. Proprio per questo il CNVSU ha attivato due specifiche ricerche e tre gruppi di lavoro, cui partecipano anche esperti esterni.
 
Ricerche e gruppi di lavoro di cui, evidentemente, si sono perse le tracce. Per il momento, il CNVSU deve quindi ammettere, correttamente, che gli indicatori non riescono a cogliere l’effetto struttura/composizione degli Atenei (che, come vedremo, è fondamentale) e che, rebus sic stantibus, c’è bisogno «ancora di analisi e sperimentazioni per giungere ad un sistema condiviso» e che quindi si può parlare solo di un cantiere aperto. Ciò significa che, ad oggi, non esiste in Italia un sistema condiviso e affidabile.
 
Ma passiamo ora in rassegna i singoli indicatori.
 
(A) Qualità dell’offerta formativa e risultati dei processi formativi (peso assoluto 34%)
 
A1: numero di docenti di ruolo nei Settori Scientifico Disciplinari (SSD) di base e caratterizzanti per corso di studi attivato confrontato con il valore mediano del sistema per l’a.a. 2008/09 (peso relativo 20%).
 
A2: rapporto tra il numero di studenti iscritti che si iscrivono al 2° anno avendo acquisito almeno 40 Crediti Formativi Universitari (CFU) ed il numero di immatricolati nell’a.a. 2007/2008 confrontato con il valore mediano del sistema (peso relativo 20%).
 
A3: rapporto tra CFU effettivamente acquisiti e CFU nominali degli studenti iscritti confrontato con il valore mediano nazionale del sistema per l’a.a. 2007/08 (peso relativo 20%).
 
A4: rapporto tra il numero di insegnamenti per i quali è stato richiesto il parere degli studenti ed il numero totale di insegnamenti attivati confrontato con il valore mediano nazionale del sistema per l’a.a. 2007/08 (peso relativo 20%).
 
A5: Percentuale di laureati 2004 occupati a tre anni dal conseguimento del titolo confrontata con quella del valore medio per area territoriale su dati ISTAT (peso relativo 20%).
 
(B) Qualità della Ricerca Scientifica (peso assoluto 66%)
 
B1: Coefficienti di ripartizione delle risorse destinate alle Aree – Valutazione Triennale della Ricerca (VTR) 2001-2003 del Comitato di Indirizzo per la Valutazione della Ricerca (CIVR) (peso relativo 49%)
 
B2: Coefficiente di ripartizione delle risorse destinate alle attività di valorizzazione applicativa – Valutazione Triennale della Ricerca (VTR) 2001-2003 del Comitato di Indirizzo per la Valutazione della Ricerca (CIVR) (peso relativo 1%)
 
B3: Percentuale di docenti e ricercatori presenti in Progetti di Rilevante Interesse Nazionale (PRIN) 2005-2007 valutati positivamente, “pesati” per il fattore di successo dell’area scientifica (peso relativo 15%)
 
B4: Percentuale di finanziamento e di successo acquisiti dagli Atenei nell’ambito dei progetti del VI Programma Quadro dell’Unione Europea (peso relativo 35%)
 
 
L’analisi degli indicatori effettuata nel Dossier mostra tutti i limiti e le incongruenze del modello di valutazione che si è inteso adottare ai fini dell’art. 2 della Legge n. 1 del 2009.
 
La Conferenza dei Rettori delle Università Italiane (CRUI), nel parere espresso nell’adunanza del 25 giugno 2009, ha fatto rilevare come l’erogazione del FFO 2009 sia avvenuta «in condizioni del tutto anomale e tali da renderla accettabile solo in un contesto di assoluta eccezionalità (…). Detto modello deve parallelamente considerare l’esigenza fondamentale di ulteriori stanziamenti, da ottenere solo in seguito a incontrovertibili processi di valutazione e all’applicazione di indicatori rigorosi e pienamente significativi, con funzioni di stimolo e di premialità e effetti positivi sui livelli generali del sistema».
 
Il Consiglio Universitario Nazionale (CUN), nella sua adunanza del 25 giugno 2009, ha precisato che «a fronte della frammentazione e della mobilità dei criteri e indicatori sulla cui base viene distribuita nel 2009 la quota di cui all’art. 2 della Legge n. 1 del 2009, diventa necessario riprendere la logica di un modello integrato, aggiornato agli scenari evolutivi del sistema universitario, con cui incentivare e valutare strategie e performance degli Atenei».
 
Diversamente da quanto auspicato dal CNVSU, gli indicatori proposti non appaiono validi e rilevanti per lo specifico obiettivo; non sono sempre semplici, facilmente definibili e interpretabili nonché facilmente calcolabili; provocano effetti indesiderati nei comportamenti degli attori.
Il modello risulta da un singolarissimo mix di indicatori affatto meritocratici (A2, A3); non aggiornati, per non dire del tutto obsoleti (A5, B1, B2); discriminatori per segmentazione territoriale (A5) o per segmentazione disciplinare (B1, B2, B3, B4). Alcuni di essi non sono né rigorosi né pienamente significativi. Non possono svolgere alcuna funzione di stimolo ed avere effetti positivi generali sul sistema. Non danno vita in nessun modo ad un sistema informato ad una logica integrata, aggiornata agli scenari evolutivi del sistema universitario, con cui incentivare e valutare strategie e performance degli Atenei.
 
Il disagio di fronte all’esito della classifica stilata secondo i criteri e gli indicatori sin qui ampiamente discussi nasce dal fatto che essi non corrispondono ad una logica seria, oggettiva, integrata, giusta, condivisa, qualificata, programmata e controllata che dovrebbe sostenere un’operazione delicatissima come la valutazione delle Università italiane del sistema nel suo complesso.
 
E, per questa ragione, un esercizio come quello prodotto alla fine di luglio rischia di ottenere proprio l’effetto contrario: portare ad un rifiuto della cultura della valutazione. Si tratta di un errore gravissimo: perseguire un ottimo obiettivo (la valutazione a fini di premialità e incentivazione) con gli strumenti sbagliati.
 
Va dato atto al ministro Gelmini di aver compiuto un’azione coraggiosa: prendere sul serio la valutazione come strumento di governo del sistema.
E’ tuttavia sufficiente mettere a confronto le linee guida pubblicate a novembre 2008 con gli indicatori utilizzati nel luglio 2009 per capire che così non è stato: in realtà il CIVR non ha mai avviato il secondo esercizio di Valutazione triennale della ricerca prospettato come necessario dal MIUR, nessun’altra valutazione di questo tipo è stata conclusa entro il 2009, l’ANVUR non è entrato ancora in funzione.
 
E’ evidente che non esiste nessun sistema di valutazione “perfetto”. Il modello “migliore” non sarà mai esente da difetti e limiti. Questa consapevolezza fa parte della cultura della valutazione: quest’ultima infatti è molto importante ma non va neanche sopravvalutata come se fosse uno strumento taumaturgico. Chi crede nella valutazione si mette realisticamente alla ricerca del modello che risulta essere il “meno peggio”. Quello adottato per il 2009 non è certo il “meno peggio”.
 
L’Università di Macerata crede fermamente nella valutazione per rafforzare l’autonomia e la responsabilità e svolgere una funzione di garanzia. Basta leggere le Linee guida per l’innovazione e la qualità nell’Ateneo di Macerata (allegate al Bilancio di previsione per l’esercizio finanziario 2009).
 
Tra l’altro vi si legge:
 
L’Ateneo di Macerata intende avviare una fase di riflessione e discussione sui metodi e sulle azioni da porre in essere per applicare sempre più il criterio del merito e della valutazione, in un’ottica generale di contenimento della spesa e di riallocazione delle risorse disponibili verso le esigenze e le necessità primarie o verso le eccellenze che verranno valutate tali. Si intende giungere ad una condivisione delle strategie da adottare e degli indicatori da utilizzare per la valutazione delle attività e del merito, sulla base dei quali saranno in futuro allocate le risorse in sede di bilancio preventivo e di ripartizione dei fondi per la ricerca. Si intende anche iniziare ad adottare alcune modalità per incentivare azioni virtuose e logiche di programmazione e controllo, fondamentali in un sistema pubblico e dinamico come quello dell’Università, che possono far emergere una maggiore conoscenza dei fenomeni interni, in particolare quelli che vengono valutati positivamente dal Ministero nell’ambito della ripartizione del Fondo di Finanziamento Ordinario (FFO), dagli altri enti finanziatori e da tutti i soggetti portatori di interesse diretto ed indiretto nei confronti delle politiche universitarie.
 
Ciò è confermato dal documento approvato dal Consiglio di Amministrazione dell’Università di Macerata per pianificare le attività di preparazione del programma triennale di sviluppo 2010-2012 e, ancora, dalla certificazione di qualità globale UNI EN ISO 9001:2000 acquisita ormai da anni, e, infine, dal Bilancio sociale di Ateneo relativo al 2008.
Il problema non è dunque la valutazione, ma come questa viene realizzata.
 
L’Università di Macerata e le “classifiche”.
 
Al terzo posto nell’esercizio della programmazione triennale per l’anno 2009
 
Il Decreto direttoriale pubblicato l'8 luglio 2009 sul sito MIUR di assegnazione delle risorse finanziarie per l'esercizio 2009 concernente la programmazione e la valutazione delle Università per il periodo 2007-2009 in attuazione del D.M. 362/2007, al quale notiamo che non è stata data alcuna enfasi a differenza della classifica diffusa il 24 luglio scorso, considera la performance di miglioramento dei risultati degli Atenei riguardo agli obiettivi posti per l’anno di programmazione rispetto al triennio precedente. L'Università di Macerata risulta, sommando i risultati degli indicatori ottenuti nelle cinque aree, al terzo posto in Italia (0.022 Torino, 0.021 Trento e 0.020 Macerata a pari merito con altri Atenei). (Vedi: sito http://www.unimc.it/notizie/universita-e-classifiche).
Il problema è che in questo caso le risorse da ripartire ammontavano soltanto a 61 milioni di euro, a fronte dei 523 milioni della quota premiale del 7% del FFO 2009. Su questo versante, come si vede, la classifica che risultava è ben diversa, come diverse sono state le risorse economiche dedicate.
 
Al sesto posto nella classifica Censis-La Repubblica tra gli Atenei “medi”
 
Nell’ultimo quinquennio l’Università di Macerata ha intrapreso autonomamente (e investendo esclusivamente risorse proprie!) un percorso di miglioramento della qualità e di potenziamento dei propri standard nella ricerca, nella didattica e nei servizi offerti agli studenti, il quale si è esplicato in una serie di iniziative che hanno consentito, fra l’altro, di ottenere un’ottima valutazione (sempre in crescita) nel quadro dell’indagine annuale svolta dal CENSIS in collaborazione con il quotidiano La Repubblica: l’Università di Macerata è infatti sesta tra gli Atenei “medi”. Inoltre le sue Facoltà sono sempre ben posizionate nelle rispettive classifiche.
Come è noto, la classifica Censis, stilata da anni, è considerata unanimemente un utile strumento per orientare la scelta universitaria degli studenti. Non sfugge, come ogni classifica, a limiti e a perplessità per la scelta di taluni indicatori, ma, se non altro, l’indagine tiene conto della multifattorialità degli Atenei.
 
Se abbiamo riportato i dati relativi all’Università di Macerata in due diverse classifiche del 2009 non è certo per autocelebrazione o per dimostrare un impegno al miglioramento. Intendevamo semplicemente segnalare quanto sia “friabile” il terreno della valutazione e come, su questo tema, molto, se non tutto, dipenda dai criteri e dagli indicatori adottati.
 
Un conto è misurare i miglioramenti/peggioramenti, un conto i valori “assoluti”; un conto privilegiare una macroarea di indicatori, un conto privilegiarne un’altra. Una cosa è risultare “ultimi” sulla base di un sistema di valutazione ponderato, equo, condiviso, serio, oggettivo, multifattoriale, integrato nella programmazione, un’altra, ben diversa, è risultare ultimi sulla base di un sistema di cui si sono evidenziati limiti abnormi. E’ grosso modo la differenza che corre tra un “processo giusto” e un “giudizio sommario” (prossimo alla fucilazione sul posto)
 
E’ per questa ragione che l’Università di Macerata è stata tra i più convinti sostenitori dell’istituzione di un organo come l’ANVUR, l’Agenzia di valutazione del sistema universitario e della ricerca che solo da poche settimane (dopo essere stata istituita quasi un anno e mezzo fa) dispone finalmente di un regolamento che la rende potenzialmente operativa. Nasce con l’auspicio grande che finalmente – nel prendere sul serio la valutazione – l’ANVUR possa diventare prestissimo un organo di stimolo e di garanzia per il miglioramento complessivo del sistema universitario italiano.
 
Non c’è un solo paradigma per valutare la ricerca.
 
Da ultimo bisogna affrontare un problema che sta particolarmente a cuore alla nostra Università, ma che ha una valenza assolutamente generale. Alla base della valutazione ex art. 2 della Legge n. 1 del 2009 c’è un paradigma culturale che tende a privilegiare il valore della ricerca tecnologica‑scientifica-applicativa come valore condiviso da tutta la comunità degli studiosi. Se questo è dunque il paradigma, è su di esso che bisogna costruire la valutazione della ricerca. L’assolutizzazione di questo paradigma, inoltre, conduce ad una grave distorsione: credere e far credere che, di conseguenza, tutte le Università sono uguali e facilmente comparabili tra loro.
 
Che cosa si vuole dire, dunque? Che quei criteri non vanno bene in assoluto? No, non è questo il discorso. Si vuol dire che gli indicatori non sono né neutrali né facilmente generalizzabili nell’ambito della ricerca (perché nell’ambito della didattica gli Atenei sono più comparabili). Un paese come il nostro ha molto bisogno di ricerca tecnico‑scientifica, di trasferimento tecnologico, di brevetti, di modernizzazione del sistema delle PMI e quant’altro.
 
Ma perché valutare la ricerca umanistica con gli stessi criteri quantitativi? E’ evidente a tutti che una Università come la nostra - sulla base di un’applicazione brutale di quegli indicatori – è penalizzata a priori (al di là del merito e delle performances realizzate in questi ultimi anni) in quanto Università altamente specializzata nella sua plurisecolare vocazione umanistica. The game is over prima ancora che le carte siano state distribuite dal mazziere. Malgrado questo, l’Università di Macerata riesce pure ad ottenere finanziamenti europei (ma non nel VI Programma quadro) negli interstizi delle ricerche che richiedono contenuti propri delle scienze sociali ed umanistiche.
 
In tutta questa vicenda, l’intervento più equilibrato e consapevole è stato quello del CUN che, nel suo parere del 25 giugno scorso, ha osservato:
 
In generale, i criteri e gli indicatori adottati rappresentano con difficoltà la performance analitica degli Atenei nella ricerca scientifica e nell’alta formazione, ma anche l’effettiva articolazione del sistema. Questo vale, in particolare, per gli Atenei in cui prevalgono discipline e linee di alta formazione a valenza sociale e/o umanistica (…). Il CUN propone di avviare un’approfondita discussione sulla consistenza e qualità degli altri indicatori integrandoli in un unico modello a valenza pluriennale capace di dare effettiva rappresentazione all’articolazione del sistema degli Atenei in Italia (specialistici, generalisti, tematici, ecc.).
 
E’ evidente che la valutazione della ricerca (l’aspetto certo più sensibile di tutta la vicenda) dovrebbe essere condotta sulla base di criteri e indicatori capaci di comparare i meriti in base ad aree scientifiche omogenee e sulla base delle strutture scientifiche.
 
La valutazione del futuro.
 
La valutazione del luglio scorso ha avuto almeno un aspetto positivo. Ha fatto vedere che non bastano le buone intenzioni se queste vengono perseguite con strumenti e obiettivi inadeguati. Perché o gli strumenti sono realmente seri, rigorosi, meritocratici, affidabili – e allora ben venga una quota premiale di finanziamento corrispondente almeno al 30% del FFO – oppure ci si astenga, finché gli strumenti adottati non saranno tali.
 
Nel frattempo, l’auspicio è che l’ANVUR possa operare in temi rapidi e secondo principi di assoluta terzietà, trasparenza ed autorevolezza.
 
Noi crediamo che la valutazione del futuro (un futuro che dovrà diventare presente già dal 2010), per dare vita ad un sistema di valutazione basato su incontrovertibili processi di valutazione e all’applicazione di indicatori rigorosi e pienamente significativi, con funzioni di stimolo e di premialità ed effetti positivi sui livelli generali del sistema e per affermare la logica di un modello integrato, aggiornato agli scenari evolutivi del sistema universitario, con cui incentivare e valutare strategie e performance degli Atenei, debba rispondere almeno ai seguenti principi:
 
a)      valutare gli Atenei nella loro complessità (didattica, ricerca, ma anche internazionalizzazione, risorse umane, servizi e interventi a favore degli studenti ecc.);
 
b)      privilegiare strumenti in grado di “leggere” le differenze di tipo territoriale che esistono nel nostro Paese e che condizionano anche le performance del sistema universitario;
 
c)      adottare un sistema che sappia «tener conto non soltanto dei livelli, ma anche dell’incremento qualitativo delle attività svolte e del miglioramento dell’efficacia e dell’efficienza nell’utilizzo delle risorse disponibili;
 
d)      adottare un sistema i cui criteri e indicatori possano rappresentare la performance analitica degli Atenei nella ricerca scientifica e nell’alta formazione, nonché l’effettiva articolazione del sistema. Questo vale, in particolare, per gli Atenei in cui prevalgono discipline e linee di alta formazione a valenza umanistica e sociale;
 
e)      adottare un sistema che renda fissa e non modificabile la struttura dei criteri e degli indicatori per almeno un triennio, proprio per consentire alle università le opportune politiche di programmazione.
 
E’ nostra ferma convinzione che un sistema di valutazione informato ai predetti principi (oltre ad altri che potranno essere ulteriormente suggeriti) sia capace, se perseguito con coerenza, serietà, rigore, trasparenza e condivisione, di portare il sistema universitario italiano verso il traguardo che tutti vogliamo raggiungere: una didattica efficiente ed efficace, sempre più dedicata alle linee fondamentali del sapere, e una ricerca che sappia conquistare in tutti i settori scientifici i più elevati standard riconosciuti a livello internazionale, contribuendo, in maniera decisiva, allo sviluppo culturale, sociale ed economico del nostro Paese.
 
Allora – diversamente da quanto è accaduto con l’applicazione dell’art. 2 della Legge n. 1 del 2009 – risultare tra gli ultimi, sulla base di un sistema come quello da noi prospettato, metterebbe di fronte alle proprie responsabilità, senza possibilità di alibi o di giustificazioni di vario tipo. Ma tutto ciò attiene alla differenza che passa – lo ripetiamo – tra un giudizio giusto e un giudizio sommario, tra un giudizio oggettivo e un pre‑giudizio.
 
*****
 
In conclusione, si vuole sinteticamente richiamare l’attenzione su tre aspetti e motivi che giudichiamo particolarmente importanti e porre all’attenzione di tutti tre questioni che giudichiamo nodali e ineludibili per la stessa crescita e per lo sviluppo del sistema universitario nazionale (e non solo, dunque, per il futuro dell’Università di Macerata):
 
-          Il processo di valutazione degli Atenei italiani che ha portato alla classifica del 24 luglio, in virtù della scelta di parametri e di criteri talora palesemente inadeguati e talaltra scarsamente rappresentativi della complessità del sistema universitario disegna una realtà universitaria nazionale  a due velocità che, guarda caso, coincide in larga misura con la tradizionale divisione del Paese tra un Nord più progredito e avanzato e un Sud (o meglio: un Centro-Sud) dove si concentrano i principali fattori di ritardo e di arretratezza. E’ una fotografia realistica, quella proposta dalla classifica sopra ricordata?  
 
-          Proprio la scelta della metodologia, degli indicatori e dei criteri utilizzati nel processo di valutazione della ricerca scientifica, in particolare, tende ad accentuare notevolmente – anche in questo caso con scarso senso della varietà ed estrema complessità del sistema – il peso e la rilevanza, in seno agli Atenei italiani, dei settori scientifico-disciplinari dell’area tecnologico-scientifica, a scapito di quelli riferibili agli ambiti umanistico, sociale e giuridico. Siamo sicuri che sia questa una scelta intelligente e lungimirante per il sistema-paese e per il suo sviluppo?
 
-          Il terzo punto attiene al metodo del tutto inusuale con il quale si è ritenuto di ‘gestire’ il processo di valutazione degli Atenei italiani culminato con la classifica del 24 luglio: siamo davvero convinti che una seria e moderna cultura della valutazione della ricerca e della didattica universitarie possa affermarsi (sia pure con notevolissimo ritardo rispetto agli altri paesi dell’Occidente industrializzato) attraverso ‘gogne mediatiche’ e la diffusione di liste ed elenchi di ‘buoni’ e ‘cattivi’ da offrire in pasto ad un’opinione pubblica in larga misura poco attrezzata a cogliere il significato reale, i limiti e la complessità del sistema oggetto di valutazione?
Il dossier che qui presentiamo rappresenta indubbiamente un atto di denuncia. Ma esso intende rappresentare anche, e soprattutto, un contributo a una discussione e a un confronto indispensabili per molteplici ragioni, su quello che è un problema – il futuro del sistema universitario italiano e della ricerca scientifica condotta nelle Università – che non riguarda solo ed esclusivamente i rettori, gli organi accademici, le comunità di docenti e ricercatori, il personale tecnico-amministrativo degli Atenei e gli studenti universitari.
 
In un articolo apparso il 2 agosto sull’autorevole quotidiano Il Sole 24 Ore,  Miguel Gotor (Senza riforme si tira a campare) ha proposto un’analisi del processo di valutazione delle Università italiane culminato con la sopra ricordata classifica che ci sentiamo di condividere appieno. Tra le intelligenti ed efficaci osservazioni da lui formulate, una ci sembra possa essere assunta come motivazione di fondo del presente dossier:
 
Dopo un anno di blocco dei concorsi e delle assunzioni è arrivata la classifica delle università virtuose, quelle da premiare con maggiori finanziamenti […]. Tuttavia, non si è riflettuto a sufficienza sui criteri adottati per stilare la lista che rischia così di limitarsi a fotografare una situazione già nota, provocata da problemi strutturali di lungo periodo, e ad aumentare il divario tra ricchi e poveri, nord e sud della penisola, invece di provare a ricomporlo. Ad esempio, per quanto riguarda il versante della ricerca, appare iniquo comparare la capacità di attrarre finanziamenti di un polo tecnico-ingegneristico situato in una zona ad alto sviluppo economico del paese con quello di un’università a prevalente vocazione giuridico-umanistica che si trova in un’area depressa. L’adozione di tale principio, che non prevede riequilibri proporzionali, prefigura una precisa egemonia di carattere tecnico-scientifico: nulla di male, ma di ciò bisognerebbe discutere per valutare l’esclusività di una simile scelta in un paese come l’Italia in cui i beni culturali e i saperi umanistici dovrebbero rappresentare un asset strategico non solo sul piano dell’identità nazionale, ma anche su quello della produzione di ricchezza e di beni immateriali.
 
Non ci sembra di dovere aggiungere altro.

 

 

 

 

 


© 2007-2015 Università di Macerata – Piaggia della Torre, 8 – 62100 Macerata (MC) – Tel. 0733 2581 – P.I.– C.F. 00177050432 – Posta certificata: ateneo@pec.unimc.it