Si può misurare la ricerca scientifica italiana oggi? È possibile orientarsi in un settore fatto di indici e misurazioni complessi, riforme e continue modifiche ministeriali?
Ogni anno, le diverse classifiche sulla qualità delle università internazionali mostrano dati contraddittori sulla salute degli atenei italiani. Se l'Italia ha una ricchezza qualitativa in molti settori disciplinari (18 università italiane nella top 100 per 36 discipline), la percezione comune di chi vive ogni giorno dall'interno il contesto accademico sembra essere diversa. I progressivi tagli ai finanziamenti convivono con un apparato burocratico soffocante che, soprattutto nell’ultimo decennio, ha costruito metriche di valutazione dei ricercatori sempre più dettagliate. Un sistema nel quale si pubblica sempre di più, i posti di lavoro stabile sono sempre di meno e i paletti amministrativi sembrano una continua corsa ad ostacoli.
“C’è un pilota nell’aereo scienza?”“No.”
“L’aereo rischia di schiantarsi?”
“Sì, il rischio è reale.”
Con queste parole si apre La scienza malata, il caustico pamphlet del 2010 di Laurent Ségalat, genetista francese e direttore di ricerca al CNRS. Tra publish or perish e corsa ai finanziamenti, i ricercatori oggi sono sempre più risucchiati in una competizione che tende ad annientarli.
A partire da qui, abbiamo scelto come caso di studio il settore dell'informatica italiano per capire come è cambiato negli ultimi 15 anni, in un contesto in cui metriche come SJR, SNIP e citazioni convivono con attori di recente ingresso come l’ANVUR e l’ASN.
Abbiamo fatto una analisi quantitativa delle pubblicazioni italiane comparandole con quelle di altri paesi, e intervistato ricercatori e professori universitari. Molti di loro hanno scelto di restare anonimi: un primo sintomo dell'atmosfera di competitività che la burocrazia del merito ha innescato.Che ne è, in tutto ciò, della qualità della ricerca scientifica?