di Girolamo De Michele
Gli studenti italiani sono davvero così somari? Un’indagine svolta dall’Accademia della Crusca in collaborazione con l’INVALSI (Istituto nazionale di valutazione del sistema istruzione) sembra confermarlo, e l’autorevole Corriere della Sera lo ribadisce [qui]: «Alla fine del percorso scolastico, dopo 13 anni di lezioni ed esercitazioni, la prova scritta di italiano rappresenta un problema per la metà degli studenti».
Trasuda strazio e dolore un’intervista alla professoressa Elena Ugolini, dirigente dell’INVALSI e preside di un liceo parificato afferente alla Compagnia delle Opere, che dichiara: «Ho qui un tema della maturità 2007 pieno di errori gravissimi di ortografia come “dopo guerra” o “degl’anni”, di errori di punteggiatura, dell’organizzazione logica della frase che evidenziano un livello linguistico di terza elementare». E conclude, la bocca sollevando dal fiero testo: «Mi domando che cosa è stato insegnato a questo ragazzo in 13 anni di scuola».
Sarà vero? Andiamo a vedere.
Intanto: di cosa si tratta? Di una ri-correzione di 6.000 prove di italiano dell’Esame di Stato del 2007 («un importante campione», ci assicura il professor Giorgio Israel sul Messaggero del 23 gennaio 2010):
«Gli elaborati già valutati dai membri interni sono stati sottoposti ad altre due correzioni. Una “libera”, affidata a dei professori che si sono attenuti a criteri soggettivi, l’altra basata su criteri guida elaborati dall’Accademia della Crusca al fine di accertare la padronanza della lingua italiana. Ed ecco il risultato. I commissari hanno assegnato un punteggio basso, cioè meno di 10 (per ciascuna delle tre prove scritte il punteggio va da 1 a 15, ndr) al 20 per cento dei ragazzi. Per i correttori “liberi” invece i temi insufficienti erano il 52 per cento. Ancora più severo il giudizio dei correttori che hanno misurato la padronanza linguistica degli studenti con i criteri indicati dalla Crusca: bocciato il 58 per cento dei temi. Per gli esaminatori ufficiali il 25 per cento dei temi meritava un punteggio alto, da 13 a 15. Per i correttori liberi e quelli che hanno utilizzato i criteri della Crusca i temi ben scritti erano rispettivamente il 12 e il 14 per cento. La prima cosa che salta agli occhi è la differenza tra il primo giudizio, quello ufficiale, e le due successive valutazioni, in qualche modo coincidenti. Alla maturità un po’ più di oggettività nei punteggi non farebbe male».
Seguono considerazioni sullo sfascio della scuola, l’emergenza educativa, o tempera o mores, meno male che Gelmini c’è, eccetera eccetera.
Eppure qualche piccolo segnale dovrebbe baluginare tra queste tristi righe.
Ad esempio: i gravissimi errori denunciati dalla signora Ugolini. Perché, come nota un’attenta lettrice (che ne scrive sul blog Italians di Beppe Severgnini), «quegl’anni» non è un «gravissimo» errore. Non è nemmeno un errore. E chi lo dice? L’Accademia della Crusca, guarda caso: «L’articolo “gli” seguito da vocale costituisce un caso che ormai tende alla invariabilità, anche quando l’articolo sia seguito da una parola iniziante con i (es. gli italiani è ormai più frequente e diffuso dell’altra forma gl’italiani). Non si può ancora parlare di regola rigida e netta, per cui tutte e due le forme restano accettabili» [qui]: cominciamo bene!
Andiamo avanti.
«Importante campione»? 6.000 prove su circa 464.000 sono meno dell’1.3%, professor Israel: un mero dato statistico, di per sé poco indicativo. Ma non è Lei ad averci ricordato di recente («parlar per numeri? Soltanto un mezzuccio per ciarlatani», Avvenire. 21 febbraio 2010) che «sembra che qualsiasi cosa sia più vera, più “oggettiva” se proposta in numeri. Non è così. La statistica è una scienza incerta, per qualcuno non è neppure una scienza ma un insieme di tecniche empiriche», riconducendo l’origine di questa modernistica fede nel numero addirittura a Benito Mussolini? Diremo forse che la statistica non è una scienza se le sue conclusioni divergono da quelle del professor Israel, ma lo diventa se conferma quello che Israel già sa per certo? È questo, forse, ciò che questo insigne epistemologo intende quando afferma che «i numeri non sono intrinsecamente superiori ai giudizi accurati».
Ma vediamola bene, questa indagine. Intanto, quanti sono i docenti impegnati? Per quanto tempo? Non è dato saperlo, e non è particolare da poco. In termini di rigore scientifico, si tratta di elementari condizioni protocollari, senza le quali non si dovrebbe neanche cominciare a discutere.
Una commissione d’esame impiega un paio di giorni per correggere gli elaborati di una classe, che sono circa 20-25. Quanto tempo è stato impiegato, e da quante persone, per correggere 6.000 prove?
E in quali condizioni?
Spostare la correzione fuori dalla situazione d’esame è un po’ come valutare l’operato di un arbitro che decide nel corso della partita da casa, davanti al televisore, magari con la moviola di Biscardi: capaci tutti di criticare l’arbitro, con i piedi sul tavolino e la busta delle patatine accanto.
Sono dubbi che vengono soprattutto in presenza della cosiddetta «correzione libera». Cosa vuol dire «libera»? I commissari d’esame non sono «liberi»: sono vincolati da criteri di valutazione che vengono decisi prima delle correzioni, e che stabiliscono i criteri di attribuzione del voto. Senza criteri, cioè liberamente, chi decide dove passa il confine tra sufficienza e insufficienza, quando un elaborato è ben scritto ma povero di contenuti? O ricco di contenuti ma scritto male?
Ed ecco che diventa determinante sapere in quanto tempo, da parte di quanti docenti è stata effettuata questa correzione. Perché se i docenti erano pochi (e non risulta che Accademia della Crusca e INVALSI abbiamo risorse per impegnare un alto numero di docenti), o i correttori hanno impiegato poco tempo, e dunque sono stati sbrigativi e frettolosi; o hanno dedicato al compito tutto il tempo necessario: e allora, in tanta libera correzione, l’oggettività è inficiata dal lungo tempo trascorso tra le prime e le ultime correzioni. E se i docenti erano molti, quale oggettività era mai possibile, vista la varietà dei correttori e la libertà loro data sui criteri?
E soprattutto: in quali condizioni hanno operato la correzione? Non risulta che si possa essere esonerati dal servizio per svolgere queste funzioni. Quindi INVALSI, Crusca, Israel, Ugolini e Corriere stanno dicendoci che un insegnante che nei ritagli di tempo tra una lezione da preparare e una prova da preparare ha corretto liberamente centinaia di prove (segnando con la matita rossa in nome della Crusca errori che per la Crusca errori non sono) è più attendibile di una commissione che collegialmente corregge 20-25 prove sulla base di criteri comuni?
Ma ci facciano il piacere, ci facciano…
Ma c’è l’altro campione: quello basato su una nuova scheda di valutazione elaborata dall’Accademia della Crusca. Qui non ci piove, qui l’asino, come si suol dire, casca.
Infatti casca.
Perché queste 6.000 prove sono state corrette con nuovi criteri, non con gli stessi dei commissari d’esame. Un po’ come se cambiassimo i criteri di valutazione del fuorigioco, e poi, con una valutazione effettuata nello studio di Biscardi, annunciassimo che con un più severo arbitraggio lo scorso campionato lo vinceva non l’Inter, ma il Catania.
Se invece vogliamo essere seri, a questo esame dovrebbe seguire un contro-esame. Correttezza (e appena un minimo di cognizione dei fondamenti dell’epistemologia, da parte di codesti assertori dell’oggettività) avrebbe infatti voluto che un campione di prove fosse stato ri-corretto, con i criteri della Crusca, dai commissari d’esame del 2007, e che i correttori Cruscanti avessero corretto un campione di prove sulla base delle schede di valutazione usate nell’esame del 2007. E che si fossero comparate le quattro correzioni complessive, per individuare non solo gli errori negli elaborati, ma anche le pseudo-informazioni che appaiono ad un esame ingenuo dei dati (il Paradosso di Simpson, per capirci).
Ma non è successo: e allora, di quale scientificità stiamo parlando?
Basta? No, non basta.
Perché se l’Accademia della Crusca si è presa la briga di produrre una scheda di valutazione, chi siamo noi per negare a cotanta Accademia la soddisfazione di un esame di questi criteri?
Beh, qui ci sarebbe molto da dire, ad aver voglia di entrare nel merito didattico. Ad esempio: perché prove diverse quali un’analisi testuale, un saggio breve o un tema devono essere valutate con lo stesso criterio? Siamo sicuri che tre quarti dei criteri che portano all’attribuzione del punteggio siano da riferire alla scrittura (competenze testuale, grammaticale e lessicale-semantica), e solo uno ai contenuti (competenza ideativa), privilegiando così chi ha poco da dire, ma lo dice bene rispetto a chi, pur con qualche imperfezione, ha originalità e capacità critica? È questa la scuola che si vuole, da parte dei Cruscanti?
Ma si rischierebbe di cadere nel soggettivo. Veniamo al sodo: ai numeri, che danno sostanza a quelle sbandierate percentuali sulle quali si straccia le vesti la direttrice dell’INVALSI.
L’Accademia della Crusca ci fornisce non una valutazione in quindicesimi, come previsto dall’Esame di Stato, ma una valutazione in ventesimi, che va poi traslata in quindicesimi: qualunque docente in possesso di un’infarinatura di docimologia potrebbe obiettare che tradurre una scala di valutazione in un’altra è sempre un’operazione scorretta, e qualunque ispettore scolastico (parlo per esperienza diretta) redarguirebbe chi si azzardasse a valutare con questi procedimenti inutilmente macchinosi.
Ma soprattutto: tra una valutazione in ventesimi e una traduzione in quindicesimi, la scheda di valutazione dei Cruscanti ci dà come competenza media l’«accettabilità», alla quale corrisponde la fascia di punteggio 9-11.
«Accettabile» viene dal latino acceptus, gratus, e significa «essere accettato»; si accetta quando si approva, si aggradisce, si acconsente «alla profferta, alla domanda, alla commessione»: «La qual pace da’ Fiorentini fu accettata in questo modo»: è nientemeno che il Vocabolario degli Accademici della Crusca (lemmi «accettabile» e «accettato»: qui) a dircelo.
Se non ché il 9, nella scala di valutazione dell’esame, equivale all’insufficienza.
«Il tuo compito è accettato, ma il punteggio è insufficiente», dovrebbe dire questo docente edotto nelle tecniche valutative dai Cruscanti allo studente autore dell’elaborato: davvero un bell’esempio di giusta e rigorosa severità, quello dell’insegnante il cui voto non sa cosa dice l’aggettivo che lo descrive, e viceversa.
Davvero un bel modo, per i Cruscanti, per risciacquare nell’Arno della modernità il loro abito d’altri tempi, tagliato e cucito, per dirla con Arbasino, con quel «purismo imbecille che caldeggia l’impiego di qualsiasi grulleria del Piovano Arlotto per definire prodotti e nozioni del nostro tempo; e approva l’uso del greco antico per indicare un qualche cosa che non esiste (il nettare, l’ambrosia, il cocchio, invece del taxi), mentre respinge qualunque termine inglese moderno relativo invece a qualche cosa che è intensamente lì (come il gin-and-tonic)».
«I numeri non sono intrinsecamente superiori ai giudizi accurati»: qui non abbiamo né numeri corretti, né giudizi accurati.
Ma questo non conta.
Conta che, come al Processo del Lunedì, questa moviola che non si saprebbe dire se più taroccata o sgangherata abbia lanciato il tema della serata: metà studenti da bocciare? Moviola in campo anche nelle commissioni d’esame? Telefonate!
Intanto, con decreto n. 26 dell’11 marzo 2010, è stata nominata dal ministro Gelmini una «Commissione di studio con il compito di coordinare e orientare le Indicazioni nazionali per la scuola dell’infanzia, del primo ciclo e dei Licei, secondo criteri di unitarietà e di verticalità coerenti con i processi di progressivo approfondimento e sviluppo delle conoscenze e delle abilità e di maturazione delle competenze caratterizzanti le singole articolazioni del percorso scolastico». Combinazione, ne fanno parte, oltre alla prof.ssa Nicoletta Maraschio (Presidente dell’Accademia della Crusca), il professor Giorgio Israel e la prof.ssa Elena Ugolini.