Hume PageHume Page

In primo piano

Perché si fanno pochi figli – A proposito di “inverno demografico”

27 Dicembre 2023 - di Luca Ricolfi

In primo pianoSocietà

Nel 2011, in piena crisi finanziaria, per la prima volta dall’Unità d’Italia la popolazione italiana supera i 60 milioni di abitanti. Nei due anni successivi continua a crescere, toccando l’apice di 60 milioni e 350 mila abitanti nel 2013. Da allora inizia un inesorabile declino, che nel 2017 la riporta sotto i 60 milioni di abitanti, nel 2022 sotto i 59 milioni di abitanti, fino a questo 2023 che si chiuderà con una popolazione intorno ai 58.8 milioni di abitanti.

È un trend inesorabile?

Sì e no. Con le nascite scese sotto le 400 mila unità l’anno, e le morti salite intorno alle 650 mila (dopo i picchi dell’epidemia, quando avevano superato le 700 mila l’anno), lo sbilancio è di almeno 250 mila unità l’anno. Quindi il calo della popolazione è inevitabile, a meno che l’afflusso netto di stranieri si attesti intorno alla medesima cifra, o le donne residenti in Italia – italiane e straniere – tornino a fare figli.

Ma né la prima né la seconda condizione si stanno verificando. Come mai?

Apparentemente, il flusso degli stranieri (100-150 mila sbarchi l’anno, decine di ingressi dalla rotta balcanica, più 150 mila arrivi attraverso i decreti flussi) sarebbe sufficiente a neutralizzare il calo demografico “naturale”. Se ciò non avviene, è per un complesso di motivi: molti stranieri si limitano a transitare dall’Italia, diretti verso altri paesi europei; altri – per lo più irregolari – si fermano da noi, ma non prendono la residenza; quanto ai lavoratori ammessi con i decreti flussi, più di metà dei permessi sono stagionali. Il risultato è che la popolazione straniera residente, da circa un decennio, fluttua appena al di sopra dei 5 milioni di persone, senza alcuna capacità di attenuare il calo demografico.

Quanto alla seconda condizione, ossia una ripresa della natalità, è ancora più chimerica della prima. Le nascite sono poche sia perché, esaurito il baby boom degli anni ’50 e ’60, le donne in età fertile sono sempre di meno, sia – soprattutto – perché le donne fanno sempre meno figli. Ciò vale per le italiane, il cui tasso di fecondità è sceso sotto 1.2 nati per donna (era ancora vicino a 2 intorno al 1980), ma anche per le straniere, la cui propensione a fare figli – tuttora maggiore di quella delle italiane – è scesa ancora più rapidamente.

Quanto sia incisivo questo fattore lo rivela un semplice calcolo: se le donne italiane avessero un tasso di fecondità analogo a quello delle donne francesi (1.9), le nascite si salirebbero da meno di 400 mila a oltre 600 mila l’anno, una cifra quasi sufficiente a pareggiare il numero di morti.

Ma perché le donne italiane fanno così pochi figli?

Si sente spesso invocare la precarietà di tante occupazioni, la mancanza di asili nido, l’incertezza del futuro. Queste spiegazioni, tuttavia, sono basate su una confusione concettuale: è vero che con posti di lavoro meglio retribuiti, maggiori servizi sociali, un’economia più dinamica, il tasso di fecondità sarebbe maggiore di quello attuale; nello stesso tempo, però, non si può non notare che negli anni ’70 e ’80, quando i tassi di fecondità erano ancora prossimi a 2, la carenza di asili nido era ancora maggiore di oggi, la quota di posti di lavoro precari era analoga (se non superiore), e il tenore di vita era decisamente più basso di quello attuale. Quel che si tende a ignorare, se non a nascondere, è l’abissale cambiamento culturale che è intervenuto fra l’epoca in cui era il lavoro il centro delle nostre vite, e l’epoca in cui centrali sono diventati il consumo, l’intrattenimento, l’organizzazione scientifica del tempo libero. È perché teniamo troppo al nostro modo di vita e alle nostre più o meno abusate libertà che l’impresa di fare figli ci appare tanto ardua e rischiosa. Un figlio – non solo per la madre – significa meno cene con gli amici, meno weekend lunghi, meno svaghi, meno tempo per sé stessi, in definitiva: meno spensieratezza, fine dell’adolescenza prolungata. È anche per questo, e non solo per ragioni professionali, che una quota così ampia delle giovani donne che, alla fine, i figli comunque li fanno, attendono lo scoccare dei 30-35 anni, quando l’orologio biologico le avverte che il tempo sta per scadere.

La realtà indicibile è che, se non fossimo diventati una “società signorile di massa”, impegnata ad espandere senza limiti la sfera dei diritti, e refrattaria ad ogni contenimento dei desideri individuali, l’avventura di mettere al mondo dei figli ci spaventerebbe di meno.

Ecco perché le spiegazioni basate su precarietà, servizi sociali carenti, incertezza del futuro ci appaiono tanto seducenti, a dispetto della loro debolezza scientifica. Attribuendo a cause esterne l’origine delle nostre decisioni, quelle spiegazioni funzionano come perfette razionalizzazioni, che ci evitano il disagio di riconoscere le ragioni per cui, oggi, la scelta di fare e allevare figli è diventata così poco attraente.

I media hanno ridotto la qualità della democrazia in Italia?

21 Dicembre 2023 - di Giovanni Battista Pittalunga

Dossier HumeIn primo pianoSocietà

Come è noto, nella teoria liberal-democratica dei media, la libertà di parola e la libertà di stampa sono considerate fondamentali per garantire che un’ampia gamma di punti di vista e opinioni siano liberamente espresse: ciò migliora la qualità della democrazia. Questa visione è sostenuta da importanti pensatori liberali, tra cui Tocqueville (1838) e Stuart Mill (1859) e da una letteratura estremamente ampia.Essa, tuttavia, non sempre risponde al vero. In fondo, i giornali sono imprese e, come ogni altra impresa, perseguono la massimizzazione del profitto. Tale obiettivo non sempre collima con il perseguimento del benessere della collettività.Un caso eclatante in questo senso è quanto avvenuto negli ultimi decenni in Italia dove i media, e in particolare i quotidiani, hanno indotto nei cittadini la percezione di una corruzione più estesa di quella effettiva.È un fatto che, stando ai dati raccolti da Transparency International sulla corruzione percepita, emerge che l’Italia ha un livello di corruzione (colto dal Corruption Perceived Index: CPI) molto più alto degli altri paesi avanzati. Nel ranking mondiale del grado di corruzione (che cresce con il grado di corruzione) il nostro Paese si colloca in una posizione molto più alta rispetto agli altri paesi avanzati. Nel 2019 (prima della crisi del COVID-19) l’Italia occupava il 51° posto in questa classifica, mentre nello stesso anno Francia e Germania si collocavano rispettivamente al 23° e 9° posto (Tabella 1). La posizione dell’Italia è analoga, e talvolta persino peggiore, a quella di paesi emergenti o in via di sviluppo, come, ad esempio, Botswana, El Salvador, Gambia, Ghana, Indonesia e Santa Lucia.

Tabella 1- Classifica dei paesi rispetto alla corruzione percepita

1995 2003 2009 2013 2015 2019 2022
Francia 18 23 24 22 23 23 21
Germania 13 16 14 12 11 9 9
Grecia 30 50 71 80 58 60 51
Italia 33 35 63 69 61 51 41
Portogallo 22 25 35 33 28 30 33
Spagna 26 23 32 40 37 30 35
Regno Unito 12 11 17 14 11 12 18

Fonte: Transparency International database. Legenda: Quanto più elevato è il posto in classifica tanto più elevata è la corruzione percepita nel paese.

Tuttavia, se si considerano indicatori oggettivi del livello di corruzione, sembra che la corruzione nel nostro Paese sia poco discosta da quella dei principali Paesi europei e, soprattutto, molto inferiore a quella riscontrabile in Paesi in via di sviluppo o emergenti che hanno una corruzione percepita analoga a quella dell’Italia. Ad esempio, prendendo a riferimento l’indagine campionaria contenuta nello Special Eurobarometer Report on Corruption della Commissione europea, si rileva che, sempre per il 2019, la quota del totale degli intervistati che aveva risposto affermativamente alla domanda “Do you know anyone who takes or has taken bribes?” era del 7 per cento per l’Italia e rispettivamente dell’8 e 13 per cento per Germania e Francia. Anche nella survey del Global Corruption Barometer di Transparency International relativo al 2021[1] risultava che la percentuale di cittadini che nei 12 mesi precedenti avevano pagato una tangente per fruire di servizi pubblici era del 3 per cento per l’Italia e rispettivamente del 3 e 5 per cento per Germania e Francia.[2]Dalla Tabella 1 emerge non solo che il ranking rispetto al grado di corruzione dell’Italia è più elevato di quello degli altri paesi avanzati, ma anche che esso è aumentato in misura molto pronunciata tra il 2008 e il 2012. Tuttavia, se si considera un indicatore oggettivo del grado di corruzione come le condanne per reati contro il patrimonio pubblico di funzionari pubblici si evince che tra il 2000 e il 2017 (ultimo anno in cui l’Istat riporta questi dati), e in particolare tra il 2008 e il 2012, non vi è stato alcun significativo aumento della corruzione effettiva (Tabella 2).

Tabella 2 – Condanne definitive per reati contro la PA di funzionari pubblici

Corruzione (a)

 

 

Concussione

(b)

 

 

Peculato

(c)

 

 

Malversazione

(d)

 

 

Corruzione e Peculato

(a)+(c)

 

Reati contro la PA di funzionari pubblici (a+b+c+d)
Media 2000-2004 309 58 141 19 450 527
Media 2005-2009 226 55 153 72 379 507
Media 2010-2014 177 52 159 46 336 417
Media 2015-2017 190 22 182 93 372 488

Fonte: Istat.

L’esistenza della discrepanza tra corruzione effettiva e corruzione percepita e il suo aumento dopo il 2008 sono evidenziati anche dal Rapporto del governo Monti sulla corruzione del 2012 in cui si scrive: “… il raffronto tra i dati giudiziari e quelli relativi alla percezione del fenomeno corruttivo induce a ritenere la sussistenza di un rapporto inversamente proporzionale tra corruzione ‘praticata’ e corruzione ‘denunciata e sanzionata’: mentre la seconda si è in modo robusto ridimensionata, la prima è ampiamente lievitata, come dimostrano i dati sul Corruption Perception Index di Transparency International, le cui ultime rilevazioni collocano l’Italia al sessantanovesimo posto (a pari merito con Ghana e  Macedonia), con un progressivo aggravamento della corruzione percepita negli ultimi anni”.[3]

È lecito, dunque, chiedersi come si sia generata questa discrepanza e perché sia aumentata tra il 2008 e il 2012.

Un’ipotesi plausibile è che l’elevata percezione di corruzione nel nostro paese sia stata in larga misura “fabbricata” dai media e dai giornali. Conferma di ciò si ha dalla elevata correlazione tra il ranking dell’Italia rispetto al CPI rilevato da Transparency International e il numero di articoli dedicati dai principali quotidiani italiani a casi di corruzione politica (Figura 1).

Figura 1 – CPI ranking e numero di articoli su casi di corruzione politica del Corriere della Sera e de La Repubblica

(a)   CPI ranking dell’Italia secondo Transparency International    

 

(b) CPI ranking dell’Italia secondo lo Special Eurobarometer Report on Corruption

Fonte: Transparency International, Special Eurobarometer Report on Corruption, e archivi elettronici del Corriere della Sera (archivio.corriere.it) e della Repubblica (https://ricerca.repubblica.it/ricerca/repubblica.

Legenda: le linee verdi nella Figura 1(a) e 1(b) indicano rispettivamente la posizione dell’Italia nella rilevazione di Transparency International e in quella del Rapporto Eurobarometer sulla Corruzione; le linee blu e rossa nei due quadranti indicano il numero di articoli dedicati a casi di corruzione politica rispettivamente dal Corriere della Sera e dalla Repubblica. Il numero di articoli è normalizzato ai loro valori massimi; tutte le variabili sono espresse in logaritmi

È un fatto che gli editori di quotidiani dopo la crisi del 2008 e quella del debito sovrano del 2011, a causa della caduta delle vendite e della pubblicità, si trovarono ad affrontare anni molto difficili in termini reddituali. È plausibile che essi, allo scopo di limitare le perdite, sfruttando i pregiudizi dei lettori instillati in essi da Tangentopoli (ovvero di una classe politica corrotta), abbiano deciso di aumentare il numero di pagine e articoli dedicati a scandali politici.

L’elevato livello di corruzione percepita indotto dai quotidiani non è stato privo di effetti sulla democrazia del nostro paese. Esso ha avuto riflessi sulle scelte di policy, sulla fiducia nelle istituzioni democratiche e anche sulla cultura politica e economica degli italiani.

In merito al primo aspetto la classe politica italiana ha adottato una serie di misure di lotta alla corruzione. Si pensi, ad esempio, al Codice degli Appalti proposto dal governo Renzi e approvato nel 2016 dal Parlamento, alle complesse procedure di gara da esso previste, che certamente non hanno favorito l’attuazione di investimenti pubblici e hanno messo a rischio l’uso dei fondi PNRR. Si pensi ancora alla costituzione nel 2014 dell’ANAC, per molti aspetti un doppione della Corte dei Conti. Si pensi alla legge Severino promossa dal governo Monti, nonostante, come si è visto, nel Rapporto sulla corruzione di esso si riconoscesse una discrepanza tra corruzione effettiva e percepita. Si può dire che una buona parte delle leggi emanate negli ultimi 10-15 anni, compresa la legge Gelmini per l’Università, abbiano risentito di questo anelito alla lotta alla corruzione, in molti casi con pregiudizio per l’allocazione efficiente delle risorse del Paese.

Un secondo effetto dell’elevata corruzione percepita è stato l’indebolimento del Parlamento e delle istituzioni democratiche. Infatti, l’elevata corruzione percepita ha infirmato la credibilità del Parlamento. L’indagine Standard Eurobarometer della Commissione Europea mostra che, tra il 2009 e il 2013, in Italia la fiducia degli italiani nel Parlamento si è significativamente indebolita, soprattutto se confrontata con quella rilevata per Francia e Germania (Tabella 3).

 

Tabella 3 – Fiducia nel Parlamento (percentuale degli intervistati)

2009 2010 2011 2012 2013 2014 2015 2016 2017 2018 2019 2020
Francia 28 31 26 32 19 23 20 19 31 27 27 31
Germania 45 46 42 46 44 49 42 55 58 58 54 55
Grecia 47 17 12 9 12 14 15 12 13 15 23 27
Italia 27 26 14 11 10 18 18 15 20 27 27 27
Portogallo 41 26 22 23 15 20 19 36 42 37 39 40
Spagna 29 21 19 9 8 10 11 17 21 24 19 19

Fonte: Standard Eurobarometer survey, n. 71-94: https://europa.eu/eurobarometer surveys/browse/all.

La sfiducia nel parlamento è derivata dalla convinzione diffusa che la classe politica fosse incompetente e corrotta. In questo contesto, dato il basso status sociale del politico e il rischio di essere coinvolti in indagini giudiziarie e “lapidati” dalla stampa, gli individui di alta qualità professionale sono stati indotti ad evitare la carriera politica. Ciò contribuisce a spiegare perché negli ultimi anni la qualità dei parlamentari in termini di professioni esercitate nella vita civile sembrerebbe essere diminuita significativamente in Italia (Figura 2).

Figura 2 – Qualità professionale dei membri del Senato italiano (quote percentuali)

Fonte: Senato della Repubblica Italiana. Legenda: la linea blu indica la quota percentuale di senatori di elevata qualità professionale (ovvero che nella vita civile esercitano una di queste professioni: Avvocati, Professori universitari, Dirigenti di impresa); la linea rossa indica la quota percentuale di Senatori che nella vita civile esercitano attività impiegatizie e similari.

In terzo luogo, l’elevata corruzione percepita ha favorito tra il 2013 e il 2018 l’eclatante successo elettorale di partiti populisti, in particolare del Movimento Cinque Stelle, che, almeno alle sue origini, invocava la transizione dalla democrazia rappresentativa alla democrazia diretta e volle nel governo Conte l’istituzione di un “Ministero per i Rapporti con il Parlamento e la Democrazia diretta”.

Infine, l’elevato livello di corruzione percepita ha determinato cambiamenti “culturali” negli italiani, aumentandone la resistenza a qualsiasi tipo di riforma, in primis di quelle volte ad un riequilibrio della finanza pubblica: in fondo, se i vecchi politici erano incompetenti e corrotti, bastava mandare a casa questi politici e i conti pubblici sarebbero tornati in ordine.

Quanto esposto non implica che nel nostro Paese, soprattutto in alcune sue aree, non vi sia corruzione. Semplicemente si vuol dire che i giornali, contravvenendo a quello che secondo molti è il loro compito in una democrazia, ne hanno esagerato l’entità con conseguenze negative per la qualità delle istituzioni e la crescita economica e culturale del nostro paese

 

[1] Non è disponibile quello relativo al 2019.

[2] Tale percentuale era sensibilmente più elevata nei paesi emergenti o in via di sviluppo che avevano un ranking più basso dell’Italia rispetto alla corruzione percepita come El Salvador, Colombia, Gambia, Indonesia.

[3] Governo italiano, Presidenza del Consiglio dei Ministri, “Rapporto della Commissione per lo studio e l’elaborazione di proposte in tema di trasparenza e prevenzione della corruzione nella pubblica amministrazione”, 2012, p. VIII.

A proposito di gender gap – Le ragazze e la matematica

16 Dicembre 2023 - di Luca Ricolfi

In primo pianoSocietà

Non è la prima volta che, da quando esistono i test internazionali PISA sul livello degli apprendimenti degli studenti, viene denunciato il gender gap in matematica, ossia il fatto che il punteggio delle ragazze sia sistematicamente inferiore a quello dei ragazzi. Una denuncia che ha preso ulteriore vigore quest’anno, quando si è appreso che in nessun altro paese avanzato il gender gap è alto come in Italia. Legioni di commentatori e soprattutto commentatrici si sono esercitate a denunciare gli stereotipi di genere, i luoghi comuni, i pregiudizi che, convincendo le ragazze di non essere portate per la matematica, alimenterebbero vissuti di insicurezza, ne aumenterebbero l’ansia di fronte ai test, le convincerebbero ad evitare le carriere scientifiche (lauree STEM), e le indirizzerebbero verso percorsi di studio svalutati e alla fine poco gratificanti, come l’insegnamento.

Io trovo tutto questo abbastanza umiliante per le studentesse, e per le donne in generale. Alla radice di queste analisi vi è, infatti, una idea della donna come soggetto passivo, condizionabile, e in definitiva privo di autonomia. Una visione non nuova nelle scienze sociali, dove un’intera disciplina (la sociologia) è cresciuta nel segno della “concezione ultrasocializzata dell’uomo”, una teoria che sottolinea il potere dei condizionamenti dell’ambiente sociale, lasciando ben pochi gradi di libertà all’agire umano. Ma una visione nuovissima nell’accanimento con cui, forse anche sotto la spinta emotiva del dibattito sui femminicidi, si ostina a descrivere le giovani donne come vittime dell’educazione (patriarcale) ricevuta, incapaci di perseguire i propri interessi e di effettuare scelte veramente libere.

Se fossi una donna, non dico che mi sentirei offeso (sono già troppe, e troppo stupide, le ragioni per cui quotidianamente ci offendiamo), ma certo mi sentirei mal descritto, e trattato con poco rispetto. E questo per diverse ragioni.

Primo, è abbastanza umiliante che, ogniqualvolta una donna compie una scelta tradizionale, come sposarsi, avere figli, fare l’insegnante, lavorare part-time o non lavorare, scatti il pregiudizio per cui tale scelta sarebbe frutto di condizionamenti, a partire dai ruoli appresi nei primi anni di vita attraverso i giochi ricevuti, gli abiti indossati, i modelli trasmessi dalla famiglia. È vero, la sociologia – maschile e conservatrice – della tradizione funzionalista la mette proprio così, ma ci sono robuste evidenze che le cose possano stare diversamente, e che certe scelte delle donne spesso riflettano le loro genuine preferenze, in parte legate a ovvi fattori biologici (segnalo in particolare i lavori della sociologa Catherine Hakim sulle preferenze femminili). Un conto è battersi per rimuovere i vincoli (ad esempio la carenza di asili nido) che limitano la libertà delle donne, un conto è rappresentare la donna come una vittima-succube-marionetta, le cui credenze, preferenze e scelte di vita avverrebbero nel segno di pesanti condizionamenti culturali. Perché non si prende mai in considerazione l’ipotesi più semplice, e cioè che a tante donne certe attività, certe professioni, certe carriere (ad esempio quella politica), interessino meno che agli uomini?

Secondo, è strano che lo stigma dell’handicap, dell’inadeguatezza, e della necessità di ri-orientamento, sia riservato alle donne, e che i maschi ne siano sostanzialmente esenti. Perché drammatizziamo il gap in matematica, sfavorevole alle ragazze, e non diciamo nulla sul gap in lettura, in cui sono i ragazzi a essere molto indietro rispetto alle ragazze?

Ma direi di più: come mai nessuno tematizza il drammatico ritardo culturale globale dei maschi, che abbandonano gli studi prima delle ragazze, faticano a laurearsi, e hanno quasi sempre risultati di apprendimento inferiori? È forse perché i maschi non sono considerati una categoria protetta?

C’è anche una terza ragione, però, per cui – se fossi una donna – sarei molto arrabbiata. Ed è che nessuno ha preso in considerazione l’ipotesi che il nostro (di noi donne) handicap in matematica sia dovuto al fatto che né i test Pisa né i test Invalsi misurano davvero la capacità matematica, che è innanzitutto capacità di astrazione e deduzione.

Basta esaminare il contenuto (e il formato a quiz!) delle batterie di domande, per rendersi conto che misurano prevalentemente altre abilità, di tipo più pratico, tecnico, calcolistico. Se misurassero davvero l’abilità matematica, forse l’handicap sparirebbe.

Forse?

No, non “forse”, ma quasi certamente. Grazie al Ministero dell’Istruzione e del Merito ho potuto analizzare i dati degli esami di 3a media, e il risultato è sconcertante per i teorici del gender gap: il gap esiste, ma è a favore delle ragazze, che vanno meglio dei ragazzi in tutte le materie, compresa la matematica. E la superiorità in matematica si ripete regione per regione, a tutti i livelli della scala sociale, fra studenti italiani e stranieri, nelle scuole pubbliche e nelle scuole paritarie, negli scrutini e nell’esame finale di licenza media.

Possibile che gli insegnanti, che conoscono i loro allievi e li seguono lungo tutto l’anno, siano giudici meno capaci di un test computerizzato somministrato una volta soltanto?

Il gender gap in matematica – Un grande abbaglio?

13 Dicembre 2023 - di Luca Ricolfi

In primo pianoSocietà

Fra le notizie che hanno imperversato sui media la settimana scorsa vi sono i risultati dei test internazionali PISA sui livelli di competenza degli studenti all’inizio della scuola secondaria superiore.

Prendo qualche titolo a caso: “gli studenti italiani vanno peggio in matematica”, “il Covid penalizza gli studenti”, “la scuola italiana non sa insegnare matematica alle ragazze: Italia peggiore al mondo”, “quei nostri quindicenni in una scuola mediocre”, “studenti meno preparati dopo la pandemia”.

È da diversi decenni che denuncio lo stato pietoso e la inesorabile decadenza della scuola e dell’università italiane, quindi non sono certo stupito, disturbato o irritato dal catastrofismo di simili titoli. Il problema con queste indagini periodiche, però, non è di

capire come andiamo in generale (lo sappiamo da tempo), ma che cosa sta cambiando, se ci sono smottamenti o inversioni tendenza. Insomma, che cosa di nuovo rispetto al passato c’è nell’ultima indagine, condotta nel 2022, ossia nel primo anno di (quasi) dopo-Covid.

Ebbene, i dati PISA – se analizzati con attenzione – dicono tutt’altro.  Tanto per cominciare, in 2 materie su 3 (lettura e scienze) gli studenti italiani vanno meglio che nell’ultima indagine, del 2018. Le loro prestazioni erano in declino dal 2012, ma fra il 2018 e il 2022 (in un periodo fortemente condizionato dal Covid), sono migliorate. Nello stesso tempo, la media Ocse è peggiorata in entrambe le materie. Insomma, l’Italia si è mossa in controtendenza, e in una delle due materie (lettura) fa meglio della media dei paesi Ocse.

Le dolenti note sembrano provenire dalla matematica, dove effettivamente gli studenti italiani hanno accusato una perdita di 15 punti, ma si tratta di una variazione analoga a quella della media dei paesi Ocse: con 471 punti l’Italia risulta sostanzialmente allineata alla media Ocse (472).

Quindi fin qui i dati di fondo sono tre: il livello degli apprendimenti è in calo da un decennio (dal 2012) sia a livello mondiale, sia a livello europeo; il periodo del Covid ha confermato questa tendenza; la scuola italiana si è in parte sottratta al trend generale negativo.

Ma il dato che più è stato enfatizzato nei giorni scorsi è ancora un altro: il divario in matematica fra ragazze e ragazzi, già molto ampio nell’indagine del 2018, si è ulteriormente allargato, raggiungendo i 21 punti. Nell’indagine del 2022 nessun paese Ocse ha un divario così ampio, e in 3 paesi Ocse su 37 (Finlandia, Norvegia, Slovenia) il divario è rovesciato: le ragazze vanno meglio dei ragazzi.

Di qui, da parte dei commentatori, una serie di filippiche contro le (presunte) cause del divario, che dipenderebbe da ogni sorta di stereotipi e luoghi comuni, i quali – convincendo le ragazze di non essere “portate” per la matematica – ne indebolirebbero l’autostima e le incentiverebbero a investire su altre materie, in particolare quelle umanistiche.

Naturalmente, in mancanza di studi approfonditi sulle determinanti effettive del gender gap, ognuno può tenersi le opinioni che preferisce. Io mi limito ad osservare che il gap rilevato dalle indagini Ocse certamente c’è, ma non può essere un gap in matematica. E questo per almeno due buone ragioni. Primo, i test Pisa, come i “cugini” test Invalsi, sono notoriamente “gender biased”, ovvero distorti a favore dei maschi (più inclini alle domande a crocette somministrate via computer). Secondo, basta un esame attento del contenuto delle domande, per rendersi conto che l’abilità che rilevano non è certo la capacità di deduzione e astrazione tipica della matematica, ma semmai un miscuglio di abilità pratiche di calcolo, lettura di grafici, soluzione di problemi concreti.

E se fosse che le ragazze vanno male ai test invalsi proprio perché sono brave in matematica, e non nella materia-ircocervo – né statistica, né matematica – dei test PISA?

È solo un’ipotesi, ma ha un sostegno empirico potente in un dato statistico inoppugnabile: alla fine della 3° media, ovvero a un’età (14 anni) prossima quella dei test PISA (15 anni), i voti in matematica delle ragazze sono superiori a quelli dei ragazzi. Forse, è tempo di prendere congedo dalla religione dei test.

La frattura tra ragione e realtà 5 / Il Grande Spauracchio – Parte seconda: il nucleare civile

8 Dicembre 2023 - di Paolo Musso

In primo pianoSocietà

Nel precedente articolo ho cercato di dissipare le numerosissime “leggende nere” che riguardano le armi nucleari, per riportare la discussione sui rischi che esse comportano alla loro reale dimensione. Stavolta parlerò invece del nucleare nel suo uso civile, cioè finalizzato alla produzione di energia elettrica, dove le leggende nere sono, se possibile, ancor più abbondanti, benché i termini della questione siano molto più semplici (e tuttavia altrettanto gravemente fraintesi).

L’ambiguo “ritorno” al nucleare

Se le idee sballate circa le armi nucleari sono già notevoli, quelle sull’uso pacifico del nucleare per produrre energia lo sono ancor di più. Anche se (forse) qualcosa sta iniziando a cambiare, paradossalmente a causa di un clamoroso “autogol” degli ecologisti, che hanno enfatizzato a tal punto il problema del cambiamento climatico che ormai la gente pretende delle soluzioni efficaci. E, nel momento in cui hanno dovuto passare dai proclami ideologici alla realtà, i governi hanno cominciato ad accorgersi che le soluzioni che avevano fin qui sbandierato non funzionano.

Un chiaro segnale di questa controtendenza è il coraggioso documentario di Oliver Stone, Nuclear now (Nucleare subito), appena uscito e trasmesso in anteprima da LA7 lo scorso mercoledì 6 dicembre, che consiglio a tutti di guardare e far guardare il più possibile.

Ancor più importante, proprio in questi giorni alla COP 28, cioè l’annuale conferenza sul clima che fin qui aveva prodotto tante liste di obiettivi (che chiunque è capace a scrivere) e pochissime di mezzi adeguati per raggiungerli (che invece sono la cosa importante, ma anche difficile), si è finalmente preso atto di ciò che era da sempre evidente, ma che nessuno voleva prendersi la responsabilità di dire: e cioè che una riduzione delle emissioni dell’entità (enorme) che si ritiene necessaria è impossibile senza un massiccio uso del nucleare civile.

Problema risolto, allora? Niente affatto, perché il modo in cui lo si è fin qui detto è molto ambiguo, il che potrebbe causare seri problemi. Infatti, la giustificazione che viene data da tutti gli esperti è che le preoccupazioni del passato non sono più giustificate perché il “nuovo” nucleare è molto più economico e molto più sicuro. Ora, questo è certamente vero, ma, detto così, lascia intendere che il nucleare tradizionale fosse troppo caro e/o troppo pericoloso, il che invece è assolutamente falso, come gli esperti sanno benissimo.

Perché allora non lo dicono? La ragione è che in questo modo sperano di riuscire a superare le obiezioni (che sono tuttora fortissime e anzi negli ultimi anni sono perfino aumentate) aggirandole anziché affrontandole, cosa che l’esperienza ha dimostrato essere estremamente difficile, perché alla loro base c’è una paura viscerale che è più forte di qualsiasi argomento razionale.

Tuttavia, per quanto comprensibile, questa tattica comporta un grosso rischio. Il nucleare “buono”, infatti, quello cosiddetto “di quarta generazione”, per ora esiste solo in forma di progetti e (pochi) prototipi, per cui ci vorranno grandi sforzi e molti soldi perché diventi realtà in tempi brevi. Il pericolo è quindi che nel frattempo i movimenti ecologisti e i tantissimi intellettuali e politici che accettano acriticamente tutte le loro tesi pretendano che esso venga usato non solo come risorsa aggiuntiva, ma anche per sostituire le centrali già esistenti, il che renderebbe l’impresa impossibile.

E questo, in realtà, è esattamente ciò che vogliono, perché gli ecologisti hanno una devozione quasi fanatica per le rinnovabili, in particolare l’eolico e il solare. E non solo per ragioni tecnologiche, ma anche politiche, perché le considerano un modo di produrre energia più “democratico”, anche se in realtà queste tecnologie non sono certo prodotte da gruppi di attivisti che lavorano nel garage di casa, ma da grandi e potenti multinazionali, che agiscono per fare profitti e non a scopi umanitari (ma questo per un certo tipo di cultura, oggi dominante in Occidente, non ha importanza: vedi il mio articolo https://www.fondazionehume.it/politica/la-frattura-tra-ragione-e-realta-3-marx-e-vivo-e-lotta-dentro-a-noi-dodici-idee-comuniste-a-cui-credono-anche-gli-anticomunisti/). Pertanto, quasi tutti gli ecologisti vedono come il fumo negli occhi qualsiasi soluzione alternativa e, in particolare, l’odiato nucleare, compreso quello “nuovo”, di cui non si fidano affatto, anche quando non lo dicono apertamente.

Di conseguenza, se si vorrà davvero seguire questa strada (che, ripeto, è l’unica possibile, come subito spiegherò), prima o poi si dovrà comunque fare chiarezza anche sul nucleare tradizionale. Tanto vale, quindi, cominciare subito.

Una fonte energetica a basso costo

Quanto al presunto costo eccessivo, la questione è presto risolta. Anzitutto, va detto che nel valutare i costi del nucleare si tiene sempre conto di tutti i costi, non solo di costruzione, ma anche di gestione, manutenzione e smantellamento, cosa in sé giusta, ma che non viene mai fatta per nessun’altra fonte energetica, a cominciare (ovviamente) dalle rinnovabili. Come se non bastasse, questi costi sono molto superiori a quelli che dovrebbero essere, perché per la paura delle radiazioni (del tutto irrazionale, come subito vedremo) si chiedono misure di sicurezza assolutamente esagerate. Eppure, nonostante tutto ciò, in Italia, che ha abolito il nucleare nel 1988, cioè 35 anni fa, l’energia elettrica costa il 50% in più rispetto alla Francia, che è il nostro “gemello” energetico, in quanto ha all’incirca il nostro stesso livello tecnologico, la stessa popolazione e la stessa (ridotta) quantità di fonti energetiche naturali, ma produce col nucleare oltre il 70% della sua elettricità.

È davvero strano (o forse no…) che questo fattore non venga mai preso in considerazione in nessuna analisi sul nostro declino economico, che, guarda caso, è iniziato proprio pochi anni dopo che l’Italia, unico paese avanzato al mondo, ha deciso di rinunciare al nucleare. Inoltre, per aggiungere ai danni le beffe (nonché altri danni), va considerato che allora il nucleare italiano era il migliore al mondo, un pelo sopra la Francia e almeno due spanne sopra gli USA. Non per nulla, in quel momento l’Ansaldo Energia aveva commesse per costruire centrali nucleari in vari paesi esteri per ben 4000 miliardi di lire (circa 5 miliardi di euro odierni).

Se avessimo proseguito su quella strada, oggi potremmo guidare il processo di ritorno al nucleare, con enormi vantaggi in termini economici e anche di peso politico. Invece, per come ci siamo ridotti (con le nostre stesse mani: qui la “cattiva” Europa non c’entra proprio niente), siamo ormai il fanalino di coda del mondo progredito e, se non vorremo rimanerlo per decenni, finiremo col dover importare dall’estero gran parte delle tecnologie necessarie a metterci al passo con gli altri, anziché essere noi a vendergliele. Insomma, un vero capolavoro di stupidità.

Una garanzia di indipendenza

In secondo  luogo, il nucleare non rischia di creare pericolose dipendenze, come il gas e il petrolio, ma anche i pannelli fotovoltaici e le mitiche auto elettriche (a cui dedicherò un articolo a parte, perché qui siamo nel campo della follia pura). Infatti, i materiali necessari per la loro costruzione sono altamente tossici e quindi difficili da estrarre (e ancor più da smaltire) in modo non inquinante. Inoltre, da noi sono quasi assenti, mentre abbondano in paesi retti da feroci dittature, come la Cina e l’Afghanistan, oppure con situazioni  molto instabili, come per esempio il Congo, dove l’estrazione del cobalto sta causando continui massacri dovuti alle guerre tra le bande che se ne contendono il monopolio. Il rischio, quindi, è di cadere dalla padella nella brace, eliminando la dipendenza dalla Russia solo per andarci a cacciare in una ancor più pericolosa dipendenza da questi paesi, che non sono certo più affidabili.

I più grandi giacimenti di uranio, invece, si trovano in paesi solidamente democratici, a cominciare dall’Australia, che possiede oltre il 30% delle riserve mondiali, il che basta e avanza per rifornire tutto l’Occidente. Se poi ci aggiungiamo Canada, USA e Germania arriviamo a sfiorare il 50%. Inoltre e soprattutto, non c’è necessità di rinnovare continuamente le scorte, dato che, una volta acquisito, un quantitativo relativamente piccolo di uranio può produrre energia in grandi quantità per decenni, il che consente di programmarne l’acquisto con calma e cercando le migliori condizioni, anche economiche.

Un fattore di stabilità

Ma il nucleare non ha solo una convenienza relativa rispetto ai combustibili fossili, ma anche una convenienza intrinseca, che, come dicevo, lo rende non solo utile, ma addirittura indispensabile se si vuole tentare seriamente di superare l’attuale sistema di produzione di energia. Infatti, al di là di altre questioni più specifiche di cui parleremo più diffusamente un’altra volta, eolico e solare presentano un problema di fondo che rende pura utopia ogni tentativo di basarsi solo su di essi: a parte alcuni luoghi molto particolari, dove vento e sole sono sempre presenti, la loro produzione è inevitabilmente incostante e difficilmente prevedibile con esattezza.

E a complicare ulteriormente le cose c’è il fatto che, se continuerà l’attuale tendenza verso la tropicalizzazione del clima alle nostre latitudini, con forte riduzione dei ghiacciai e lunghi periodi di siccità, anche l’idroelettrico, che a oggi è di gran lunga la più diffusa e la più affidabile delle rinnovabili, tenderà a produrre meno energia e con minore regolarità. Ma, ahimè, una rete elettrica ha bisogno di una grandissima stabilità, perché in ogni istante la quantità di energia in circolazione non deve mai essere inferiore a quella richiesta dal sistema, altrimenti si genera immediatamente un blackout. E i blackout nel nostro mondo non sono più solo un fastidio, ma una vera e propria minaccia.

Qualche decennio fa la mancanza di elettricità causava solo la mancanza di illuminazione notturna e il blocco di alcuni sistemi di comunicazione e di trasporto (treni, semafori, ascensori, radio, televisione e poco altro) e ciononostante già un blackout di poche ore causava seri problemi di ordine pubblico. Oggi, invece, si bloccherebbe quasi tutto (e anche il “quasi” sparirà ben presto), con effetti devastanti. Il blocco pressoché totale delle comunicazioni, impedendo alle autorità di spiegare cosa sta realmente succedendo, moltiplicherebbe in modo esponenziale il panico, sicché subito si scatenerebbe l’assalto ai negozi, per la paura di restare senza cibo, il che a sua volta innescherebbe una spirale di violenza diffusa e incontrollabile, essendo impossibile coordinare le forze dell’ordine e i soccorsi.

Un blackout su scala nazionale, anche di un solo giorno, provocherebbe effetti analoghi a quelli di una sommossa. Se dovesse prolungarsi per qualche giorno i danni sarebbero simili a quelli di una guerra. Per una durata superiore, diciamo da una settimana in su, rischieremmo il collasso dell’intero sistema sociale. Se a qualcuno sembra che stia esagerando, provi a riflettere su cosa implicherebbe una situazione del genere per lui e la sua famiglia e cambierà subito idea.

Ora, il problema è che l’affidabilità necessaria per evitare tutto questo è molto superiore a quella che istintivamente potremmo pensare. Come spiega Vaclav Smil, il più grande storico vivente dell’energia, «un sistema […] con elettricità disponibile per il 99,99% del tempo può sembrare altamente affidabile, ma l’interruzione totale annuale sarebbe di quasi 53 minuti». Per eliminare pressoché totalmente il rischio di blackout occorrerebbe un’affidabilità del 99,9999%, che porterebbe a una carenza di energia di appena 32 secondi all’anno, mentre «l’attuale performance statunitense è di circa il 99,98%», che, per quanto elevatissima, espone già al rischio di vasti blackout della durata di alcune ore, che in effetti in questi anni si sono puntualmente verificati (cfr. Energia e civiltà. Una storia, Hoepli 2017, p. 335).

Ciò significa dunque che non possiamo permetterci di diminuire l’affidabilità delle nostre reti elettriche nemmeno di una minima percentuale. Anzi, dovremmo addirittura cercare di aumentarla, soprattutto se continuerà l’attuale tendenza (la cui assurdità a questo punto dovrebbe essere palese) a elettrificare qualsiasi attività umana. E ciò non sarà assolutamente possibile se pretenderemo di basarci esclusivamente su fonti per loro natura incostanti come le rinnovabili.

Beh, ma che problema c’è?, obietterà forse qualcuno. Certo, in un sistema incostante ci saranno periodi con una produzione inferiore a quella necessaria, ma anche periodi con una produzione superiore: basterà quindi immagazzinare l’elettricità in eccesso prodotta durante questi periodi di vacche grasse per poi usarla nei momenti di scarsità. Ma purtroppo il problema c’è.

L’elettricità, infatti, è molto facile da produrre, ma molto difficile da immagazzinare, almeno in grandi quantità. Batterie capaci di contenere riserve sufficienti per un paese moderno come l’Italia o un qualsiasi altro paese europeo dovrebbero essere di dimensioni quasi inimmaginabili, oltre a presentare gli stessi problemi relativi alle materie prime che affliggono i pannelli solari e le batterie delle auto elettriche.

Ciononostante, centrali di raccolta di questo tipo si stanno già progettando, insieme ad altre dove l’energia verrà immagazzinata sotto forma di energia potenziale (per esempio usando l’elettricità in eccesso per pompare acqua in bacini posti in zone elevate o per sollevare grandi pesi in cima ad apposite torri), che poi potrà nuovamente essere trasformata in energia elettrica sfruttando l’energia cinetica liberata durante la loro caduta verso il basso.

Tuttavia la costruzione di questi impianti richiederà uno sforzo tecnologico ed economico gigantesco e la loro gestione rischia di essere molto complicata, anche a causa dei cambiamenti climatici (la siccità prolungata può prosciugare anche questi bacini e i forti venti possono far cadere i pesi al momento sbagliato). Senza contare i terremoti, che potrebbero farli crollare, mentre nessun terremoto ha mai danneggiato seriamente una centrale nucleare, nemmeno quella di Fukushima, dove l’incidente non è stato provocato dal terremoto in sé, pur essendo stato uno dei più forti della storia, ma dall’acqua penetrata a causa del successivo tsunami.

Inoltre, se l’instabilità del sistema diventasse troppo grande potrebbe essere molto difficile calibrare esattamente l’entrata in funzione degli impianti di emergenza, dato il ridottissimo margine che abbiamo per evitare disastrosi black out seriali. Infine e soprattutto, per quanto accuratamente possiamo tentare di stimare quante riserve ci potranno servire, nel momento in cui tutta o quasi tutta la nostra energia dipendesse da un sistema intrinsecamente imprevedibile su tempi lunghi come il clima non potremo mai essere certi di averne abbastanza.

Nei sistemi classici, infatti, l’improbabilità di un qualsiasi evento è direttamente proporzionale alla sua grandezza, sicché oltre un certo limite essi sono di fatto impossibili. Ma ciò non è più vero nei sistemi non lineari, detti anche “caotici” o “complessi” (in questo senso tecnico, che non coincide con la semplice “complicazione”), come è appunto il clima (ma anche la Borsa: ne parleremo presto). Un periodo di siccità o un cambiamento nell’intensità dei venti o la nascita di un microclima con cielo costantemente nuvoloso (come per esempio succede a Lima in inverno) hanno sempre una probabilità non trascurabile di verificarsi, indipendentemente dalla loro entità. E questo è un rischio che non possiamo assolutamente permetterci, perché, come abbiamo visto, anche un blackout di pochi giorni avrebbe conseguenze devastanti.

Che, nonostante tutto ciò, queste centrali di emergenza si stiano comunque progettando significa che, al di là dei proclami ideologici, gli addetti ai lavori sono coscienti che una rete elettrica troppo basata sulle rinnovabili sarebbe insostenibile. E questa è una buona notizia. Che però lo si stia facendo in forma quasi clandestina (alzi la mano chi ha assistito a un solo dibattito televisivo dedicato a questo problema) significa che non si vuole far sapere all’opinione pubblica che anche le mitiche rinnovabili non sono quella bacchetta magica che si crede. E questa, invece, è una pessima notizia, soprattutto perché non è limitata a questo specifico problema, ma è una tendenza generale, quando si tratta di questioni ecologiche.

Le radici del pregiudizio antinucleare

Uno dei motivi di tale reticenza è proprio la paura che il nucleare possa essere preso in considerazione come integrazione o, peggio ancora, come alternativa alle fonti rinnovabili, una volta compreso che garantirebbe un flusso costante e regolare di energia, a basso costo, senza produrre emissioni nocive e senza metterci nelle mani di cinesi, talebani e tagliagole assortiti. Ma se il nucleare è così conveniente, allora da dove nasce questa violenta ostilità nei suoi confronti?

In parte si tratta di un atteggiamento puramente ideologico. I movimenti ecologisti, infatti, hanno certamente il merito di avere denunciato con molto anticipo dei problemi reali ed estremamente seri, della cui gravità ci stiamo rendendo conto solo adesso. Tuttavia, essendo figli del Sessantotto e della sua rivolta contro ogni tipo di autorità, compresa quella degli scienziati, hanno sempre avuto la tendenza a incolpare dei danni inflitti all’ambiente la scienza e la tecnologia in quanto tali e non solo il cattivo uso che spesso (ma non sempre) ne facciamo.

Negli ultimi anni questo atteggiamento almeno in parte è cambiato, perché proprio il fatto che finalmente si sia iniziato a prendere sul serio i problemi ecologici ha reso evidente che non sarà possibile risolverli senza il contributo essenziale della scienza. Anzi, semmai ora si esagera nel senso opposto, aspettandosi che la soluzione possa venire solo dalla scienza, senza bisogno di cambiare davvero il nostro modo di vivere (i cambiamenti nei comportamenti individuali che ci vengono continuamente suggeriti sono in realtà molto superficiali e hanno un’utilità inversamente proporzionale all’ossessività con cui ci vengono proposti e ai grandi disagi che causerebbero: anche di questo riparleremo presto).

Ciononostante, come ormai un po’ dovunque, anche in questo campo si tende a ragionare per categorie ideologiche stabilite a priori in modo del tutto irrazionale, per cui ci sono delle tecnologie che sono considerate per definizione “buone” e altre “cattive”. L’idroelettrico, l’eolico e il fotovoltaico appartengono alle prime, perché usano forze della natura come l’acqua, il vento e il sole, che ci sono familiari e sono chiaramente utili alla nostra vita. Il nucleare, invece, è classificato tra le seconde, benché la radioattività giochi anch’essa un ruolo fondamentale a favore della vita, perché senza di essa il nucleo terrestre non sarebbe fluido e quindi non avremmo la tettonica a placche e, di conseguenza, la terraferma, ma un unico oceano che ricoprirebbe tutto il pianeta, per di più perennemente ghiacciato, perché la temperatura della Terra sarebbe più bassa di una quindicina di gradi.

Ma questi influssi benefici della radioattività sono troppo indiretti e non abbastanza visibili per rendercela “simpatica”, considerando che il “biglietto da visita” (questo sì visibilissimo) con cui essa si è presentata al mondo è purtroppo rappresentato dalle atomiche di Hiroshima e Nagasaki. Per questo anche molte persone che riconoscono i vantaggi del nucleare civile lo considerano troppo pericoloso. Tuttavia, come ora vedremo, non solo esso non ha nulla a che vedere con la bomba atomica, ma è anzi una delle tecnologie più sicure che siano mai state create, sicuramente molto più sicura dell’idroelettrico, di cui nessuno si sogna di chiedere l’abolizione.

Nucleare e metodo scientifico

Prima di discutere il merito del problema sarà però utile una premessa metodologica. Come cerco sempre di spiegare (temo con non troppo successo), non esiste “la” scienza, ma “le” scienze. Infatti, anche se tutte le scienze naturali usano lo stesso metodo, quello sperimentale, genialmente scoperto e magistralmente definito da Galileo Galilei quattro secoli fa, la sua efficacia può variare di molto a seconda del tipo di oggetti a cui viene applicato.

Senza entrare in troppi dettagli tecnici (a chi volesse approfondire consiglio sempre il mio La scienza e l’idea di ragione, 2a ed. ampliata, Mimesis 2019), il punto fondamentale del metodo galileiano, che lo ha reso così efficace, è l’idea di studiare i fenomeni naturali non nella loro globalità, bensì un pezzetto alla volta, il che è fra l’altro determinante perché gli esperimenti siano ripetibili e quindi controllabili da tutti. Infatti, se consideriamo tutti i fattori in gioco nessunfenomeno naturale si ripete mai perfettamente identico, mentre ciò diventa possibile se di esso consideriamo solo alcune proprietà.

Ciò però significa che l’efficacia di questo metodo dipende in maniera cruciale dalla possibilità di isolare le proprietà che intendiamo studiare senza che ciò le alteri in modo significativo. Ora, da qualche decennio sappiamo che ciò è possibile solo per alcuni fenomeni, quelli cosiddetti “lineari”, mentre per i fenomeni non lineari, a cui ho già accennato prima, il metodo funziona solo entro certi limiti, che sono estremamente variabili a seconda dell’oggetto. Di conseguenza, le varie scienze non differiscono solo per il diverso modo di “incarnare” in strumenti ed esperimenti specifici i principi generali del metodo galileiano, ma anche per il diverso grado di certezza che possono raggiungere, non solo in pratica, ma anche in linea di principio.

La scienza naturale che ha, in media, il grado più basso di certezza è senza dubbio la medicina. È per questo che ho giudicato molto grave l’ingiustificata e irresponsabile sicumera con cui all’epoca del Covid molti esperti hanno presentato come verità indiscutibili quelle che erano semplici ipotesi ancora tutte da verificare, quando non addirittura teorie palesemente sbagliate, come quella del contagio attraverso le superfici infette o la necessità delle mascherine all’aperto.

All’estremo opposto sta invece proprio la fisica nucleare, che ha ormai raggiunto una precisione quasi disumana, con un margine di errore di circa una parte su un miliardo, di fatto coincidente, a tutti gli effetti pratici, con quella della matematica pura. Così stando le cose, diversamente da quanto accade in medicina e in molte altre scienze, in fisica nucleare contestare la validità di quanto affermato dagli esperti non ha molto più senso che sostenere che 2+2 potrebbe anche non fare 4. E questo è ancor più vero se consideriamo che le leggi fisiche rilevanti per il problema della sicurezza degli impianti nucleari sono estremamente semplici.

Il nucleare è (almeno) cento volte più sicuro dell’idroelettrico

Anzitutto, le centrali nucleari non producono nessun aumento significativo della radioattività al loro esterno. Per capire che questo è impossibile non occorrono studi complessi: basta riflettere sulla legge fondamentale della radioattività, che dice che essa si attenua in proporzione al quadrato della distanza. Ciò significa infatti che, se appena fuori dalla centrale, cioè a una distanza suppergiù di un chilometro dal reattore (dato che si tratta di impianti di grandi dimensioni), vi fosse una radioattività abbastanza forte da poter causare danni significativi alla salute, a 100 metri dal reattore la radioattività sarebbe 100 volte maggiore e a 10 metri 10.000 volte maggiore, cosicché i tecnici che ci lavorano morirebbero tutti nel giro di poche ore. Poiché ciò non accade, è inevitabile concludere che la presenza di una centrale nucleare non è pericolosa per la nostra salute.

In secondo luogo, le centrali nucleari non esplodono, per la semplice ragione che non sono bombe. Sia le bombe che le centrali hanno infatti bisogno di un particolare isotopo dell’uranio, l’uranio 235, che in natura è sempre mescolato con l’uranio 238 (e a tracce insignificanti del rarissimo 234) nella percentuale di appena lo 0,7%, che non è sufficiente a innescare la reazione a catena (come è logico, altrimenti tutti i giacimenti di uranio del mondo si sarebbero già autodistrutti non appena formatisi). Per entrambi gli usi è quindi necessario aumentare la percentuale di uranio 235, attraverso un processo piuttosto complesso detto “arricchimento”. Tuttavia, per le centrali nucleari, che devono produrre una reazione a catena controllata, cioè non esplosiva, la percentuale necessaria va dal 3% al 5%, mentre per le bombe atomiche dev’essere molto superiore, tra il 90% e il 97%. Se così non fosse, del resto, l’accordo con l’Iran sul nucleare civile non avrebbe avuto alcun senso.

Con questo non sto dicendo che sia stato una buona idea, perché è sempre possibile aumentare ulteriormente la percentuale di uranio 235 contenuto nel combustibile delle centrali nucleari in modo da poterlo poi usare per farci delle bombe atomiche. Pertanto, aver permesso all’Iran di costruire liberamente le prime l’ha avvicinato anche alla costruzione delle seconde (che è palesemente il suo vero obiettivo, perché delle centrali nucleari l’Iran non ha alcun bisogno, dato che naviga su un mare di petrolio). Ma questo è un problema politico, non tecnologico. La trasformazione dell’uranio per uso civile in quello necessario per una bomba, infatti, non può assolutamente verificarsi spontaneamente: occorre prima tirar fuori l’uranio dalla centrale e poi sottoporlo di nuovo al processo di arricchimento in un apposito impianto. Quindi, che una centrale nucleare esploda non è solo improbabile: è proprio fisicamente impossibile.

Tra parentesi, questo dimostra quanto assurde fossero le affermazioni fatte dai russi nella prima fase della guerra (e scelleratamente prese sul serio anche da alcuni commentatori occidentali) secondo cui avrebbero occupato le centrali nucleari ucraine perché in esse si stava usando il loro uranio per costruire bombe atomiche. Peccato solo che degli impianti necessari a eseguire una tale trasformazione in Ucraina non vi sia traccia e che in ogni caso, se anche esistessero, non si troverebbero certo nelle centrali nucleari, che non sono state costruite a tale scopo e quindi non hanno al loro interno né gli spazi né gli strumenti che servirebbero. Dunque, non è per questo che i russi le hanno occupate, ma (ovviamente) per avere il controllo dell’energia elettrica da esse prodotta.

Ma, obietterà qualcuno, la centrale di Chernobyl non è forse esplosa? Ebbene, mi spiace deludervi, ma la risposta è no: quello che è esploso a Chernobyl è stato solo il sistema di raffreddamento della centrale, costituito da un impianto di tubature che riversano costantemente acqua sul nocciolo di uranio per evitare che si scaldi troppo e portano via il gas che si forma quando l’acqua evapora per il contatto con l’uranio rovente. Quando, nella notte del 26 aprile 1986, per un difetto congenito di progettazione seguito da un’incredibile serie di errori umani, la pressione salì troppo, i tubi esplosero e il vapore si disperse nell’atmosfera. Ovviamente ho un po’ semplificato, ma la sostanza è questa. Non si trattò quindi affatto di un’esplosione atomica, tant’è vero che in essa morirono appena due persone.

Naturalmente, a causa dei ripetuti passaggi sul nucleo di uranio il vapor d’acqua era fortemente radioattivo e a peggiorare le cose si aggiunse il fatto che l’esplosione fece crollare il tetto del reattore, lasciando quindi allo scoperto il nocciolo. Ciò provocò un’ulteriore dispersione di polveri radioattive che si mescolarono al vapore generando la mitica “nube di Chernobyl”, che era certamente pericolosa, ma neanche lontanamente quanto lo sarebbe stato se si fosse trattato del “fungo” prodotto da una vera esplosione atomica.

E infatti i decessi che si possono collegare con certezza al disastro di Chernobyl sono appena qualche decina (65 secondo il calcolo più pessimistico). Altre 4000 persone si stima siano morte in seguito a causa di tumori causati dalla nube, ma tutte si trovavano nelle immediate vicinanze dell’epicentro. Che la nube di Chernobyl abbia contaminato l’intera Europa, causando decine di migliaia o addirittura milioni di morti, è una pura e semplice idiozia, che oggi in tutto il mondo è sostenuta, con ostinazione degna di miglior causa, esclusivamente da Greenpace, un’organizzazione che da sempre promuove un ecologismo molto radicale e ideologico.

A dare una parvenza di verosimiglianza a questa assurda teoria c’è il fatto che Chernobyl causò effettivamente morti accertate in ben tre nazioni: Ucraina (dove il reattore era ubicato), Russia e Bielorussia. Ma questo fu dovuto al fatto che il sito era (ed è tuttora) molto vicino al confine tra l’Ucraina e i due paesi suddetti, che anch’essi furono colpiti solo nella zona vicina all’epicentro, mentre la gran parte del loro territorio non riportò alcun danno.

In realtà, come ho spiegato nell’articolo precedente (https://www.fondazionehume.it/societa/la-frattura-tra-ragione-e-realta-4-il-grande-spauracchio-parte-prima-il-nucleare-bellico/), nemmeno la più potente bomba nucleare del mondo potrebbe causare un significativo aumento di radioattività a più di un centinaio di chilometri di distanza. E, di fatto, nessuna delle oltre 600 esplosioni nucleari effettuate nell’atmosfera come test dal 1945 a oggi ha mai causato danni significativi alla salute della popolazione mondiale. L’idea che possa averlo fatto l’esplosione di Chernobyl, che era molto ma molto meno potente e meno radioattiva perfino della più debole di esse, è quindi puro delirio.

E puro delirio è anche il timore che un disastro nella centrale nucleare di Zaporizhzhia possa “contaminare l’intero continente”, come abbiamo sentito ripetere ossessivamente soprattutto nelle prime fasi del conflitto (ma anche adesso, ogni volta che se ne parla, il ritornello ricomincia). Si può capire e perdonare che lo facciano gli ucraini, che hanno bisogno di attaccarsi a tutto per tenere desta l’attenzione dei loro distratti e indolenti alleati europei. Non si può invece capire e meno ancora perdonare che continuino a ripetere questa scemenza anche i nostri commentatori.

Un altro fattore che contribuisce molto a confondere le idee è l’uso di parole che istintivamente impressionano, senza che nessuno spieghi cosa significano in realtà. Per esempio, chiedetevi se sareste disposti a tuffarvi in una piscina in cui sia stata versata una tonnellata d’acqua marina prelevata davanti a Fukushima subito dopo l’incidente, quando aveva un livello di radioattività circa mille volte superiore a quello naturale. Detto così fa impressione ed è facile prevedere che rispondereste tutti di no. Ma proviamo a ragionare.

Un litro d’acqua (ce l’hanno insegnato a scuola) pesa un chilo e ha un volume di un decimetro cubo, per cui una tonnellata d’acqua equivale a un metro cubo. Detto così fa già meno impressione, non è vero? Eppure è esattamente la stessa cosa! Ma la parola “tonnellata” ci dà istintivamente la sensazione di una cosa enorme, mentre la parola “metro” (ancorché cubo) ci dà invece l’impressione di una cosa relativamente piccola. Il motivo, però, è esclusivamente psicologico: tutti, infatti, siamo più alti di un metro, mentre nessuno di noi si avvicina neanche lontanamente a pesare una tonnellata.

E ora proseguiamo. Secondo le norme FINA, una piscina olimpionica è lunga 50 metri, larga 25 e profonda non meno di 2: contiene dunque almeno 2500 metri cubi, ovvero 2500 tonnellate, di acqua non radioattiva (essendo di origine piovana non contiene infatti uranio disciolto, come quella marina). Di conseguenza, la tonnellata d’acqua radioattiva risulta diluita a tal punto che nell’insieme la piscina ha un livello di radioattività addirittura 2,5 volte inferiore a quello del mare della vostra località balneare preferita. Ciononostante, credo di non sbagliare se dico che anche dopo questa spiegazione nessuno di voi sarebbe disposto a tuffarcisi: tanto può la forza della paura suscitata dalle parole usate male.

Per dare l’idea del livello di mistificazione che spesso si raggiunge sul nucleare farò solo un altro esempio, ma particolarmente significativo, poiché si riferisce a un giornalista che molti (non io) ritenevano serio e affidabile, ovvero Andrea Purgatori, da poco deceduto. Ebbene, durante una puntata del suo programma Atlantide su LA7 (credo quella del 29 marzo 2022, ma non sono sicuro), Purgatori ha prima trasmesso un documentario in cui si ripeteva per ben due volte l’assurda affermazione che a Chernobyl si era verificata un’esplosione atomica e poi, come conclusione della puntata, ha fatto un elenco di tutti i disastri nucleari della storia.

Ora, a parte che erano in tutto e per tutto appena quattro (Chernobyl, ovviamente, poi Three Mile Islands, Fukushima e un altro di minore entità che ora non ricordo), Purgatori si è ben guardato dal dire quante persone erano morte in ciascuno di essi. E comprensibilmente, anche se disonestamente. Se l’avesse detto, infatti, la gente avrebbe scoperto che, a parte Chernobyl, il numero di morti per ciascuno dei suddetti “disastri” era zero. Sì, avete capito bene: a parte Chernobyl, di nucleare fino ad oggi non è mai morto nessuno.

E oltretutto Chernobyl è stato un caso più unico che raro: basti dire che l’incidente è classificato allo stesso livello di gravità di quello di Fukushima, in cui non è morta neanche una persona. Come è possibile, allora, che a Chernobyl siano morti così in tanti? La risposta è che la stragrande maggioranza dei decessi furono dovuti all’ostinato rifiuto del regime sovietico di ammettere l’incidente e, quindi, di evacuare immediatamente la popolazione, nonché alla totale impreparazione tecnica per un’emergenza simile.

Tra l’altro, il difetto di progettazione era stato notato già nel 1971 durante un congresso internazionale da un gruppo di ingegneri italiani, tra cui mio padre, che diresse il piano nucleare italiano da allora fino al 1988, quando venne sciaguratamente chiuso. Ma il loro aiuto per sistemare le cose, che i tecnici russi avevano volentieri accettato, venne sprezzantemente rifiutato dal regime sovietico, che poi respinse allo stesso modo anche le offerte di aiuto dell’Occidente successive al disastro. Non è quindi esagerato dire che a Chernobyl più che di nucleare si morì di comunismo.

Eppure niente: tutti continuano imperterriti a parlare di “disastri nucleari”, non solo per Chernobyl, ma anche per gli altri, che semplicemente non furono disastri, in nessun senso sensato della parola “disastro”. Addirittura, pur di addossare qualche cadavere all’atomo, qualche bello spirito è arrivato a inventarsi il concetto di “morte per stress da evacuazione”, sostenendo che l’incidente di Fukushima ne avrebbe causate circa 400.

Non mi soffermo a commentare questa assurdità priva di qualsiasi fondamento scientifico e di cui in ogni caso non sarebbe responsabile il nucleare, ma semmai la cattiva gestione dell’evacuazione. Vorrei invece far notare che il terremoto di Fukushima fu uno dei più terribili della storia, eppure la centrale nucleare rimase in piedi (in effetti, fu l’unica cosa che rimase in piedi) e non uccise nessuno, mentre 400 persone rimasero vittime del crollo della diga di un vicino impianto idroelettrico. Eppure, nessuno parla mai di queste autentiche morti, mentre tutti continuano a parlare e straparlare di quelle immaginarie di Fukushima.

Ma non è tutto. Questo, infatti, non è per nulla un caso isolato. Solo il disastro del Vajont, come ben sappiamo, ha causato 1917 morti: circa la metà di quelli attribuiti a Chernobyl. Ma già nel 1923 erano morte 356 persone nel crollo della diga del Gleno e altre 115 morirono nel 1935 nel crollo della diga del Molare, col che siamo già a 2388. E questo solo in Italia.

Ho cercato insistentemente notizie relative alla situazione a livello mondiale, ma anche sui siti di statistiche più noti e affidabili sembra impossibile trovare dati completi e ancor più difficile è distinguere tra i crolli di dighe di impianti idroelettrici e quelli di dighe destinati ad altri usi (principalmente irrigazione e attività mineraria). Perfino il loro numero è incerto, perché molti studi considerano solo dighe superiori a una certa altezza, che, essendo scelta arbitrariamente, ogni volta porta a risultati diversi. Calcolandole tutte, è probabile che il numero di dighe di qualsiasi altezza e destinazione d’uso già costruite o in fase di costruzione in tutto il mondo sia vicino al milione. Ma alla fine non ha molta importanza.

Se si pensa infatti che solo nel crollo della diga della centrale idroelettrica di Banqiao, situata 300 km a nord-ovest di Shangai e distrutta nel 1975 dal tifone Nina, morirono 171.000 persone e che nell’insieme i crolli di dighe nell’ultimo secolo hanno sicuramente ucciso centinaia di migliaia di persone, forse addirittura milioni, anche se il numero esatto non è determinabile e non tutte le dighe crollate erano destinate alla produzione di elettricità, è comunque evidente che la “buona” energia idroelettrica è in realtà almeno cento volte più pericolosa della “cattiva” energia nucleare.

E in futuro la situazione è destinata a peggiorare ulteriormente, sia per l’invecchiamento delle dighe (secondo alcune stime, senza urgenti interventi di manutenzione, per cui spesso non ci sono i soldi, oltre il 50% sarebbe già ora a rischio), sia per l’aumentare della violenza delle piogge. Senza contare poi l’impatto ambientale, spesso molto pesante, dei grandi bacini idroelettrici e l’enorme numero di persone (sicuramente alcune decine di milioni) che per permetterne la costruzione sono state costrette a lasciare per sempre le loro case, destinate a finire sommerse dall’acqua.

Eppure, nessuno si sogna di chiedere la chiusura degli impianti idroelettrici. E giustamente, perché farlo causerebbe conseguenze ben peggiori. Ma allora perché rifiutare il nucleare, che è (letteralmente) cento volte più sicuro?

Il falso problema delle scorie

Beh, un momento, mi direte: hai dimenticato il problema delle scorie. Non vorrai mica dirci che neanche quello è così grave come sembra? Ebbene, non ve lo dico, ma solo perché il problema delle scorie semplicemente non esiste: il problema delle scorie, infatti è stato creato dalla paura del problema delle scorie.

Cominciamo da un dato di fatto incontestabile: a oggi, nessuna persona al mondo ha riportato danni a causa delle scorie delle centrali nucleari, mentre le scorie di praticamente qualsiasi altra industria almeno qualche morto l’hanno causato e in molti casi anche più di qualcuno.

Di fatto, per neutralizzarle completamente basta seppellirle a qualche decina di metri di profondità, come si sta facendo attualmente. Che questo sia sicuro è provato dal fatto che vivere sopra un giacimento di uranio non comporta nessun rischio significativo per la salute. Se così non fosse, le compagnie minerarie userebbero le statistiche sul cancro per rintracciare i giacimenti, invece di ricorrere a complicate e costosissime tecnologie di prospezione.

Ma per stare del tutto tranquilli si potrebbe ricorrere a una delle tante miniere abbandonate: a un migliaio di metri di profondità, infatti, perfino se un terremoto dovesse aprire in due la miniera la quantità di radiazioni che riuscirebbe a raggiungere la superficie sarebbe trascurabile (a parte poi che dopo un terremoto di quella potenza questo sarebbe l’ultimo dei nostri problemi, in quanto non resterebbe più nessuno in grado di preoccuparsene).

Ma la soluzione più efficace sarebbe semplicemente affondarle in mare, purché ovviamente a profondità adeguata e non sotto costa, ma nelle grandi fosse oceaniche. Siccome già sento gli strilli inorriditi dei più davanti a questa proposta, vorrei far presente a chi non lo sapesse che, come ho accennato prima, l’acqua di mare è radioattiva già di suo, giacché contiene uranio nella percentuale di 3,4 tonnellate per chilometro cubo: eppure uno può andare al mare anche tutti i giorni senza subirne il minimo danno.

Ora, negli oceani del mondo ci sono circa 1400 milioni di chilometri cubi d’acqua, il che significa che in totale essi contengono la bellezza di quasi 5 miliardi di tonnellate di uranio. E poiché il totale delle scorie prodotte finora (in circa 50 anni) è stimato intorno alle 250.000 tonnellate, cioè 5000 all’anno, ne segue che anche buttandole in mare così come sono ci vorrebbe un milione di anni solo per raddoppiare la radioattività naturale degli oceani, il che a prima vista può sembrare una prospettiva spaventosa, ma in realtà non avrebbe la minima conseguenza pratica. Se così non fosse, infatti, uno che va al mare il doppio di un altro dovrebbe avere una probabilità doppia di prendersi il cancro, per non parlare di uno che ci vive stabilmente, che dovrebbe beccarselo con certezza matematica nel giro di pochi mesi.

La realtà dei fatti è che raddoppiare la radioattività naturale dei mari comporterebbe meno rischi per la nostra salute che farci una banale radiografia. Ancora una volta, siamo vittime dell’illusione delle parole: 5 miliardi di tonnellate di uranio ci sembrano infatti una quantità enorme, e di per sé lo sono, ma il fatto è che non ci rendiamo conto di quanto grande sia il mare, per cui anche una quantità del genere risulta in realtà irrisoria (in effetti, equivale a meno di 4 milionesimi di grammo per metro cubo). Il vero rischio di prenderci il cancro quando andiamo al mare sta nel passare troppo tempo al sole ad abbronzarci, che è molto ma molto più pericoloso che vivere vicino a un deposito di scorie nucleari: eppure, di questo non ci preoccupiamo minimamente.

Peraltro, si tratta di un’ipotesi puramente teorica, giacché le scorte di uranio esistenti nel mondo possono bastare al massimo per qualche migliaio di anni (durante i quali si spera che avremo trovato altre soluzioni, per esempio la fusione nucleare). Quindi anche se tutte le scorie di tutte le centrali nucleari passate, presenti e future della storia dell’umanità venissero buttate in mare così come sono, l’irrisorio livello di radioattività naturale degli oceani verrebbe aumentato al massimo di un ancor più irrisorio 1%. E non basta, perché in realtà nessuno ha mai pensato di buttarle davvero così come sono.

Le scorie, infatti, vengono prima inglobate nel vetro fuso e poi l’impasto viene versato in contenitori di acciaio e cemento a tenuta stagna, che affonderebbero ben presto nel fango dei fondali oceanici, per decine o anche centinaia di metri, col che l’impatto ambientale sarebbe nullo a tutti gli effetti pratici. Infine, non dimentichiamo che, contrariamente a ciò che sempre si dice, solo una minima percentuale delle scorie nucleari conserva una forte radioattività per diverse migliaia di anni, mentre la maggior parte diventa innocua nel giro di qualche decennio.

Conoscere la realtà per non temerla

L’unica cosa di cui dobbiamo avere paura è la paura stessa.

(Franklin Delano Roosevelt)

Ma queste soluzioni, perfettamente sicure, ragionevoli e a basso costo, non sono mai state adottate, perché la gente le rifiuta in nome dell’assurda pretesa del “rischio zero”, di cui ho già più volte parlato su questo sito (si veda in particolare https://www.fondazionehume.it/societa/la-frattura-tra-ragione-e-realta/), a cui in questo caso si aggiunge una paura viscerale più forte di qualsiasi ragionamento, dovuta al ricordo delle atomiche di Hiroshima e Nagasaki, peraltro anch’esso in gran parte mitizzato e che in ogni caso col nucleare civile non c’entra nulla.

Di conseguenza, per compiacere gli elettori i vari governi hanno adottato standard di sicurezza così irragionevolmente esigenti che è diventato impossibile trovare un qualsiasi luogo sulla Terra che li soddisfi, col paradossale risultato che continuiamo a tenere le scorie radioattive in depositi in teoria “provvisori”, ma che stanno di fatto diventando definitivi, benché siano molto più costosi e molto meno sicuri di quelli che potremmo usare senza problemi se solo la smettessimo di aver paura.

Ma per non aver paura della realtà bisogna innanzitutto conoscerla. E questo oggi non sembra uno sport molto di moda.

image_print
1 23 24 25 26 27 121
© Copyright Fondazione Hume - Tutti i diritti riservati - Privacy Policy