BLOG: LA CHIMICA E LA SOCIETA'


Giornata mondiale dell’acqua (22 marzo).
Luigi Campanella, già Presidente SCI

Siamo fatti per il 65% di acqua e questa composizione è fondamentale per il nostro stato di salute. Infatti è l’acqua che lubrifica articolazioni e muscoli, previene la secchezza della pelle, regola la temperatura, aiuta la digestione, mantiene la pressione sanguigna, aumenta le capacità fisiche, trasporta i nutrienti alle varie parti del corpo.
Questo induce i medici ad affermare che bisogna bere prima di avere sete. Ma oltre a bere un’altra forma di idratazione è quella termale. La chimica è la grande guida di questa forma di cura e prevenzione; infatti la classificazione delle acque termali è tipicamente chimica in relazione ai minerali contenuti: sulfuree, salse, solfato carbonatiche ,ferruginose , bicarbonate ciascuna con evidenti maggiori capacità curative verso specifiche patologie
Si tratta di risorse preziose anch’esse, come tutte quelle riferite all’acqua, esposte a fenomeni di inquinamento. Il nostro territorio è ricco di pozzi in ambienti privati esposti a processi di inquinamento non controllati e non contrastati. Continua inoltre senza sosta, lo sversamento di preziose Acque Sulfuree di falda nei fiumi, come avviene per il fiume Aniene. Potrebbe e dovrebbe essere un tesoro, come lo è sempre stato sin dai tempi dei Romani. Ci dicono che siamo arrivati ad una quota di 6000 litri al secondo, sversati direttamente in Aniene attraverso canali che partono da impianti di estrazione di travertino, tramite potenti impianti di pompaggio. Accade ormai da anni, troppi anni.
Le cure termali sono un metodo terapeutico che consente di
– diminuire o eliminare i farmaci
– aumentare l’efficacia di un farmaco
– ridurre gli effetti collaterali di alcune terapie di lungo periodo.
Le cure termali consentono inoltre:
– la diagnosi precoce di certe affezioni
– la prevenzione delle ricadute e delle complicanze.
L’effetto delle cure termali è pertanto curativo e preventivo. Ogni ciclo ha una tempistica minima studiata per permettere un riequilibrio efficace. Nelle malattie caratterizzate da crisi acute e ripetute, come l’asma, l’emicrania, l’eczema, le cure termali aiutano a diminuire la sensibilità agli agenti scatenanti. Quando i disturbi funzionali sono legati a delle difficoltà psicologiche, possono scomparire completamente una volta riconquistato l’equilibrio psichico.
L’inquinamento ambientale può danneggiare l’acqua termale rilasciando in essa composti estranei, quando non tossici, tanto che oggi alcune terme vengono periodicamente sanificate con radiazioni uv e con ozonoterapia, ma purtroppo quando la falda è stata intaccata la sua completa rigenerazione è difficile.

L’acqua termale contiene sempre molti minerali, ciascuno dei quali implica diversi benefici per la salute della pelle:
magnesio: stimola la rigenerazione e la cicatrizzazione della pelle;
calcio: protegge e preserva i tessuti cutanei rinforzandone le difese;
manganese: potente antiossidante che stimola la rigenerazione cellulare combattendo così l’invecchiamento cutaneo;
potassio: idrata in profondità le cellule che caratterizzano il tessuto cutaneo;
silicio: rigenera e rende maggiormente compatta l’epidermide;
rame: un potente anti infiammatorio che previene e lenisce eventuali irritazioni;
ferro: fornisce ossigeno alle cellule che caratterizzano i tessuti cutanei agevolandone lo sviluppo;
zinco: stimola la crescita cellulare e ne favorisce il naturale turn over.
La recente legge 24 ottobre 2000 n. 323 definisce le acque termali come “le acque minerali naturali, di cui al regio decreto 28 settembre 1919 n. 1924, e successive modificazioni, utilizzate a fini terapeutici”. Ma non sempre la distinzione è nitida: in alcuni casi, ad esempio, quando le acque termali hanno caratteristiche di composizione tali da potere essere impiegate anche come “comuni” acque minerali (principalmente salinità non elevata e parametri nei limiti previsti dalla normativa), possono venire regolarmente messe in commercio per tale utilizzo.
Non è raro infatti osservare sulle etichette di alcune note acque minerali la dicitura: “Terme di……”. Al fine di stabilire il regime giuridico applicabile, più che alla origine occorre far riferimento alla utilizzazione delle acque. Per quanto riguarda gli aspetti microbiologici, le acque termali seguono quanto è previsto dalla normativa per le acque minerali mentre per gli aspetti chimici non si applica l’articolo 6 del Decreto 542/92 relativo alle sostanze contaminanti o indesiderabili. Questo articolo è da riferirsi, secondo il contenuto della nota del Ministero della sanità del 19.10.1993, esclusivamente alle acque destinate all’imbottigliamento.
Il tenore di certi elementi (boro, arsenico, bario e altri) è ammesso nelle acque termali in misura superiore a quanto previsto per le acque minerali imbottigliate: il loro uso infatti, oltre ad essere molto limitato nel tempo, avviene sotto controllo medico. Occorre inoltre ricordare che talvolta è proprio la concentrazione di alcuni elementi a determinare l’attività farmacologica delle acque termali. In Toscana ad esempio sono diffuse acque termali con boro in concentrazione superiore al valore limite previsto per le acque minerali, così come è noto l’impiego delle acque termali arsenicali-ferrugginose in alcuni impianti termali italiani. Con riferimento alle ricadute igienico sanitarie The Lancet, eccellenza scientifica di riferimento mondiale anche nella recente emergenza coronavirus, rilevava in un’inchiesta come la maggiore “rivoluzione sanitaria” in termini di numero di vite umane salvate nella storia fino ai nostri giorni, fosse la gestione sicura dell’acqua e dei servizi igienico-sanitari, considerata addirittura più rilevante dell’invenzione degli antibiotici, dei vaccini e della stessa scoperta del genoma – che ci consente oggi di identificare i virus e studiare le cure. Disporre di una risorsa igienicamente pura è essenziale per garantire la propria salute nel tempo.
C’è poi il problema del recupero di risorse idriche ad oggi non utilizzabili, a partire da quelle marine
All’Italia con 9000 km di coste il mare non manca, ma la salinità impedisce la fruizione diretta di questa risorsa. La desalinizzazione è adottata in quasi 200 Paesi al mondo con oltre 16000 impianti. In Italia è un tecnologia ancora indefinita per scelte e tempi a causa degli elevati costi energetici ad essa correlati, tanto che la politica energetica verso le fonti rinnovabili e quella economica verso il modello circolare potrebbero giocare un ruolo importante nel prossimo futuro. Israele ed Emirati Arabi ci insegnano che dall’acqua marina desalinizzata possono derivare giardini e verde. In Medio Oriente la percentuale di acqua potabile ottenuta dalla desalinizzazione di quella marina sfiora il 50%. In Europa il capofila in materia è la Spagna con quasi 800 impianti di desalinizzazione In Italia come dicevo siamo in uno stallo di attesa per motivi energetici ma anche per le carenze idriche che obbligano ad interventi urgenti per la produzione agricola e per quella industriale, piuttosto che a scelte strutturali.
L’allarme deriva anche dagli ultimi dati: il 2023 si presenta come l’anno più caldo di sempre con un aumento per i primi 2 mesi di 1,44 gradi rispetto alla media. In attesa di scelte e di tempi certi bisogna intervenire con provvedimenti di obbligato rigoroso risparmio, di identificazione di invasi e laghetti artificiali, di ricarica delle falde. Le piogge sono sempre di meno con un calo ogni anno dell’80% e con i grandi laghi e fiumi sempre più secchi:% di riempimento 19 per lago di Como, 36 per lago di Garda, 40 per Lago Maggiore, livello del Po 3 m sotto rispetto al livello idrometrico normale.
Noi, le piante e gli anestetici.
Claudio Della Volpe
Una delle lezioni che ci viene dall’osservazione della storia della scienza (è che è dura da accettare) è che spesso siamo ciechi di fronte a fenomeni evidenti.
Un esperimento chiave può essere fatto e perfino ripetuto più volte ma non sortisce i suoi effetti sulla nostra cultura se non dopo che la nostra costruzione teorica abbia acquisito lo spazio per accettarlo.
L’effetto degli anestetici è uno dei fenomeni che lo mostra.
La scoperta dell’azione degli anestetici risale al 1844; nel dicembre di quell’anno un dentista americano Horace Wells venne a sapere di una manifestazione ad Hartford sul protossido di azoto (meglio noto come gas esilarante, capace di indurre una sorta di ebrezza alcolica in chi lo aspirava). Durante lo spettacolo notò che uno dei volontari, che si era sottoposto alla somministrazione del gas, aveva urtato contro l’orlo di un sedile e, senza accorgersi della profonda ferita procuratesi alla gamba, aveva continuato a far divertire il pubblico, mantenendo i movimenti tipici di un ubriaco. Fu così che intuì la possibilità di estendere l’uso del protossido di azoto anche alla chirurgia odontoiatrica, e dimostrare ai medici dell’epoca che il dolore durante un’operazione chirurgica poteva essere anestetizzato. https://saluteuropa.org/scoprire-la-scienza/storia-dellanestesia/

Da N Engl J Med 2003;348:2110-24.
Appena 5 anni dopo, nel 1849, Scientific American dava notizia dell’esperimento fatto sulle piante “sensibili” da tale Dr. Manet e riportato sul Transactions of Physicial Society of Geneva usando il cloroformio con analoghi risultati. La notizia però si perse e non è stata mai più citata.

Dovettero passare trent’anni e si arrivò al 1878 quando il grande Claude Bernard, fisiologo francese considerato il fondatore della medicina sperimentale, (gli si deve la nozione di mezzo interno e di omeostasi, fondamento della biologia moderna) riscoprì l’effetto e lo riportò nel suo libro Leçons sur les phénomènes de la vie communs aux animaux et aux végétaux. (Librairie J.-B. Baillière et Fils) con un esperimento condotto sulla Mimosa pudica usando l’etere (pg. 259 del libro). Bernard riscoprì il fenomeno e non cita l’esperimento seminale di Manet, fatto quasi 30 anni prima con un diverso anestetico. Egli ne concluse che le piante e gli animali devono condividere un’essenza biologica comune che viene interrotta dagli anestetici.

Da allora la cosa è stata studiata e riportata parecchie volte in letteratura fino ad arrivare alla moderna riscoperta di massa (legata fra gli altri all’attività dell’italiano S. Mancuso) che anche le piante mostrano fenomeni di sensibilità notevolissimi tanto da poter essere considerate non solo sensibili ma perfino “intelligenti”: Planta sapiens (che è poi il titolo di un recente libro di Paco Calvo ed. Il saggiatore).

In realtà la sensibilità all’anestesia è sorprendente poiché accomuna noi, i batteri, le piante e perfino i mitocondri, che come abbiamo ricordato altrove sono batteri che si sono uniti ad altri contribuendo alla formazione della cellula eucariota. Insomma specie che si sono di fatto succedute nell’ambito di almeno un miliardo e mezzo di anni di evoluzione hanno conservato una profonda sensibilità alle medesime molecole.
Questo però nel caso delle piante dovrebbe aiutarci a vederle da un punto di vista diverso. Le piante in sostanza non sono lo “sfondo” della vita animale, ma sono anch’esse vive ed attive con meccanismi che non ci appaiono evidenti solo perché i loro tempi sono diversi dai nostri; ma questo non giustifica una nostra pretesa superiorità.
Da leggere: Planta sapiens, Perché il mondo vegetale ci assomiglia più di quanto crediamo di Paco Calvo con Natalie Lawrence, Ed. Il Saggiatore, 2022, pag. 350
Combattere le disuguaglianze
Vincenzo Balzani, professore emerito UniBo
Il presente modello di sviluppo spinge alla competizione e alla perdita dell’idea di bene comune, causando il deterioramento del tessuto sociale. Il principale, se non unico obiettivo è arricchirsi. Questa situazione si è inacerbata con la crisi pandemica, la guerra in Ucraina e tutti i problemi collegati.
Nonostante la crisi energetica, le compagnie petrolifere stanno guadagnando in modo abnorme (ENI: 10,81 miliardi di euro nei primi nove mesi 2022). Pochi giorni fa, i giornali ci hanno informato che Leonardo nel 2021 ha venduto armi per 13,9 miliardi di dollari, prima fra le aziende europee, e che l’amministratore delegato di una grande banca italiana ha chiesto un aumento del 40% per il suo stipendio, che è già di 7,5 milioni all’anno. In Gran Bretagna, Equality Trust ha riportato che il numero dei miliardari è aumentato da 15 nel 1990 a 177 nel 2022 e che nello stesso periodo la ricchezza dei miliardari è aumentata di più del 1000%, mentre è cresciuto enormemente il numero di poveri. Equality Trust sottolinea che questo divario non è da imputarsi al fatto che i miliardari sono persone intelligenti, creative o fortemente dedicate al lavoro, ma perché essi sono i maggiori beneficiari di un sistema economico inadeguato. E’ quanto afferma anche papa Francesco nell’enciclica Laudato si’: ”Ciò che sta accadendo ci pone di fronte all’urgenza di procedere in una coraggiosa rivoluzione culturale”.
Un’indagine estesa a molti paesi sviluppati indica che al crescere delle disuguaglianze aumentano gli indici di malessere, come la violenza e l’abuso di droghe, mentre diminuiscono gli indici di benessere, come la fiducia reciproca e la mobilità sociale. Quindi, se si vuole migliorare la qualità della vita si devono ridurre le disuguaglianze, problema che non può essere risolto con una caritatevole politica sociale. Consumando più risorse e, allo stesso tempo, aumentando le disuguaglianze, si scivolerà sempre più velocemente verso l’insostenibilità ecologica e sociale, fino a minare, in molti paesi, la sopravvivenza della stessa democrazia.

La piramide dei ricchi nel mondo (fonte: Sole24Ore)
Per migliorare il mondo è necessario, anzitutto, chiedersi ciò che deve essere fatto e ciò che non deve essere fatto, prendendo come valori di riferimento l’obiettivo del lavoro, la sua metodologia e il suo significato. L’obiettivo deve essere la custodia del pianeta, la metodologia giusta è la collaborazione, il significato è la dignità di ogni singola persona. Poi c’è l’economia; in gennaio, i trenta membri della Transformational Economics Commission del Club di Roma hanno chiesto al World Economic Forum di Davos, nel quale ogni anno si incontrano i leader dei governi, dell’economia e della società civile, di prendere concrete decisioni per frenare il cambiamento climatico e prevenire l’instabilità sociale. Hanno calcolato che il forte aumento della spesa pubblica può essere totalmente coperto con fondi ottenuti tassando in modo più efficiente e maggiormente progressivo le imprese e le persone più ricche, in base anche alle emissioni di gas serra che producono e a quanto pesantemente sfruttano le risorse del pianeta.
Tutto questo è in linea con quanto afferma papa Francesco nell’enciclica Laudato si’: ”Ciò che sta accadendo ci pone di fronte all’urgenza di procedere in una coraggiosa rivoluzione culturale”.
Misurare la tossicità del particolato col lievito.
Luigi Campanella, già Presidente SCI
L’atmosfera urbana è caratterizzata dalla presenza di un insieme vasto ed eterogeneo, da un punto di vista chimico-fisico, di particelle aerodisperse di dimensioni comprese tra 0,005 e 100 μm, costituite essenzialmente da minerali della superficie terrestre, prodotti di combustione e di attività industriali, artigiane, domestiche, sali provenienti da aerosol marini, prodotti di reazione in atmosfera. Le quantità di materiale particellare riscontrabili nelle atmosfere urbane sono in genere dell’ordine di 50-150 μg/m3,,ovviamente con i valori bassi dell’intervallo più pertinenti alle città europee e dei paesi più avanzati nelle politiche ambientali.
Fra queste particelle viene considerata con sempre maggiore interesse per i suoi effetti sulla salute della popolazione esposta la frazione inalabile, ovvero la frazione granulometrica di diametro aerodinamico minore di 10 μm (PM 10). La frazione granulometrica del PM 10 formata da particelle di diametro aerodinamico maggiore di 2,5μm costituisce la frazione coarse, che una volta inalata può raggiungere l’apparato respiratorio superando il livello naso-faringeo, quella costituita da particelle con diametro aerodinamico minore di 2,5μm (PM 2,5) costituisce la frazione fine, che una volta inalata, è in grado di arrivare fino al livello degli alveoli polmonari.
Le polveri fini, o particolato, hanno soprattutto tre origini:
Mezzi di trasporto che bruciano combustibili
Impianti industriali
Impianti di riscaldamento
Le attuali conoscenze sul potenziale rischio cancerogeno per l’uomo dovuto all’esposizione del particolato, derivano da studi di epidemiologia ambientale e di cancerogenesi sperimentale su animali e da saggi biologici a breve termine, quali test di genotossicità, mutagenesi e trasformazione cellulare.
Si è riscontrata un’elevata attività mutagena nell’aria urbana di tutte le città del mondo e risulta crescente la preoccupazione per un possibile effetto cancerogeno sulla popolazione in seguito all’esposizione da particolato urbano. E’ infatti noto da molto tempo che estratti della componente organica da particolato urbano possono indurre cancro alla pelle in animali da esperimento e risultano mutageni in alcuni dei test adottati per tale valutazione.
Inoltre in alcuni studi è stato mostrato come l’esposizione ad aria urbana abbia provocato la formazione di addotti multipli al DNA, sia nel DNA batterico che nel DNA della pelle e del polmone del topo. Infine estratti della componente organica da particolato sono risultati positivi anche in saggi di trasformazione cellulare in cellule di mammifero.
https://www.epa.gov/pmcourse/particle-pollution-exposure
Uno studio dell’US Environmental Protection Agency (USEPA) sui tumori “ambientali” negli Stati Uniti stima che il 35% dei casi di tumore polmonare “urbano” attribuibili all’inquinamento atmosferico sia imputabile all’inquinamento da particolato.
L’organizzazione Mondiale della Sanità ha riconosciuto che in Italia, nelle città più inquinate la percentuale dei decessi che si possono addebitare alle polveri può arrivare fino al 5%.
La variabilità della composizione chimica del particolato atmosferico fa si che, ai fini della protezione dei cittadini e degli esposti, la misura solo quantitativa di questo indice non sia del tutto significativa.
E’ per questo che negli ultimi anni vanno moltiplicandosi gli studi su questo inquinante, riguardanti il campionamento, l’analisi, la valutazione di tossicità.
La presenza nel particolato di elementi e composti diversi a differenti concentrazioni comporta quindi che, a parità di quantità, la qualità di esso possa essere differente da caso a caso e determinante ai fini della individuazione di situazioni di rischio e pericolo. È ovvio che, per gli aspetti più strettamente fisici del rischio ambientale, tale considerazione è relativamente meno influente in quanto tale azione si esercita attraverso un’ostruzione delle vie respiratorie da parte del particolato; ma quando da questi si passa a quelli chimici e quindi alle interazioni chimiche e biochimiche fra l’ecosistema, l’organismo umano, che ne fa parte, ed il particolato, si rende necessaria una valutazione integrale di tipo anche tossicologico finalizzata a valutare le potenzialità nocive del particolato in studio.

I test di tossicità integrale nascono con il fine di fornire in tempo reale risposte finalizzate a possibili interventi tempestivi in caso di situazione di allarme, superando i tempi morti dell’attesa dei risultati delle complesse e complete analisi chimiche e microbiologiche di laboratorio.
Le metodiche di campionamento da adottarsi devono essere compatibili con le procedure e le tecniche di preparazione dei campioni dell’analisi successiva. I metodi adatti a tale fine sono essenzialmente due: il metodo del filtro a membrana che permette di raccogliere direttamente il particolato su un supporto adatto alla successiva analisi mediante microscopio elettronico (MEA) ed il campionamento mediante impattori inerziali. Fra i test di tossicità integrale, escludendo quelli basati su sperimentazione animale che richiedono strutture particolari e guardando piuttosto al contrario verso test semplici ed economici che possano essere applicati anche da laboratori non particolarmente attrezzati, stanno trovando crescente interesse quelli respirometrici. Sostanzialmente si misura la capacità respiratoria di cellule, libere o immobilizzate, spesso di lieviti, nell’ambiente sotto esame e la si confronta con quella in un ambiente di riferimento.
La riduzione della suddetta capacità è correlata alla tossicità dell’atmosfera testata. Il test può anche essere condotto basandosi sulla cinetica di respirazione. Nell’intenzione di rendere il test quanto più sensibile possibile si sono utilizzate modificazioni genetiche cellulari, cellule private della parete o cellule sensibilizzare attraverso trattamenti preliminari. In tutte queste misure l’elettrodo indicatore può essere di 3 tipi: in primis ovviamente l’elettrodo di Clark che misura per via amperometrica la concentrazione dell’ossigeno, l’elettrodo a diffusione gassosa per la CO2 ed un FET (transistor ad effetto di campo) per l’acidità prodotta dalla respirazione.
Geometria e-scatologica
Claudio Della Volpe
Abbiamo ripetuto più volte su queste pagine un concetto che Primo Levi ha portato alla dignità della letteratura e che ripeto qua a modo mio. La materia è dura ed insensibile, il chimico la vivifica mentre essa appare morta, la manipola mentre essa resiste duramente ad ogni manipolazione, e tramite questo intenso rapporto alla fine (anche se non sempre) ne trae qualcosa, una sorta di “anima” della materia, che poi permea tutta la nostra disciplina.
Noi chimici non abbiamo paura della materia di qualunque natura essa sia; sappiamo che col duro lavoro possiamo trarne qualcosa di buono. Ed ecco perché su questo blog parliamo spesso di materiali che sono di solito “vietati”, proibiti: i rifiuti, gli escrementi, l’acqua sporca; noi sappiamo che da essi possiamo riestrarre cose utili e necessarie, ma dobbiamo avvicinarli senza paura, blandirli, studiarli, renderli innocui e poi trasformarli: il lavoro del chimico!
Un recentissimo lavoro pubblicato su Soft matter, una brillante rivista che parla di materiali soffici, come dice il titolo, ci racconta il perché della forma degli escrementi di mammifero; oggi vi parlerò, insomma, della forma della cacca, argomento ostico, ma non così puzzolente come potreste immaginare.

Dietro questo studio c’è l’osservazione della forma degli escrementi diversi in diversi animali; forse il più famoso è il wombat, un piccolo marsupiale noto a molti perché produce escrementi cubici, una geometria certamente peculiare.

Le feci del wombat.
E ancora più alla base c’è il pensiero espresso da un filosofo slavo, Zizek, il quale con grande serietà spiega come la forma dominante dei WC in diversi paesi possa essere collegata alla diversa mentalità dei popoli; non voglio approfondire questa proposta ideologica, ma vi invito a leggerla e vedrete che me ne sarete grati; come minimo vi strapperà un sorriso, ma non privo di più profonde riflessioni. Colgo l’occasione per dire che personalmente concordo col metodo tedesco di fare la pipì.
Torniamo a noi.
Gli escrementi o fatte degli animali sono costituiti dalle parti solide indigeribili degli alimenti (resti vegetali, ossa, peli, penne etc) e rappresentano ottimi segnali che possono indicare la presenza di una specie in un determinato ambiente; oltre alla presenza di una specie gli escrementi consentono anche di conoscerne le abitudini alimentari poiché spesso al loro interno è possibile riconoscere e identificare i resti indigeriti che aiutano a comprendere le abitudini alimentari dell’animale. Per chiarezza il termine borre invece indica un escremento solido espulso dalla bocca (in genere da uccelli) e che contiene resti di cibo non digeriti; si tratta sostanzialmente di pelo, piume, ossa o materiale vegetale indigeribile pressati in una sorta di capsula simile ad una fatta (la pressatura avviene in uno dei due stomaci che alcuni uccelli posseggono).
Nel caso dei mammiferi le fatte fresche hanno un ruolo sessuale poiché indicano dall’odore la disponibilità dell’animale all’accoppiamento, ma servono anche a marcare il territorio e vengono depositate in luoghi specifici che lo delimitano: “questo è mio” o “io sono qua”, questo il senso e-scatologico.
In altri casi le feci vengono espulse in “corsa”, come avviene al capriolo o al cervo (vedi foto qui sotto).

Ma sebbene molto interessante questo non ci fa avanzare nella comprensione della forma così variabile delle fatte.

Il parametro considerato critico dagli autori è la percentuale di acqua presente nel bolo; il bilancio fra l’acqua liquida e quella vapore cambia durante il percorso e questo comporta, in ragione delle dimensioni del corpo, del diametro del bolo e del tempo la formazione di crack trasversali che spezzano il bolo conferendogli una forma specifica, come riportato nel seguente grafico.

Gli autori sviluppano anche una ipotesi, che però non è confermata dall’analisi numerica, ossia che il processo sia simile a quello che ha generato le formazioni poligonali di Causeway, un sito di interesse geologico.
In realtà, almeno per quanto riguarda il caso umano l’osservazione della relazione fra lo stato delle feci e lo stato della salute del soggetto considerato era stata già fatta e viene espressa nella cosiddetta scala di Bristol sviluppata fin dal 1997 come presidio di valutazione medica.

Diciamo che sebbene possa dare adito a considerazioni buffe o peggio, e superando un naturale(?!) disgusto anche la materia fecale ha un ruolo importante nella nostra vita e nel nostro stato di salute e dunque esiste una chimica e perfino una chimica-fisica delle feci, che però non credo i chimici prendano di solito in considerazione nei loro studi, contravvenenendo ai saggi consigli di Primo Levi. Tenete presente che esiste però una letteratura significativa sul tema della composizione delle feci ma una assai più scarsa sulla dinamica della loro formazione, un soggetto forse spiacevole, ma penso molto interessante e con potenziali ricadute tecniche, mediche ed ingegneristiche (a titolo di esempio una volta fui coinvolto nello studio dei meccanismi per i quali è difficile pulire per bene con metodi automatici le superfici dei gabinetti pubblici, tema non peregrino se fate un viaggio chessò in auto, e vi assicuro che la ragione è perfettamente legata alle proprietà di superficie dei materiali ceramici ma anche alla dinamica dei liquidi, in particolare alla cosiddetta no-slip hypothesis, ma questa è un’altra storia).
Da leggere: https://it.wikipedia.org/wiki/Bristol_stool_scale
Le macchine molecolari: storia e possibili sviluppi futuri
Rinaldo Cervellati
In questo post traduco, adattandolo, un articolo-review di Mark Peplow, pubblicato su C&EN news il 5 febbraio scorso.
I laboratori di ricerca sulle macchine molecolari aumentano di anno in anno, tanto che si può quasi udire il ronzio immaginario di questi dispositivi su scala nanometrica.
Negli ultimi due decenni, i ricercatori hanno assemblato una stupefacente serie di molecole con parti mobili che agiscono come macchinari in miniatura. Hanno realizzato motori con pale rotanti, pompe che raccolgono molecole dalla soluzione, assemblatori molecolari che mettono insieme peptidi e in grado di leggere i dati memorizzati su fili di nastro molecolare. Tra i pionieri in questo campo troviamo l’italiano Vincenzo Balzani,https://www.scienzainrete.it/contenuto/articolo/pietro-greco/balzani-pioniere-delle-macchine-molecolari-premiate-stoccolma
Jean-Pierre Sauvage, J. Fraser Stoddardt e Bernard L. Feringa che hanno ottenuto il premio Nobel per la chimica 2016.
Cosa possono fare questi dispositivi? Sebbene le applicazioni siano ancora relativamente lontane, i ricercatori stanno iniziando a vedere come le macchine molecolari potrebbero essere sfruttate per compiti utili. Ad esempio i motori molecolari possono flettere le nanofibre o riorganizzare i cristalli liquidi, che possono essere utilizzati per creare materiali reattivi e “intelligenti”.
Ora i ricercatori si stanno ponendo domande più profonde: come funzionano le macchine e come possiamo migliorarle? Le risposte, dicono alcuni, arriveranno studiando la cinetica e la termodinamica di questi sistemi per capire come l’energia e le velocità di reazione li fanno funzionare. Affrontare questi fondamenti potrebbe aiutare il campo a superare un approccio in qualche modo basato su tentativi ed errori alla costruzione di macchine e sviluppare invece un insieme più robusto di principi di progettazione.
I ricercatori stanno già iniziando a mettere a punto i combustibili chimici che guidano alcune macchine molecolari. Stanno anche costruendo macchine molecolari autonome che richiedono meno intervento da parte dei loro operatori umani, fintanto che è presente una scorta di carburante scelta con cura. Ma questa attenzione ai carburanti sta anche suscitando accesi dibattiti sui principi fondamentali del funzionamento di queste macchine. I motori sono forse il tipo più iconico di macchina molecolare. In genere operano attraversando un ciclo ripetuto di reazioni chimiche che modificano la forma della molecola e provocano il movimento, ad esempio la rotazione attorno a un legame o il movimento lungo una traccia. Per evitare che il motore si muova inutilmente avanti e indietro, i ricercatori hanno anche bisogno di un meccanismo che assicuri che si muova in una sola direzione.
Il primo motore molecolare rotativo sintetico completamente funzionante è stato presentato nel 1999 da Ben Feringa, dell’Università di Groningen. L’innovativo motore di Feringa conteneva due voluminosi gruppi chimici collegati da un doppio legame carbonio-carbonio. I gruppi ruotavano attorno a questo asse attraverso una serie di isomerizzazioni indotte dalla luce ultravioletta e dal calore. La chiralità della molecola motrice assicurava che i gruppi ingombranti potessero schiacciarsi l’uno accanto all’altro quando si muovevano in avanti nel ciclo ma non all’indietro [1].
Sulla sua scia sono seguiti dozzine di altri motori guidati dalla luce e sono stati sfruttati per una varietà di compiti, come la produzione di gel sensibili alla luce e il movimento di muscoli artificiali. La luce è una fonte di energia comoda e regolabile e non produce prodotti di scarto.

Fig.1 Questo motore autonomo contiene un anello (blu) che si muove in senso orario attorno a un binario circolare in quattro fasi. I siti di riconoscimento (verdi) ostacolano l’anello, mentre i gruppi ingombranti (rossi) ne impediscono l’avanzamento. Le molecole di carburante (sfere rosse) aggiungono questi gruppi bloccanti, che possono essere rimossi per produrre scorie (sfere arancioni). Copyright: Nature.
Tuttavia, per coloro che cercano di comprendere e imitare le macchine molecolari biologiche, come le proteine motrici che aiutano a trasportare il carico all’interno delle cellule, la luce non è sufficiente. La biologia ha utilizzato con successo pompe e motori molecolari per miliardi di anni, ma generalmente li guida con sostanze chimiche come l’adenosina trifosfato (ATP) piuttosto che con la luce. Per i chimici, quel precedente rappresenta una sfida irresistibile per lo sviluppo di macchine molecolari sintetiche alimentate da processi chimici.
Nel 1999, T. Ross Kelly del Boston College ha compiuto un passo importante verso tale obiettivo sviluppando un prototipo di motore alimentato a fosgene in grado di ruotare di 120° [2]. Sei anni dopo, Feringa costruì un motore rotativo ad azionamento chimico in grado di completare un giro completo attorno a un singolo legame C–C formando e rompendo un lattone che collegava le due unità del motore. Un agente riducente chirale fungeva da combustibile, aprendo il lattone e assicurando che il motore ruotasse in un’unica direzione [3].
I ricercatori hanno ora una serie di altre strategie di rifornimento [4]. Alcuni impiegano una serie di passaggi di protezione e deprotezione che aggiungono o rimuovono gruppi chimici pesanti dalla macchina. Altri variano il pH per far compiere a una macchina un ciclo completo. Un terzo approccio, sviluppato negli anni ’90, dipende da reazioni di ossidazione e riduzione.
La maggior parte di questi dispositivi azionati chimicamente si affida ai loro manipolatori umani per aggiungere il giusto tipo di carburante o altri reagenti in ogni punto del ciclo della macchina.
Ancora più importante, non è così che funzionano le macchine biomolecolari. Nuotano in un mare di molecole di carburante come l’ATP, le raccolgono ogni volta che ne hanno bisogno e operano ininterrottamente. Raggiungere quel tipo di autonomia nelle macchine molecolari sintetiche è un obiettivo importante per il settore.
A differenza dei fotoni, i combustibili chimici forniscono un modo per immagazzinare e trasportare una fonte di energia concentrata a cui le macchine molecolari possono accedere su richiesta [5]. David Leigh (University of Manchester) ritiene che se le macchine possono accedere a una fonte di energia secondo necessità, potrebbero avere una gamma più ampia di applicazioni rispetto ai sistemi non autonomi.
Nel 2016, Leigh ha pubblicato una pietra miliare nella spinta all’autonomia delle macchine. Afferma: “È stato il primo motore autonomo guidato chimicamente”. Il motore è costituito da un anello molecolare che può muoversi su una pista circolare. Ci sono due regioni, chiamate siti di riconoscimento, sui lati opposti della pista, che possono mantenere l’anello in posizione mediante legami a idrogeno. Ciascun sito di riconoscimento si trova vicino a un gruppo idrossilico che reagisce con un combustibile, il cloruro di fluorenilmetossicarbonile (Fmoc-Cl). Questa reazione installa ingombranti gruppi Fmoc sul binario, bloccando il movimento dell’anello [6].
Ma la miscela di reazione contiene anche una base che aiuta a strappare i gruppi bloccanti, permettendo all’anello di passare. Il risultato è che i gruppi Fmoc entrano ed escono costantemente dai siti di ancoraggio idrossilici della traccia. Fondamentalmente, l’impedimento sterico assicura che la reazione per aggiungere un Fmoc avvenga circa cinque volte più velocemente nel sito di ancoraggio che si trova di fronte all’anello.
Da allora, Leigh ha utilizzato una chimica del carburante Fmoc in una pompa autonoma che raccoglie gli eteri dalla soluzione e li inserisce in una lunga catena di stoccaggio [7]. L’avvento di tali dispositivi autonomi ha suscitato entusiasmo, ma alimenta anche un dibattito di lunga data su come funzionino effettivamente le macchine molecolari guidate chimicamente. Ed è qui che le cose si complicano.
Per comprendere questo dibattito, si consideri la chinesina, una macchina biologica proteica che trasporta il carico all’interno delle cellule. La proteina ha due “piedi” che avanzano lungo binari rigidi chiamati microtubuli e il movimento è guidato dall’idrolisi dell’ATP in adenosina difosfato (ADP). Alcuni ricercatori hanno sostenuto che la rottura del forte legame fosfato nell’ATP innesca la chinesina mettendola in uno stato ad alta energia. Il rilassamento della chinesina da questo stato provoca un cambiamento conformazionale che spinge i “piedi” in avanti, uno dopo l’altro.
Questa interpretazione non è corretta, afferma Dean Astumian, un fisico dell’Università del Maine che ha svolto un ruolo chiave nel guidare il pensiero sul funzionamento dei motori molecolari: “Lo dico come un fatto deduttivo, non come un’opinione: i dati sperimentali mostrano che il movimento della chinesina è controllato dalle velocità relative delle reazioni reversibili che coinvolgono anche chinesina, ATP e i loro prodotti.”[8].

Fig. 2 Un combustibile carbodiimmide chirale e un catalizzatore chirale aiutano a garantire che questo motore autonomo ruoti in una direzione. Le frecce tratteggiate mostrano reazioni inverse che sono meno probabili nelle condizioni di reazione. Copyright: Nature
Astumian e altri sostengono che tutte le macchine molecolari guidate chimicamente sono governate dall’asimmetria cinetica in questo tipo di “dente di arresto” browniano. Al contrario, i colpi di potenza sono coinvolti nella guida di macchine guidate dalla luce: la luce eccita il dispositivo in uno stato di alta energia e il suo rilassamento provoca un grande cambiamento meccanico. Questa distinzione nel meccanismo ha importanti implicazioni.

Fig. 3 Il “dente di arresto” autonomo contiene un anello (nero) intrappolato su un binario lineare (grigio). Girando finemente il carburante della macchina, che installa un gruppo barriera (rosa) sul binario, i ricercatori possono migliorare le possibilità dell’anello di assestarsi nel sito di riconoscimento (verde) più lontano dalla barriera. Copyright: J. Am. Chem Soc.
Il modello di “dente di arresto” browniano è ampiamente accettato tra i macchinisti molecolari. Ma alcuni sottolineano che se il ruolo principale di una molecola di combustibile non è quello di fornire energia per far muovere un motore molecolare, non dovrebbe essere chiamata combustibile.
Alcuni ricercatori affermano che il carburante è semplicemente una comoda scorciatoia per qualsiasi reagente che aziona una macchina molecolare.
Per affrontare questo e altri problemi meccanicistici, i ricercatori hanno recentemente delineato una serie di modelli che descrivono la termodinamica e la cinetica alla base delle macchine molecolari. In aprile 2022, Leigh ha presentato un motore autonomo guidato chimicamente che è molto più efficiente del suo esempio del 2016. Il motore beneficia di una migliore reazione di alimentazione e di due fasi distinte che conferiscono ciascuna una certa asimmetria cinetica al suo ciclo di reazione. Il motore contiene una coppia di gruppi arilici che ruotano attorno a un legame singolo C–C formando e rompendo un gruppo di anidride a ponte. I ricercatori usano un combustibile chirale di carbodiimmide e un catalizzatore di idrolisi chirale, assicurando che il motore giri (principalmente) in una direzione [9]
Feringa afferma che il suo team sta effettuando calcoli di meccanica molecolare e altri approcci di modellazione per effettuare progetti di macchine e capire come diverse strutture e sostituenti potrebbero farli funzionare più velocemente e in modo più efficiente. A luglio, i ricercatori hanno mostrato un motore autonomo che funziona con carbodiimmide in ambiente acido ma ruota formando e rompendo un estere a ponte [10].
Leigh sta anche modificando i suoi carburanti per migliorarne le prestazioni. A settembre, il suo team ha dimostrato tale approccio su un “dente di arresto” autonomo che contiene un anello intrappolato su un binario lineare [11].
Per ora, tutte queste macchine autonome alimentate chimicamente sono dispositivi di prova che non svolgono compiti utili. Ma Leigh ci sta lavorando. In collaborazione con Katsonis dell’Università di Groningen, ad esempio, spera di manipolare i cristalli liquidi con i suoi motori alimentati chimicamente, cosa già ottenuta con i motori azionati dalla luce. Katsonis afferma che il progetto sta evidenziando una delle difficoltà per i sistemi alimentati chimicamente: come gestire i loro prodotti di scarto. I rifiuti chimici prodotti dalle reazioni di alimentazione possono alterare le condizioni di reazione come il pH o legarsi alla macchina in modi che ostacolano l’accesso a ulteriori molecole di carburante. Le molecole di scarto potrebbero essere riciclate in carburante, proprio come la natura trasforma l’ADP in ATP. Per raggiungere questo obiettivo, i ricercatori dovranno sviluppare una gamma più ampia di carburanti per macchine autonome.
Nel frattempo, un’altra fonte di energia sta venendo alla ribalta. Stoddart ha recentemente sviluppato un motore molecolare che utilizza un meccanismo redox azionato direttamente dall’elettricità [12]. Di fronte alla sana concorrenza della luce e dell’elettricità, le macchine autonome alimentate chimicamente ora devono dimostrare di poter svolgere una varietà di utili funzioni meccaniche, afferma Feringa: “Questa è la cosa più interessante e importante, e questa è la grande sfida”
Bibliografia
[1] N. Komura et al., Light-driven monodirectional molecular rotor, Nature, 1999, 401, 152-155.
[2] T. Ross Kelly, H. De Silva, R. De Silva, Unidirectional rotary motion in a molecular system, Nature, 1999, 401, 150-152.
[3] S.B. Fletcher et al., A Reversible, Unidirectional Molecular Rotary Motor Driven by Chemical Energy, Science, 2005, 310, 80-82.
[4] R. Benny et al., Recent Advances in Fuel-Driven Molecular Switches and Machines, Chemistry Open, 2022, 9, 1-21.
[5] S. Borsley, D.A. Leigh. BMW. Roberts, Chemical fuels for molecular machinery, Nature Methods, 2022, 14, 728-738.
[6] M.R. Wilson et al., An autonomous chemically fuelled small-molecule motor, Nature, 2016, 534, 235–240.
[7] S. Amano, S.D.P. Fielding, D.A. Leigh, A catalysis-driven artificial molecular pump, Nature, 2021, 594, 529–534.
[8] R. D. Astumian, S. Mukherjee, A. Warshel, The Physics and Physical Chemistry of Molecular Machines, ChemPhysChem, 2016, 17, 1719-1741.
[9] S. Borsley et al., Autonomous fuelled directional rotation about a covalent single bond, Nature, 2022, 604, 80–85.
[10] K. Mo et al., Intrinsically unidirectional chemically fuelled rotary molecular motors, Nature, 2022, 609, 293–298.
[11] S. Borsley et al., Tuning the Force, Speed, and Efficiency of an Autonomous Chemically Fueled Information Ratchet,J. Am. Chem. Soc., 2022, 144, 17241–17248.
[12] L. Zhang et al., An electric molecular motor, Nature, 2023, 613, 280–286.
Terra bruciata
Mauro Icardi
James. G Ballard scrittore inglese, che sarebbe riduttivo definire unicamente autore di libri di fantascienza, nel 1964 pubblica un libro che viene tradotto in Italiano con il titolo di “Terra Bruciata”.
È il libro che sto leggendo in questi giorni, attirato sia dall’immagine di copertina di Karel Thole, il grafico olandese che disegnò le copertine della collana di fantascienza “Urania”, che dallo stile letterario di Ballard. Caustico, molto critico nei confronti della società contemporanea e delle sue palesi contraddizioni, che l’autore mette a nudo con racconti quasi surreali.
In questo libro l’autore immagina un pianeta terra piegato dalla siccità. Sono bastate pochissime righe per provare quella gradevole sensazione, quella specie di scossa elettrica che sento quando mi rendo conto di aver trovato un libro che ti incolla alla pagina, uno di quelli che ti fa restare alzato a leggere fino ad ora tarda.
Nelle prime pagine del libro un brano mi ha particolarmente colpito: “La pioggia! Al ricordo di quello che la parola significava un tempo, Ransom alzò lo sguardo al cielo. Completamente libero da nuvole o vapori, il sole incombeva sopra la sua testa come un genio perennemente vigile. Le strade e i campi adiacenti al fiume erano inondati dalla stessa invariabile luce, vitreo immobile baldacchino che imbalsamava ogni cosa nel suo calore”.
Personalmente queste poche righe mi hanno ricordato la situazione del Fiume Po la scorsa estate.

Nella trama del romanzo si immagina una migrazione umana sulle rive dell’oceano dove si sono dissalati milioni di metri cubi di acqua marina, e dove le spiagge sono ormai ridotte a saline, ugualmente inospitali per la vita degli esseri umani, così come le zone interne,dove fiumi e laghi stanno lentamente prosciugandosi.
So molto bene che molte persone storcono il naso quando si parla di fantascienza ,senza probabilmente averne mai letto un solo libro,probabilmente per una sorta di snobismo preconcetto. La mia non vuole essere una critica, è solmente una mia personale constatazione. Ma non posso fare a meno di pubblicare su questo post un’altra foto,drammaticamente significativa.

L’immagine scattata dal satellite Copernicus, mostra la situazione del Po a nord di Voghera lo scorso 15 Febbraio. La foto è chiarissima. Rimane valido il motto che dice che un’immagine vale più di mille parole.
Ecco è proprio dalle parole che vorrei partire per chiarire alcuni concetti, porre degli interrogativi a me stesso, e a chi leggerà queste righe.
Parole. Quali parole possiamo ancora usare per convincere chi nemmeno davanti a queste immagini prende coscienza del problema siccità, continuando ostinatamente a negare l’evidenza, esprimendosi con dei triti e tristi luoghi comuni.
Uno fra i tanti, un messaggio inviato alla trasmissione di radio 3 “Prima pagina”. Quando la giornalista lo legge in diretta io rimango sbalordito. L’ascoltatore che lo ha inviato scrive testualmente. “Il riscaldamento globale è un falso problema, tra 100 anni saremo in grado di colonizzare altri pianeti e di sfruttare le loro risorse”. Giustamente la conduttrice risponde che non abbiamo cento anni di tempo. I problemi sono qui e adesso.
Il senso di sbigottimento rimane anche mentre sto terminando di scrivere questo post. Uscendo in bicicletta nel pomeriggio ho potuto vedere palesemente la sofferenza dei corsi d’acqua in provincia di Varese: il Tresa e il Margorabbia ridotti a dei rigagnoli. Ho visto terreni aridi e molti torrenti della zona prealpina completamente asciutti.
Quali parole possiamo ancora usare, parole che facciano capire l’importanza dell’acqua? L’acqua è indispensabile alla vita penso di averlo letto nelle prefazioni praticamente di ogni libro che si occupasse del tema. Mentre scrivo, in un inverno dove non ho visto un fiocco di neve nella zona dove vivo, leggo l’intervista fatta a Massimiliano Pasqui, climatologo del CNR, che dichiara che ci servirebbero 50 giorni di pioggia per contenere il problema della siccità nel Nord Italia. Il deficit idrico del Nord Ovest ammonta a 500 mm. Le Alpi sono un territorio fragile, i ghiacciai arretrano. Lo speciale Tg1 dedica una puntata ai problemi dei territori dell’arco alpino. Ma buona parte delle persone intervistate sono preoccupate unicamente per il destino delle stazioni sciistiche. Solo una guida alpina valdostana suggerisce un nuovo modo per godere la montagna, uscendo dal pensiero unico che vuole che in montagna si vada unicamente per sciare. Una biologa che si occupa della microfauna dei torrenti alpini ricorda l’importanza della biodiversità e delle catene alimentari che la riduzione delle portate può compromettere. Un sindaco della zona prealpina del comasco, difende l’idea di creare una pista di innevamento artificiale a 1400 metri di quota, quando ormai lo zero termico si sta situando intorno ai 3000. Non posso pensare ad altro se non ad una sorta di dipendenza. Non da gioco d’azzardo o da alcol, ma una dipendenza che ci offusca il ragionamento. Mi vengono in mente altre parole, le parole di un proverbio contadino: “Sotto la neve pane, sotto la pioggia fame”. Ma anche di pioggia se ne sta vedendo poca nel Nord Italia, e la neve sembra essere un ricordo in molte zone.

Il Piemonte sta diventando arido. Mia cugina che vive nelle terre dei miei nonni, nel Monferrato, mi informa che alcuni contadini stanno pensando di piantare fichi d’india. Nei vigneti il legno delle piante è secco e asciutto e la pianta sembra essere in uno stato sicuramente non di piena salute. Ci si accorge di questo anche nel momento in cui si lega il tralcio al primo fil di ferro per indirizzare la crescita della pianta: si ha timore di spezzarlo.
Ritorno per un attimo al libro di Ballard. Nella prefazione trovo un passaggio interessante: nel libro l’autore ci parla della siccità che ha immaginato, non in maniera convenzionale. Ci sono nel libro descrizioni di siccità e arsura, ma quello che emerge dalla lettura è il fantasma dell’acqua. Ballard ha sempre evitato i temi della fantascienza classica, viaggi nello spazio e nel tempo, incontri con civiltà aliene.
Ha preferito narrare e immaginare le catastrofi e le decadenze del futuro prossimo. Ma sono catastrofi particolari. Sono cioè catastrofi che “piacciono” ai protagonisti. Che quasi si compiacciono di quello che si sta svolgendo sotto i loro occhi. Vale per i protagonisti di “Deserto d’acqua e di “Condominium”. Il primo si compiace della spaventosa inondazione che ha sommerso Londra, il secondo racconta le vicende degli inquilini di un condominio di nuova generazione, dove una serie di black out e dissidi tra vicini fanno regredire tutti gli inquilini allo stato di uomini primitivi.
Terra bruciata invece ci mostra un’umanità che deve fare i conti con la mancanza ed il ricordo del composto linfa, H2O. La formula chimica probabilmente più conosciuta in assoluto. Conosciamo a memoria la formula, ma forse non conosciamo affatto l’acqua. E a volte è uno scrittore come Ballard che riesce ad essere più diretto nel mostrarci quello che rischiamo non preservandola e dandola per scontata. L’indifferenza, la mercificazione indotta, le nostre percezioni errate, lo sfruttamento del composto indispensabile alla vita ci stanno rivelando come anche noi ci stiamo forse compiacendo o abituando a situazioni surreali. Sul web ho visto la pubblicità di una marca di borracce che ci ingannano. Borracce con sedicenti pod aromatizzati che ti danno la sensazione di stare bevendo acqua aromatizzata. Riporto dal sito, senza citare per ovvie ragioni la marca.
“Tu bevi acqua allo stato puro. Ma i Pod aromatizzati fanno credere al tuo cervello che stai provando sapori diversi come Ciliegia, Pesca e molti altri.
Naturalmente gustosi. Tutti i nostri Pod contengono aromi naturali e sono vegetariani e vegani.
Idratazione sana. Prova il gusto senza zuccheri, calorie o additivi.
E ‘scienza (anche se ci piace pensare che sia anche un po’ magia). Il tuo centro olfattivo percepisce l’aroma come se fosse gusto, e fa credere al tuo cervello che tu stia bevendo acqua con un sapore specifico.”
Trovo questa pubblicità davvero agghiacciante.
Mi sto chiedendo ormai da diverso tempo come possiamo opporci a questa deriva. Ho letto diversi romanzi di fantascienza sociologica che immaginano società distopiche. Ma francamente mi sembra che non sia più necessario leggerla. In realtà mi sembra tristemente che siamo molto vicine a vivere in una società distopica. Sull’onnipresente rifiuto di bere acqua di rubinetto con la motivazione che “sa di cloro” o addirittura “che fa schifo”, qualcuno costruisce il business delle borracce ingannatrici. Ormai l’acqua non è più il composto vitale. E ‘un composto puro ma che deve essere migliorato. Qualcuno mette in commercio acqua aromatizzata, qualcun altro ci vuole vendere borracce che ci fanno credere che lo sia.
Mi chiedo davvero cosa sia andato storto, e quando recupereremo non dico la razionalità ma almeno il buon senso comune. E intanto possiamo aspettare fiduciosi la stagione estiva.
Giacimenti di idrogeno
Claudio Della Volpe
Quando si parla di idrogeno viene subito necessario chiarire che si tratta di un vettore di energia perché – si dice- non esistono giacimenti di idrogeno sul nostro pianeta; questo nonostante l’idrogeno sia l’elemento più diffuso dell’universo e anche il più antico degli elementi, quello che si è formato per primo e anche il motore basico dell’energia delle stelle.
Ma questa descrizione è del tutto vera e corretta? Abbiamo parlato ripetutamente del ciclo dell’idrogeno e delle sue peculiarità, per esempio qui e qui. Ma mai dell’idrogeno naturale.
Lavori che mostravano l’esistenza di risorse “naturali” di idrogeno risalgono almeno al 1962 (World Oil, nov, pag 78), ma il dubbio esiste ufficialmente fin dal 1990, quando un ingegnere minerario, H.C. Petersen scriveva (Int. J. Hydrogen Energy,Vol. 15,No. 1,p. 55, 1990) in una lettera alla rivista, raccontando di aver cercato l’elio nei campioni di gas che gli provenivano da parecchi giacimenti americani, ma di aver trovato anche idrogeno in percentuali che erano significative; e rivelando che, a suo parere, in Kansas and Iowa erano stati perforati pozzi dalla Texaco alla ricerca specifica di idrogeno.,
Da allora sono stati pubblicati un piccolo numero di lavori riguardanti la ricerca di giacimenti di idrogeno; il più famoso dei quali si trova, al momento, in Mali, in Africa.
Nella prima di queste review (1) del 2005 gli autori scrivevano:

Nella medesima review si sosteneva che le risorse di idrogeno “naturale” erano prodotte in massima parte da processi di serpentinizzazione in rocce ultramafiche o ultrabasiche, rocce ignee con contenuto molto basso, meno del 45%, di silice (che esalta l’acidità), generalmente percentuale superiore al 18% di ossidi di magnesio, ossidi ferrosi elevati, basso contenuto in potassio, e sono composte principalmente da minerali femici (ossia contenenti ferro e magnesio).

Queste condizioni erano estranee a quelle dei comuni giacimenti di petrolio e necessitavano dunque di una ricerca specifica.
Per confronto il lavoro mostra la diversa composizione in idrogeno di un tipico deposito carbonifero e quella invece di depositi ultramafici ricchi di idrogeno.


La reazione principale per la formazione di idrogeno è proposta in questa forma:

In definitiva i depositi di ferro ferroso servono da riducenti dell’acqua geologica formando cospicue quantità di idrogeno e di ferro ferrico. Secondo un lavoro del 1979 (2) la quantità di idrogeno che viene ceduta all’intero oceano da questi processi assommerebbe a sole 70 ton al giorno, 25mila ton/anno; e come si sa la quantità di idrogeno presente in atmosfera è particolarmente limitata, dell’ordine di un paio di centinaia di Mton.
Una review più recente del 2019 (3) al contrario stima in circa 23Mton/anno il flusso geologico di idrogeno da tutte le sorgenti verso l’atmosfera, dunque dell’ordine del 10% del deposito atmosferico, che come abbiamo raccontato altrove si disperde nello spazio a causa della bassa gravità terrestre.
Nella review si dice:
“Da un punto di vista geologico, l’idrogeno è stato trascurato”. Questo è stato scritto da Nigel Smith e colleghi più di un decennio fa in un articolo del 2005, che sembra essere l’ultima iniziativa in una revisione dell’idrogeno naturale (Smith et al., 2005). Nel 2019 questa affermazione è ancora valida. Sospetto che ciò sia dovuto a un pregiudizio esistente secondo cui l’idrogeno libero in natura è raro, e le descrizioni delle poche scoperte conosciute sono aneddotiche e per qualche motivo raccolgono pochissima attenzione. Pertanto, se nessuno si aspetta di trovare idrogeno libero, nessuno lo campiona. Questo pregiudizio influenza il modo in cui i campioni di gas vengono analizzati e campionati, ma anche il modo in cui i sistemi di rilevamento sono progettati. L’approccio analitico standard per la gascromatografia utilizza spesso l’idrogeno come gas di trasporto (Angino et al., 1984). Per questo motivo, se c’è idrogeno in un campione di gas, non verrà rilevato. È stato riferito che anche nel 1990, molte indagini non erano attrezzate per analizzare l’idrogeno (Smith, 2002). È ancora vero, fino ad oggi, che solo pochi gas-analizzatori portatili moderni utilizzati nelle scienze naturali includono un sensore di idrogeno nel loro design. È difficile stimare quante volte l’idrogeno non è stato identificato in campioni ricchi di H2 a causa della mancanza di una tecnica di rilevamento adeguata per misurare le concentrazioni di idrogeno.
Questo spiega perché a tutt’oggi non abbiamo idea precisa delle effettive dimensioni degli eventuali giacimenti mondiali di idrogeno naturale.
Nella review del 2020 esiste tuttavia una mappa, dalla quale si potrebbe erroneamente pensare che ci sono più depositi in Europa e Russia, ma questo dipende solo dal maggior numero di analisi condotte:

Il giacimento più famoso e sfruttato al momento è quello scoperto in Mali. La sua scoperta è stata raccontata in un recente articolo su Science (17 FEBRUARY 2023 • VOL 379 ISSUE 6633 631 )
All’ombra di un albero di mango, Mamadou Ngulo Konaré ha raccontato l’evento leggendario della sua infanzia. Nel 1987, gli scavatori di pozzi erano venuti al suo villaggio di Bourakébougou, Mali, per trivellare l’acqua, ma avevano rinunciato a un pozzo asciutto a una profondità di 108 metri. “Nel frattempo, il vento stava uscendo dal buco”, ha detto Konaré. Denis Brière, petrophyfisico e vicepresidente di Chapman Petroleum Engineering, nel 2012. Quando un perforatore ha sbirciato nel buco mentre fumava una sigaretta, il vento gli è esploso in faccia. “Non è morto, ma è stato bruciato”, ha continuato Konaré. “E abbiamo avuto un enorme incendio. Il colore del fuoco durante il giorno era come l’acqua frizzante blu e non aveva inquinamento da fumo nero. Il colore del fuoco di notte era come oro splendente, e in tutti i campi potevamo vederci nella luce…. Avevamo molta paura che il nostro villaggio sarebbe stato distrutto”.
Un racconto ed una descrizione più tecnica si ha nella ref. (5)
Questo ci aiuta a capire che si tratta di riserve di idrogeno NON FOSSILI è bene confermarlo, non dipendenti da processi di trasformazione petrolifera e dunque non soggetti ai medesimi limiti, ma comunque limitati nel loro sviluppo complessivo; sono tecnicamente rinnovabili se non usate al di sopra della loro limitata velocità di riproduzione.
I serbatoi di idrogeno relativamente puri sono associati a tracce di metano, azoto ed elio. L’accumulo geologico stratigrafico di idrogeno è legato alla presenza di davanzali e falde acquifere doleritiche sovrapposte che sembrano svolgere un ruolo per disabilitare la migrazione e la dispersione di gas verso l’alto. Il verificarsi di una miscela di gas e acqua che agisce con un’attività artesiana conferma la presenza di fluidi sovra-pressati. Ciò si traduce in un fluido di superficie difasico eruttivo di tipo geyser in molti dei pozzi. Il sistema di “sollevamento del gas” e la presenza di tracce di monossido di carbonio altamente instabile è legato a una recente carica di idrogeno gassoso ai serbatoi dalle falde acquifere sotterranee, in eruzione con l’acqua associata. I pozzi del Mali sottolineano la fonte non fossile di idrogeno gassoso e presentano caratteristiche di un’energia sostenibile. L’attuale stima del suo prezzo di sfruttamento è molto più economica dell’idrogeno fabbricato, sia da combustibili fossili che dall’elettrolisi.
Al momento mi sembra di poter dire che dunque esistono giacimenti sia pur limitati di idrogeno abbastanza puro nella crosta terrestre, da sorgenti non fossili, nel senso non dipendenti da depositi di tipo petrolifero, o carbonifero, ma solo da processi puramente geochimici ed in potenza rinnovabili; tuttavia la loro presenza SEMBRA limitata e potrebbe dunque dare solo un limitato apporto ad un’economia rinnovabile, probabilmente significativa solo in certi luoghi. Rimane però che non esistono ancora precise descrizioni e valutazioni delle dimensioni di queste riserve di idrogeno naturale e che il campo si svilupperà fortemente nei prossimi anni
Sono sicuro che torneremo sull’argomento; infatti proprio perché l’interesse per queste tematiche è enorme serve chiarirne bene i contorni e l’importanza.
1 Hydrogen exploration: a review of global hydrogen accumulations and implications for prospective areas in NW EuropeSMITH, N. J. P. et al.Geological Society, London, Petroleum Geology Conference Series (2005), 6 (1): 349https://doi.org/10.1144/0060349- 2 Welhan, J. A. & Craig, H. 1979. Methane and hydrogen in East Pacific Rise hydrothermal fluids. Geophysical Research Letters, 6(11), 829–831.
- 3 https://doi.org/10.1016/j.earscirev.2020.103140 The occurrence and geoscience of natural hydrogen: A comprehensive review Viacheslav Zgonnik Earth-Science Reviews 203 (2020) 103140
- 4 https://pubs.geoscienceworld.org/msa/elements/article-pdf/16/1/8/4960741/gselements-16-1-8.pdf
- 5 International journal of hydrogen energy 43 (2018) p.19315-19326 Discovery of a large accumulation of natural hydrogen in Bourakebougou (Mali) Alain Prinzhofer et al
Scuola Salesiana.
Luigi Campanella, già Presidente SCI
Già in altre occasioni ho parlato dei Salesiani e della loro capacità di anticipare i tempi. È successo in occasione della raccolta differenziata, della nutraceutica, oggi avviene per il contrasto agli abbandoni scolastici.
Da quasi un secolo a Palermo i Salesiani accompagnano generazioni di studenti attraverso una gestione della scuola “circolare” fondata sulla responsabilità condivisa della comunità educativa. Già la sede, sopravvissuta indenne alla seconda guerra mondiale, rappresentava un impegno: trasformata da spazio di sollazzo di casati in decadenza in scuola ed oratorio. La visione antropocentrica della vita e lo studio dell’economia sono da sempre i suoi connotati primari
La secondaria di primo grado accompagna gli studenti alla scoperta del proprio talento attraverso il dialogo e la proficua relazione fra giovani ed educatori. Ogni allievo cresce attraverso una combinazione di formazione e di educazione alla vita, financo a farlo abituare sin dalle aule alla competizione concorsuale ed ai laboratori professionali. Molta attenzione è anche riservata alle lingue con full immersion nei relativi laboratori, ma in una visione non solo economica, ma anche culturale, così con uno sguardo ad esempio all’arabo, oltre ai tradizionali inglese, francese e spagnolo.

Nella Scuola Secondaria di Secondo Grado multiculturalità, apertura e dialogo con Paesi vicini e lontani sono le coordinate. Sul piano delle software skills, ossia delle competenze trasversali spendibili in qualsiasi ambito di lavoro, è attiva una Sala Confezione Telegiornale. È poi previsto un tempo da dedicare alla lettura ed interpretazione dei social, da un punto di vista grafico e contenutistico. La sala robotica corrisponde perfettamente alle esigenze della didattica 4.0: il confronto continuo con le istituzioni accademiche garantisce la scelta professionale più idonea.
Due altre attività di certo qualificanti riguardano l’educazione al Teatro sia come spettatori che come attori e l’educazione alla legalità. L’alternanza Scuola Lavoro è realizzata in modo nuovo senza creare le fasi di confusione ed incertezza proprie del metodo nella forma attuale ed avviene sotto la guida di CNR, Agenzia delle Entrate, Istituti Finanziari.
Visite culturali, molto innovativa e moderna quella realizzata a Wall Street, e comunicazione sociale completano questo quadro formativo, al tempo stesso tradizionale ed innovativo.
Come si comprende una scuola diversa da quella tradizionale generalmente basata sulla monoculturalitá che funge da base per caratterizzare l’offerta, dimenticando però la multiculturalità che caratterizza la domanda è che se rispettata può fungere da incentivo a superare i momenti difficili e ridurre gli abbandoni.
C’è bisogno della fusione nucleare?
Vincenzo Balzani
(pubblicato su Avvenire-Bo del19 febbraio 2023)
Sia la fissione nucleare (scissione di un nucleo atomico pesante in nuclei più leggeri) che la fusione nucleare (unione tra nuclei leggeri per formare un nucleo più pesante) convertono piccole quantità di massa (m) in enormi quantità di energia (E), come schematizzato dall’ equazione di Einstein E=mc2, dove c indica la velocità della luce (300.000 km/s). Sia la fissione che la fusione nucleare sono state usate per creare armi di incredibile potenza sin dal 1950. La produzione di energia elettrica da fissione nucleare, realizzata per la prima volta nel 1954, è oggi usata in alcuni paesi fra molte polemiche, a causa dei numerosi problemi che la caratterizzano, quali la produzione di scorie radioattive pericolose per decine di migliaia di anni, che non si sa dove collocare.
Nel 1955 è stata preconizzata la possibilità di ottenere entro due decenni energia elettrica dalla fusione nucleare, risolvendo definitivamente il problema energetico su scala mondiale. Questa (fra due decenni …) è stata riproposta più volte dal 1955 ad oggi. In realtà, nonostante i grandi capitali investiti, finora non sono stati fatti passi significativi, a dispetto della spasmodica attesa di politici, economisti e mezzi di comunicazione.
L’episodio più eclatante è avvenuto il 13 dicembre scorso, quando i giornali di tutto il mondo hanno riportato che la National Ignition Facility (NIF) del Laurence Livermore National Laboratory (USA) aveva ottenuto un importantissimo risultato: focalizzando l’energia di 192 laser su una sferetta contenente deuterio e trizio (due isotopi dell’idrogeno), si è provocata in pochi nanosecondi la loro fusione generando una quantità di energia (3,15 MJ), leggermente maggiore di quella iniettata dai laser nella sferetta (2.05 MJ). Da notare, però, che i 192 laser hanno consumato circa 400 MJ, ai quali va aggiunta l’energia usata dalle altre apparecchiature utilizzate nell’esperimento.

Per applicazioni commerciali della fusione nucleare, oltre a generare più energia di quella consumata, si deve vincere un’altra sfida ancora più difficile: costruire un’apparecchiatura che funzioni non per pochi miliardesimi di secondo, ma in modo continuo. Oltre ad altri numerosi problemi tecnici difficili da affrontare, c’è anche quello che il trizio. Si tratta di un gas radioattivo che non esiste in natura, decade con un tempo di semivita di soli 12 anni e si ottiene con una reazione nucleare di un isotopo del litio, dopo averlo arricchito dal 6% al 90% con un costosissimo processo.
Spendere miliardi di dollari nel tentativo di generare elettricità mediante un processo che molti scienziati giudicano irrealizzabile serve solo ad ostacolare il definitivo sviluppo delle energie rinnovabili che, con una frazione di quei finanziamenti, potrebbero risolvere gli ultimi loro problemi e fornire al pianeta energia elettrica senza provocare il cambiamento climatico, senza generare scorie radioattive e senza facilitare la costruzione di armi atomiche. Già, perché è bene ricordare che il compito primario del NIF e degli altri laboratori di questo tipo non è la produzione di energia, ma lo studio della fusione per scopi bellici.