Analisi del 2014

31 Dic

I folletti delle statistiche di WordPress.com hanno preparato un rapporto annuale 2014 per questo blog.

Ecco un estratto:

Il Museo del Louvre riceve 8,5 milioni di visitatori ogni anno. Questo blog è stato visto circa 180.000 volte nel 2014. Se fosse un’esposizione al Louvre, ci vorrebbero circa 8 anni perché lo vedessero altrettante persone.

Clicca qui per vedere il rapporto completo.

A proposito di campo geomagnetico

31 Ott

di Patrizia Esposito

————————————-

Ipotizziamo di dover misurare la temperatura del nostro corpo: fa differenza se mettiamo il termometro direttamente a contatto con la pelle o se lo appoggiamo sopra i vestiti? Lasciamo per un momento la domanda in sospeso e parliamo di una particolare categoria di inquinanti organici, i cosiddetti POPs (Persistent Organic Pollutants).

Tossicità di alcuni POPs. Note: A.C. altamente cancerogeno, C.U. cancerogeni per l'uomo, P.C. probabile cancerogeno, I.S. insufficienza sperimentale.

Fig.1: Tossicità di alcuni POPs. Note: A.C. altamente cancerogeno, C.U. cancerogeni per l’uomo, P.C. probabile cancerogeno, I.S. insufficienza sperimentale.

Si tratta di pesticidi (aldrin, DDT, eptacloro), prodotti industriali (PCB) e sottoprodotti non desiderati di certi processi (diossine e furani), regolamentati (poco efficacemente?) nel loro utilizzo e smaltimento dalla Convenzione di Stoccolma del 2001 e sul banco degli imputati con l’accusa di essere sostanze altamente tossiche per l’ambiente e per l’uomo (figura 1) e responsabili del cambiamento climatico. Le peculiari caratteristiche chimico-fisiche dei POPs li rendono, infatti, persistenti (figura 2) ,bioaccumulabili e trasportabili su lunghe distanze.

Fig.2: Tempo di semivita (tempo necessario affinché la concentrazione di una determinata sostanza si dimezzi) di alcuni POPs nei diversi compartimenti ambientali.

Fig.2: Tempo di semivita (tempo necessario affinché la concentrazione di una determinata sostanza si dimezzi) di alcuni POPs nei diversi compartimenti ambientali.

La proprietà per la quale questi composti si legano ai tessuti adiposi dei vertebrati si chiama lipofilicità e fa sì che questi inquinanti entrino nelle catene alimentari. Mentre è nota come effetto grass-hopper (figura 3) la modalità di trasporto su lunghe distanze, dovuta a determinati valori della tensione di vapore, della costante della legge di Henry e del coefficiente di partizione ottanolo-aria, e che consiste nell’evaporazione di questi composti dall’acqua e dal suolo, nel trasporto in atmosfera e nella loro deposizione su superfici acquatiche e terrestri. In pratica i POPs, nelle zone tropicali e temperate evaporano, subiscono un trasporto atmosferico che segue l’andamento dei meridiani terrestri, condensano nelle zone fredde come i poli e le grandi catene montuose e si accumulano nei vari compartimenti ambientali. Ecco perché si ritrovano in alte concentrazioni in zone lontane da quelle di produzione.

Fig.3: Effetto Grass-Hopper

Fig.3: Effetto Grass-Hopper

Sic stantibus rebus, i POPs rivestono il nostro pianeta come una pellicola e sono riconosciuti come una concausa dell’effetto serra. E se, oltre ad avere un’influenza sul clima globale, avessero una qualche interazione con il campo magnetico terrestre? Di preciso: le misurazioni del campo geomagnetico avrebbero gli stessi valori se non ci fossero i POPs? La risposta alla domanda iniziale è abbastanza palese: non è lo stesso appoggiare il termometro sui vestiti o direttamente sulla pelle. La risoluzione del quesito finale invece non è altrettanto immediata. Ma è lecito pensare che le misurazioni del campo magnetico possano essere alterate dalla presenza ubiquitaria di questi composti e che l’indebolimento del campo stesso (del quale si continua a parlare e sparlare) sia solo apparente.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Fusione Nucleare tra 10 anni?

20 Ott

Diverse volte su queste pagine ci siamo fermati a discutere il cosiddetto scenario energetico per i prossimi anni. Come è noto a tutti, con una società sempre più energivora e la popolazione in continua crescita, tra non molto avremo un sostanziale problema di disponibilità energetica. Tutto questo è poi aggravato da quella che per molto tempo abbiamo fatto finta di ignorare, cioè la questione ambientale. Sfruttare in modo non controllato le nostre risorse ci porta ad esaurire e compromettere l’equilibrio dell’ecosistema Terra, equilibrio ormai assolutamente poco stabile a causa del contributo determinante proprio dell’attività umana.

Parlando in generale di scenario energetico, ed in particolare dei due orizzonti temporali più citati, cioè 2020 e 2050, in questo post avevo riportato un’intervista che mi era stata fatta al termine di un convegno su queste tematiche in cui avevo partecipato proprio esponendo la situazione nucleare:

Scenario energetico 2050

Per quanto riguarda la fissione, anche se nella concezione comune, soprattutto oggi, queste centrali sono viste come sinonimo di incidenti, c’è da sempre una notevole attività di ricerca proprio per migliorare le prestazioni e incrementare la sicurezza dei reattori.

Fissione a parte, la vera chimera del sostentamento energetico è da sempre la reazione di fusione per produzione energetica.

A parte le notevoli discussioni fatte per discutere i processi LENR a bassa energia:

E-cat meraviglia o grande bufala?

Ancora sulla fusione fredda

Abbiamo visto in alcuni articoli:

Sole: quanta confusione!

La stella in laboratorio

Studiare le stelle da casa!

Fusione, ci siamo quasi?

quanto possa essere difficile realizzare questi reattori che produrrebbero energia senza rilasciare praticamente scorie dirette. Come visto, anche se questo è il processo che utilizzano le stelle per produrre energia, applicare questi concetti in modo controllato sulla Terra non è semplice per problematiche tecnologiche ancora oggi assolutamente aperte. Come sappiamo, la scelta del sistema di contenimento del plasma è uno dei problemi aperti della questione. Diversi gruppi sono da decenni impegnati nella ricerca della miglior soluzione, applicabile e che consenta di raggiungere un bilancio positivo del sistema, cioè produrre più energia di quella che viene richiesta dal reattore per funzionare.

Perchè torno a parlare di questi argomenti? Vi mostro prima di tutto il link dove è possibile leggere un annuncio che sta facendo discutere moltissimo in queste ore:

Lockheed, Fusione

Si tratta di una “news” scritta sul sito internet della Lockheed Martin, società che tutti conoscono se non altro per i suoi sistemi aeronautici. L’annuncio è molto semplice, la Lockheed sostiene di poter arrivare nel giro di 10 anni alla realizzazione commerciale di reattori a fusione portatili, cioè con dimensioni notevolmente inferiori a quelle dei reattori oggi in fase di studio. Questi sistemi potrebbero addirittura essere montati su un camion ed essere trasportati producendo energia in modo mobile. Come viene spiegato, il rendimento di un reattore a fusione sarebbe fino a 5-6 volte maggiore di quelli oggi utilizzati e che sfruttano la fissione.

E’ possibile questo?

Cerchiamo di ragionare insieme. Premetto che moltissimi giornali e siti internet, ecco un esempio:

Repubblica, Lockheed

hanno pubblicato questa notizia con toni enfatici e annunciando alla rivoluzione energetica. Se così fosse, nei nostri articoli precedenti avremmo sbagliato tutto, così come nell’intervista in cui parlavo di fusione che non sarebbe arrivata, se non in fase di sperimentazione (forse) per il 2050. Ora, la Lockheed parla di “realizzazione” nel giro di 10 anni.

Chi sta sbagliando?

Come nostra abitudine, vi dico subito che non voglio essere scettico per partito preso, ma voglio che i miei ragionamenti siano chiari, o almeno pubblici, per tutti. Tra notevoli difficoltà e con costi altissimi, stiamo cercando di realizzare la macchina ITER. Questo reattore sperimentale darebbe la possibilità di fare studi fondamentali per il confinamento del plasma di fusione. Si tratta, come anticipato, di un reattore per ricerca cioè, detto in parole veramente povere, “dobbiamo provarci e vedere cosa succede”. Immaginate la lunga trafila che si prospetta, si realizza un reattore di ricerca, si fa ricerca, se le cose vanno bene si pensa al futuro, cioè ad un qualcosa che dovrebbe, come prototipo, produrre energia per scopi commerciali. Tempi lunghissimi e investimenti, sia in termini economici che di ricerca, lunghissimi.

La Lockheed nel giro di 10 anni dovrebbe avere un reattore da montare su un camion? Quale è stato fino ad oggi il ruolo di questa società nel campo della fusione? Non esiste uno, e dico uno, articolo scientifico pubblicato dalla Lockheed sulla fusione nucleare. Nella pagina che vi ho linkato all’inizio si parla di test tra un anno e produzione entro 10 anni. Ma di cosa? Come vedete, non c’è uno straccio di affermazione scientifica su cui discutere. Stiamo parlando di un qualcosa che nessuno conosce? Di un confinamento particolare? Di altro? Eppure, parliamo di una società grande e da sempre impegnata, anche se in settori completamente diversi, in ambito ricerca. Questo per dire due cose: fino ad oggi la Lockheed non ha mai parlato di fusione e, almeno sulla carta, conosce molto bene come la ricerca avviene e quali passi deve fare.

Cosa penso di questa storia?

Non voglio mettere un punto alla questione ma, al momento, sono fortemente scettico. Se vi fosse una scoperta fondamentale della scienza, ci sarebbero articoli pubblicati. Se l’applicazione sfruttasse processi classici, cioè già testati, ma in modo diverso, ci sarebbero riferimenti scientifici nell’annuncio. Niente di questo è presente. Un comunicato del genere è pesante perchè, qualora confermato, rimescolerebbe tutte le carte del settore energetico e sarebbe un qualcosa di veramente sensazionale per il nostro futuro energetico.

Personalmente, non capisco i toni di molti giornali, alcuni anche scientifici, che hanno accolto questa notizia come una bomba mediatica senza chiedersi come questa rivoluzione dovrebbe avvenire. Ad oggi, ma sarà un mio limite, io non capisco come questi signori vorrebbero fare la fusione. Alla luce di questo, ripeto “oggi”, sono fortemente scettico sull’annuncio ma, come sempre, resto in attesa di sviluppi pe capire meglio.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

La bomba più potente mai creata!

20 Ott

Eccoci di nuovo qui. Scusate, come al solito, la mia latitanza ma, in questi giorni, sono un po’ lontano dall’Italia e con qualche problema di fuso orario, oltre ai sempre presenti impegni lavorativi.

Detto questo, dopo questi due post:

Il suono del vinile

Il suono più forte mai udito

c’è un’ultima domanda che mi è stata rivolta via mail e che vorrei condividere con tutti perchè, a mio avviso, potrebbe essere molto interessante. La domanda fatta è, se vogliamo, molto semplice: qual è la bomba atomica più potente mai creata dall’uomo?

Premetto subito che il mio post non vuole urtare il pensiero di nessuno. Non è questa la sede per discutere tra chi è a favore dell’energia atomica e chi no, chi pensa una cosa e chi un’altra, ecc.. Lo scopo di questo post vuole essere puramente scientifico o, lasciatemi dire, nonostante l’argomento, di curiosità.

Bene, la bomba atomica più potente, e vedremo cosa significa, mai realizzata dall’uomo è la Bomba Zar, nome in codice Big Ivan, sviluppata in unione sovietica. Premetto subito che non si è trattato di un ordigno di offesa ma solo di un test militare. Anzi, come molti storici sotengono, più che un test militare, la costruzione e il seguente utilizzo della bomba è stato più che altro un messaggio di propaganda dell’ex-URSS per dimostrare ai suoi cittadini, e al mondo intero, cosa la nazione fosse in grado di realizzare.

Dal punto di vista tecnico, la bomba Zar, nella sua concezione iniziale, era una bomba a 3 stadi. Nel nucleo più interno il processo di fissione veniva fatto partire per fornire energia al secondo stadio in cui si aveva un’amplificazione grazie alla fusione di atomi di idrogeno, energia che serviva a sua volta per innescare una seconda fusione nel terzo e più esterno strato della bomba.

A livello progettuale, la bomba Zar era in grado di sviluppare una potenza di 100 Mt, cioè 100 milioni di tonnellate di TNT equivalente. A quanto equivale questa energia? Per farvi un esempio noto a tutti, l’atomica sganciata dagli USA su Hiroshima, Little Boy, aveva una potenza 3125 volte inferiore. Se potessimo far esplodere simultaneamente tutti gli esplosivi convenzionali utilizzati nella seconda guerra mondiale, l’esplosione sarebbe ancora 10 volte inferiore a quella della Bomba Zar.

Questo potentissimo ordigno venne sviluppato dall’Unione Sovietica da un team di fisici capeggiati da Andrej Sacharov, una delle menti più brillanti del XX secolo. Dopo aver contribuito in modo fondamentale allo sviluppo della bomba a idrogeno, Sacharov iniziò una lunga battaglia a favore dei diritti civili e contro l’uso dell’energia nucleare negli armamenti. Proprio questa sua attività gli valse il premio nobel per la pace.

Tornando a parlare dell’ordigno, per motivi di sicurezza, nell’unico test condotto, venne realizzata una versione depotenziata della Bomba Zar. A differenza del progetto iniziale, il terzo stadio venne sostituito da piombo, materiale in grado di rallentare e schermare le radiazioni prodotte dalla bomba. Questa versione poteva però raggiungere la sempre impressionante energia di 50 Mt. Il test venne poi eseguito il 30 Ottobre 1961, sull’isola di Novaja Zemlja, una località sperduta a nord del Circolo Polare.

Nonostante l’enorme potenza, la sostituzione del terzo stadio con piombo diminuì notevolmente la radiazione emessa attraverso il fallout successivo alla detonazione. Proprio per questo motivo, considerando il rapporto potenza/radiazione, la bomba Zar è anche stata l’ordigno nucleare più “pulito”.

Quali sono gli effetti di una detonazione del genere? Prima di tutto, consideriamo che la bomba venne fatta esplodere a 4000 metri dal suolo. Nonostante questo, la successiva onda sismica provocata dalla deflagrazione fece 3 volte il giro del pianeta. Testimoni a 1000 Km di distanza dal punto, poterono vedere chiaramente il lampo anche se il cielo era notevolmente nuvoloso. Altri testimoni riportarono di aver percepito il calore dell’onda sulla pelle fino a 270 Km di distanza. Praticamente tutto quello che era presente fino a 35 Km dal centro venne completamente spazzato via. Se ancora non vi basta, a 900 Km di distanza, in Finlandia, alcune case riportarono danni a porte e finestre provocati dall’onda d’urto dell’esplosione.

Ripeto, questa era la versione depotenziata di un un fattore 2 rispetto al reale progetto.

Spero che quanto raccontato sia sufficiente a far capire le potenzialità di questi ordigni. Ripeto, non voglio discutere se è giusto o meno costruire, o saper realizzare, bombe di questo tipo. Permettetemi però di dire, senza offesa per nessuno, che dal punto di vista tecnico è straordinario pensare a quanta energia possa essere sviluppata da un sistema di questo tipo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il suono più forte mai udito!

12 Ott

Dopo questo articolo:

Il suono del vinile

vi riporto la seconda domanda che mi è stata posta in questi giorni via mail da alcuni nostri lettori. La domanda in realtà è una richiesta di conferma circa un articolo pubblicato da Pianeta Blu News, che cito senza problemi e che, come già detto, vi consiglio di visitare, che in questo pezzo:

Pianeta Blu, Krakatoa

afferma che il suono più forte mai udito in epoca moderna dall’uomo è quello che si è generato in occasione dell’eruzione del vulcano Krakatoa il 27 agosto 1883.

Vi premetto subito che quanto affermato nell’articolo è assolutamente corretto. In occasione di questa eruzione esplosiva, venne generato un boato che oggi possiamo stimare di 172 decibel fino a 160 Km di distanza.

Per darvi una stima di quanto potente sia un rumore di 172 decibel proviamo a fare degli esempi pratici utili per confrontare questi valori espressi in una scala poco familiare ai più.

Per prima cosa, se vogliamo essere formali dal punto di vista scientifico, in acustica si utilizzano i dB_SPL per indicare il livello di pressione acustica. Questa definizione è alquanto intuitiva se pensiamo che i suoni che noi udiamo sono semplicemente prodotti dalla pressione dell’aria che giuge ai nostri timpani mettendoli in vibrazione. Utilizzando questa unità di misura, wikipedia riporta una tabella molto istruttiva con diverse fonti sonore accompagnate con il corrispondente suono in dB_SPL:

dBSPL Sorgente
300 Eruzione del Krakatoa nel 1883
250 All’interno di un tornado
180 Razzo al decollo
140 Colpo di pistola a 1 m, auto di Formula 1
130 Soglia del dolore
125 Aereo al decollo a 50 m
120 Sirena,
110 Motosega a 1 m
100 Discoteca, concerto rock
90 Urlo, fischietto
80 Camion pesante a 1 m
70 Aspirapolvere a 1 m; radio ad alto volume
60 Ufficio rumoroso, radio, conversazione
50 Ambiente domestico; teatro a 10 m
40 Quartiere abitato, di notte
30 Sussurri a 1 m
20 Respiro umano
0 Soglia dell’udibile
-9 Camera anecoica

Considerando che la scala in dB è una scala logaritmica, c’è una notevole differenza, ad esempio, tra l’eruzione del Krakatoa e il rumore prodotto da un razzo al decollo, facilmente identificabile come un suono di notevole intensità.

Detto questo, sempre per farvi capire il livello del suono prodotto dall’esplosione del Krakatoa, pensate che il boato venne udito chiaramente fino a 5000 km di distanza. Chiunque si fosse trovato ad una distanza inferiore ai 100Km, come accaduto ad alcuni occupanti di una nava di passaggio nei pressi dell’isola, avrebbe avuto danneggiamenti permanenti ai timpani.

Anche se l’eruzione del vulcano non causò morti direttamente, le conseguenze dell’esplosione furono devastanti. Ad oggi, si stimano circa 36000 morti dovuti in larga parte al successivo Tsunami, di 45 metri, che si creò.

Esistono anche delle curiosità molti interessanti sull’eruzione del Krakatoa. Durante l’esplosione, vennero riversati in atmosfera 21 kilometri cubi di roccia e fumi. Queste emissioni, modificarono a lungo non solo la zona dell’eruzione, ma portarono conseguenze all’intero pianeta. Per farvi un esempio, l’illustratore britannico William Ashcroft notò in quel periodo che i colori dei tramonti visibili dalla sua cittadina, vicina a Londra, erano cambiati. Il motivo di questo è oggi molto comprensibile. L’enorme quantità di sedimenti rilasciati in atmosfera, provocarono effetti ottici alla luce solare, visibili chiaramente durante il tramonto che prese colori più accesi verso il rosso. Ashcroft dipinse diversi quadri dei tramonti dell’epoca e, ancora oggi, queste illustrazioni sono studiate dai climatologi per ottenere informazioni circa l’eruzione del vulcano Krakatoa.

Ecco una delle illustrazioni di William Ashcroft:

Opera di William Ashcroft

Opera di William Ashcroft

Solo per concludere, secondo alcuni esperti, anche un altro famoso dipinto riporterebbe colorazioni molto accese non per enfatizzare il tema trattato ma solo perchè quelli erano i colori visibili al momento della realizzazione. Sapete quale? Questo:

Munch, L'Urlo

Munch, L’Urlo

L’urlo di Munch, realizzato nel 1893, 10 anni dopo l’eruzione, sarebbe una “fotografia” dei reali colori del tramonto norvegese, resi più brillanti dall’eruzione del Krakatoa.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Il suono del vinile

12 Ott

In questi giorni, ho ricevuto diverse mail da parte dei nostri lettori, tutte con domande veramente interessanti. Mi scuso da subito con queste persone se non ho risposto immediatamente ma, viste le domande, preferisco pubblicare una serie di post “corti” con le domande e le risposte. Credo che questi argomenti, proprio per la loro particolarità, potrebbero essere di interesse anche per altri lettori.

La prima domanda è apparentemente molto semplice: “come funziona un disco in vinile?”

Ovviamente, tutti conoscono i dischi in vinile e quelli più avanti con l’età, ma neanche troppo, avranno sicuramente cari ricordi legati a questi oggetti che, negli ultimi anni, anche se questo non è esattamente vero come vedremo in seguito, sono stati sostituiti da altri supporti tra cui CD e memorie di massa portatili.

Rispondiamo subito alla domanda, come fa un disco a suonare?

Detto molto semplicemente, i dischi hanno un solco a spirale che parte dall’interno e arriva fino al bordo. Questo solco presenta delle irregolarità ben precise. Quando la puntina passa nel solco, viene messa in vibrazione appunto da queste irregolarità e queste vibrazioni vengono trasformate in un suono.

IMG_1612 grado play

Semplice!

Come tutti sanno, esistono diverse tipologie di dischi. L’ultima e più diffusa è sicuramente quella dei 33 giri. Questo numero, in realtà 33 e 1/3, indica il numero di giri al minuto fatti dal disco sul piatto. I dischi a 33 giri hanno una struttura detta a microsolco e in un centimetro di raggio si trovano ben 275 solchi.

Come potete facilmente immaginare, la combinazione di velocità di rotazione, numero di solchi e diametro definisce in prima battuta la lunghezza della registrazione che è possibile contenere in un singolo disco.

Per darvi un’idea, i 33 giri, che permettono una durata di 30 minuti per lato, hanno sostituito i 45 giri su cui è possibile registrare solo per la metà del tempo. Se torniamo ancora più indietro nel tempo, i 78 giri consentivano registrazioni di soli 3 minuti!

Anche il materiale utilizzato per i dischi ha subito diverse evoluzioni nel corso del tempo e alla fine si è giunti al vinile perchè questo materiale consente una buona qualità del solco accompagnata anche con una discreta resistenza meccanica e di durata nel tempo.

Come viene realizzato un vinile?

In realtà, il processo di produzione è molto semplice. Si crea un “master” di registrazione che altro non è che il negativo del vinile che dobbiamo creare. Il master viene poi messo in contatto con il vinile per creare la struttura a microsolco e produrre il disco.

Oggi, dopo qualche anno di assenza, i dischi in vinile stanno tornando sul mercato per diversi motivi. Prima di tutto, secondo molti, la qualità del suono del vinile non è assolutamente paragonabile con quella dei CD. Inutile che stia qui a raccontarvi le innumerevoli disquisizioni tra banda passante e frequenze di taglio tra i cultori dell’ascolto musicale. Inoltre, un disco in vinile assicura, se ben mantenuto, una durata notevole nel tempo.

Esistono poi alcuni motivi più artistici al matenimento del vinile. Prima di tutto, la superficie maggiore della copertina dei dischi permette la creazione di vere e proprie opere d’arte per i collezionisti. Solo per darvi un’idea, esiste un mercato enomre di appassionati che scambiano e acquistano dischi in vinile con cifre che raggiungono numeri da capogiro!

Il 33 giri più costoso al mondo e “yesterday and today” dei Beatles nella Butcher Cover che vedete nella parte bassa di questa immagine:

Nella parte bassa, "Yesterday and Today" dei Beatles nella Butcher Cover

Nella parte bassa, “Yesterday and Today” dei Beatles nella Butcher Cover

Dimenticavo, il valore del disco è stimato intorno ai 45000 dollari!

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Un po’ di ironia ci vuole ….

9 Ott

Dopo aver parlato in tantissimi post dei numerosissimi complotti attualmente in atto nei confronti della povera popolazione mondiale che non aspetta altro che essere sterminata da lochi gruppi di potere, facciamo un po’ di sana ironia. Spero che nessuno si offenda, ma quando ci vuole ci vuole.

Finalmente venuto alla luce un nuovo complotto ordinto per dimezzare la popolazione mondiale. Eccolo a voi in anteprima:

10687169_10152675702287459_3417323034307050830_n

Guardate questa foto. Questo tubo è stato ridotto così dall’OSSIGENO secondo un fenomeno che si chiama ossidazione. LORO vogliono farci credere che l’ossigeno sia innocuo invece se fa questo al ferro pensate cosa fa ai nostri polmoni. Vi stanno ingannando, NON RESPIRATE!!!

Purtroppo non conosco l’autore di questo importantissimi scoop ma non possiamo che ringraziarlo per aver mostrato al mondo il complotto dell’ossigeno.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Charged Lepton Flavour Violation

6 Ott

Oggi vorrei mettere da parte UFO, complotti, scie chimiche, fine del mondo, ecc., per tornare a parlare di scienza pura. Lo vorrei fare con questo articolo spceifico, per trattare nuovamente lo stato attuale della ricerca e mostrarvi quali sono i settori più “caldi” e più promettenti nel panorama della fisica delle alte energie.

Per prima cosa, in diversi articoli abbiamo parlato di modello standard:

Dafne e KLOE: alta energia in Italia

E parliamo di questo Big Bang

Universo: foto da piccolo

Ascoltate finalmente le onde gravitazionali?

Il primo vagito dell’universo

L’espansione metrica dell’universo

Come abbiamo visto, il Modello Standard è quella teoria che oggi abbiamo definito e che consente di prevedere molte delle proprietà che osserviamo per le particelle. Vi ricordo che in fisica parliamo sempre di modello proprio per indicare un qualcosa in grado di prevedere le proprietà sperimentali.

Anche se poco conosciuto ai non addetti ai lavori, il Modello Standard è stato molto citato parlando del Bosone di Higgs. Come tutti sanno, il nostro modello, che ha resistito per decenni, presenta una particolare mancanza: non è in grado di prevedere l’esistenza della massa delle particelle. Come correggere questa grave imprecisione? Che le particelle abbiano massa è noto a tutti e facilmente dimostrabile anche guardando la materia che ci circonda. Bene, per poter correggere questo “errore” è possibile inserire quello che è noto come Meccanismo di Higgs, una correzione matematica che consente al modello standard di poter prevedere l’esistenza della massa. Bene, dunque ora è tutto OK? Assolutamente no, affinché il meccanismo di Higgs possa essere inserito è necessario che sia presente quello che viene chiamato un Campo di Higgs e, soprattutto, un bosone intermedio che, neanche a dirlo, si chiama Bosone di Higgs.

Capite dunque perchè la scoperta sperimentale del Bosone di Higgs è così importante?

Del bosone di Higgs, di LHC e delle sue conseguenze abbiamo parlato in questi articoli:

Bosone di Higgs … ma cosa sarebbe?

L’universo è stabile, instabile o meta-stabile?

Hawking e la fine del mondo

2012, fine del mondo e LHC

A questo punto si potrebbe pensare di aver raggiunto il traguardo finale e di aver compreso tutto. Purtroppo, o per fortuna a seconda dei punti di vista, questo non è assolutamente vero.

Perchè?

Come è noto a tutti, esistono alcuni problemi aperti nel campo della fisica e su cui si discute già da moltissimi anni, primo tra tutti quello della materia oscura. Il nostro amato Modello Standard non prevede assolutamente l’esistenza della materia oscura di cui abbiamo moltissime verifiche indirette. Solo per completezza, e senza ripetermi, vi ricordo che di materia e energia oscura abbiamo parlato in questi post:

La materia oscura

Materia oscura intorno alla Terra?

Flusso oscuro e grandi attrattori

Troppa antimateria nello spazio

Due parole sull’antimateria

Antimateria sulla notra testa!

L’esistenza della materia oscura, insieme ad altri problemi poco noti al grande pubblico, spingono i fisici a cercare quelli che vengono chiamati Segnali di Nuova Fisica, cioè decadimenti particolari, molto rari, in cui si possa evidenziare l’esistenza di particelle finora sconosciute e non contemplate nel modello standard delle particelle.

Per essere precisi, esistono moltissime teorie “oltre il modello standard” e di alcune di queste avrete già sentito parlare. La più nota è senza ombra di dubbio la Supersimmetria, o SuSy, teoria che prevede l’esistenza di una superparticella per ogni particella del modello standard. Secondo alcuni, proprio le superparticelle, che lasciatemi dire a dispetto del nome, e per non impressionarvi, non hanno alcun super potere, potrebbero essere le componenti principali della materia oscura.

Prima importante riflessione, la ricerca in fisica delle alte energie è tutt’altro che ad un punto morto. La scoperta, da confermare come detto negli articoli precedenti, del Bosone di Higgs rappresenta un importante tassello per la nostra comprensione dell’universo ma siamo ancora molto lontani, e forse mai ci arriveremo, dalla formulazione di una “teoria del tutto”.

Detto questo, quali sono le ricerche possibii per cercare di scoprire se esiste veramente una fisica oltre il modelo Standard delle particelle?

Detto molto semplicemente, si studiano alcuni fenomeni molto rari, cioè con bassa probabilità di avvenire, e si cerca di misurare una discrepanza significativa da quanto atteso dalle teorie tradizionali. Cosa significa? Come sapete, le particelle hanno una vita molto breve prima di decadere in qualcos’altro. I modi di decadimento di una data particella possono essere molteplici e non tutti avvengono con la stessa probabilità. Vi possono essere “canali”, cioè modi, di decadimento estremamente più rari di altri. Bene, alcuni di questi possono essere “viziati” dall’esistenza di particelle non convenzionali in grado di amplificare questo effetto o, addirittura, rendere possibili modi di decadimento non previsti dalla teoria convenzionale.

L’obiettivo della fisica delle alte energie è dunque quello di misurare con precisione estrema alcuni canali rari o impossibili, al fine di evidenziare segnali di nuova fisica.

Ovviamente, anche in questo caso, LHC rappresenta un’opportunità molto importante per questo tipo di ricerche. Un collisore di questo tipo, grazie alla enorme quantità di particelle prodotte, consente di poter misurare con precisione moltissimi parametri. Detto in altri termini, se volete misurare qualcosa di molto raro, dovete prima di tutto disporre di un campione di eventi molto abbondante dove provare a trovare quello che state cercando.

Un esempio concreto, di cui abbiamo parlato in questo post, è l’esperimento LhCB del CERN:

Ancora sullo squilibrio tra materia e antimateria

Una delle ricerche in corso ad LhCB è la misura del decadimento del Bs in una coppia di muoni. Niente paura, non voglio tediarvi con una noiosa spiegazione di fisica delle alte energie. Il Bs è un mesone composto da due quark e secondo il modello standard può decadere in una coppia di muoni con una certa probabilità, estremamente bassa. Eventuali discordanze tra la probabilità misurata di decadimento del Bs in due muoni e quella prevista dal modello standard potrebbe essere un chiaro segnale di nuova fisica, cioè di qualcosa oltre il modello standard in grado di modificare queste proprietà.

Misurare la probabilità di questo decadimento è qualcosa di estremamente difficile. Se da un lato avete una particella che decade in due muoni facilmente riconoscibili, identificare questo decadimento in mezzo a un mare di altre particelle è assai arduo e ha impegnato moltissimi fisici per diverso tempo.

Purtroppo, o per fortuna anche qui, gli ultimi risultati portati da LhCB, anche in collaborazione con CMS, hanno mostrato una probabilità di decadimento paragonabile a quella attesa dal modello standard. Questo però non esclude ancora nulla dal momento che con i nuovi dati di LHC sarà possibile aumentare ancora di più la precisione della misura e continuare a cercare effetti non previsti dalla teoria.

Tra gli altri esperimenti in corso in questa direzione, vorrei poi parlarvi di quelli per la ricerca della “violazione del numero Leptonico”. Perdonatemi il campanilismo, ma vi parlo di questi semplicemente perchè proprio a questo settore è dedicata una mia parte significativa di ricerca.

Cerchiamo di andare con ordine, mantenendo sempre un profilo molto divulgativo.

Come visto negli articoli precedenti, nel nostro modello standard, oltre ai bosoni intermedi, abbiamo una serie di particelle elementari divise in quark e leptoni. Tra questi ultimi troviamo: elettrone, muone, tau e i corrispondendi neutrini. Bene, come sapete esistono delle proprietà in fisica che devono conservarsi durante i decadimenti di cui abbiamo parlato prima. Per farvi un esempio noto a tutti, in un decadimento dobbiamo mantenere la carica elettrica delle particelle, se ho una particella carica positiva che decade in qualcosa, questo qualcosa deve avere, al netto, una carica positiva. La stessa cosa avviene per il numero leptonico, cioè per quella che possiamo definire come un’etichetta per ciascun leptone. In tal caso, ad esempio, un elettrone non può decadere in un muone perchè sarebbe violato, appunto, il numero leptonico.

Facciamo un respiro e manteniamo la calma, la parte più tecnica è già conclusa. Abbiamo capito che un decadimento in cui un leptone di un certo tipo, muone, elettrone o tau, si converte in un altro non è possibile. Avete già capito dove voglio andare a finire? Se questi decadimenti non sono possibili per la teoria attuale, andiamo a cercarli per verificare se esistono influenze da qualcosa non ancora contemplato.

In realtà, anche in questo caso, questi decadimenti non sono del tutto impossibili, ma sono, come per il Bs in due muoni, fortemente soppressi. Per farvi un esempio, l’esperimento Opera dei Laboratori Nazionali del Gran Sasso, misura proprio l’oscillazione dei neutrini cioè la conversione di un neutrino di un certo tipo in un altro. Ovviamente, appartendendo alla famiglia dei leptoni, anche i neutrini hanno un numero leptonico e una loro trasformazione da un tipo all’altro rappresenta una violazione del numero leptonico, quella che si chiama Neutral Lepton Flavour Violation. Per la precisione, questi decadimenti sono possibili dal momento che, anche se estremamente piccola, i neutrini hanno una massa.

Bene, la ricerca della violazione del numero Leptonico in particelle cariche, è uno dei filoni più promettenti della ricerca. In questo settore, troviamo due esperimenti principali che, con modalità diverse, hanno ricercato o ricercheranno questi eventi, MEG a Zurigo a Mu2e a Chicago.

Mentre MEG ha già raccolto molti dati, Mu2e entrerà in funzione a partire dal 2019. Come funzionano questi esperimenti? Detto molto semplicemente, si cercano eventi di conversione tra leptoni, eventi molto rari e dominati da tantissimi fondi, cioè segnali di dcadimenti più probabili che possono confondersi con il segnale cercato.

Secondo il modello standard, questi processi sono, come già discusso, fortemente soppressi cioè hanno una probabilità di avvenire molto bassa. Una misura della probabilità di decadimemto maggiore di quella attesa, sarebbe un chiaro segnale di nuova fisica. Detto questo, capite bene perchè si parla di questi esperimenti come probabili misure da nobel qualora i risultati fossero diversi da quelli attesi.

L’esperimento MEG ha già preso moltissimi dati ma, ad oggi, ha misurato valori ancora in linea con la teoria. Questo perchè la risoluzione dell’esperimento potrebbe non essere sufficiente per evidenziare segnali di nuova fisica.

A livelo tecnico, MEG e Mu2e cercano lo stesso effetto ma sfruttando canali di decadimento diverso. Mentre MEG, come il nome stesso suggerisce, cerca un decadimento di muone in elettrone più fotone, Mu2e cerca la conversione di muone in elettrone senza fotone ma nel campo di un nucleo.

Ad oggi, è in corso un lavoro molto specifico per la definizione dell’esperimento Mu2e e per la scelta finale dei rivelatori da utilizzare. Il gruppo italiano, di cui faccio parte, è impegnato in uno di questi rivelatori che prevede la costruzione di un calorimetro a cristallo che, speriamo, dovrebbe raggiungere risoluzioni molto spinte ed in grado di evidenziare, qualora presenti, eventuali segnali di nuova fisica.

Concludnedo, la ricerca nella fisica delle alte energie è tutt’altro che morta ed è sempre attiva su molti fronti. Come detto, molti sforzi sono attualmente in atto per la ricerca di segnali di nuova fisica o, come noi stessi li abbiamo definiti, oltre il modello standard. Detto questo, non resta che attendere i prossimi risultati per capire cosa dobbiamo aspettarci e, soprattutto, per capire quanto ancora poco conosciamo del mondo dell’infinitamente piccolo che però regola il nostro stesso universo.

 

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.

Automobili stampate in 3D!

2 Ott

Solo qualche tempo fa, avevamo parlato in dettaglio delle stampanti 3D:

Due parole sulla stampa in 3D

Come visto, questi strumenti, che possono esssere considerati ancora in fase prototipale, offrono delle soluzioni uniche con margini di applicazione possibili nei settori più disparati. Dal mio punto di vista, considero questi oggetti ancora in fase di prototipo non per le applicazioni già in corso ma perchè, molto spesso, la loro esistenza è poco conosciuta e perchè ancora non abbiamo sfruttato al massimo le loro potenzialità.

Proprio per questo motivo, oggi vorrei commentare con voi un articolo davvero molto interessante. Solo qualche giorno fa, i giornali hanno riportato qualcosa di impensabile fino ad ora, un’applicazione davvero entusiasmente della stampa 3D con cui è stato realizzato un prototipo di automobile che tra poco, con buona probabilità, verrà messo in commercio.

Attenzione però, al solito, alcune testate hanno riportato la notizia in modo errato definendo questa applicazione come la “prima” automobile stampata in 3D. Per comprendere meglio, diamo qualche dettaglio aggiuntivo.

Già nel 2010, negli Stati Uniti era stata realizzata quella che possiamo definire la prima automobile dotata di carrozzeria stampata in 3D. Il prototipo in questione, perché di questo si tratta, si chiamava Urbee. A riprova, vi riporto un articolo del Sole 24 ore del 3 Novembre 2010:

Sole 24 ore, Urbee

Questa è la foto della Urbee:

Urbee, la prima vettura in assoluto stampata in 3D

Urbee, la prima vettura in assoluto stampata in 3D

Bene, perchè allora a distanza di 4 anni la stessa applicazione fa ancora notizia? Il primo motivo è nazionalista. La notizia di questi giorni è, ripeto, di un’automobile stampata in 3D e presentata a Chicago su progetto di un designer italiano che si chiama Michele Anoè. Senza indugio, vi mostro subito le foto di questa automobile che si chiama invece STRATI:

La Strati

La Strati

Detto questo, capite subito perché, giustamente in parte, i giornali italiani hanno dato molto risalto alla notizia. C’è anche da dire che il progetto ha partecipato ad una selezione a livelo mondiale in cui il nostro designer è arrivato primo tra oltre 200 contendenti e per questo motivo la Strati è stata realizzata e presentanta. Ma, oltre a questo, esistono anche delle particolarità tecnico-commerciali che rendono la notizia importante. Al contrario della Urbee, la carrozzeria della Strati è stata stampata tutta in un volta. Il risultato ottenuto è simile a quello dei modellini che si acquistano nei negozi di giocattoli in cui i singoli pezzi sono uniti da piccole giunzioni di plastica. Ecco una foto della lavorazione della Strati:

Lavorazione della Strati

Lavorazione della Strati

Dopo il processo di stampa, i pezzi vengono fresati per rimuovere le parti di supporto necessarie durante la stampa e il tutto può essere assemblato molto rapidamente. Ecco l’ulteriore deffirenza tra le due automobili, per realizzare una Strati occorrono solo 44 ore di lavorazione. Un tempo record per ottenere un oggetto pronto e realmente funzionante.

Oltre a questo, come anticipato, la Strati verrà ora prodotta e, lentamente, realizzata in serie dalla Local Motor. Inutile dire che questa utomobile è dotata di un motore elettrico tra l’altro assolutamnete commerciale. Il propulsore utilizzato è infatti lo stesso della Renault Twizy. I consumi dichiarati per questo primo prototipo sono assolutamente degni di nota, 65 Km/h come velocità di picco con un’autonomia di 200 Km a ricarica.

Il prezzo?

Considerando che parliamo sempre di una macchina elettrica, il prezzo è più o meno in linea con le altre auto del settore, tra i 18000 e i 34000 dollari. Certo, considerando che tutto il processo di lavorazione delle parti esterne avviene mediante una stampante 3D in 44 ore, permettemi di dire che il costo, forse, è un po’ eccessivo. Molto probabilmente però, ci saranno margini di manovra dal punto di vista commerciale. Parliamo di un reale prototipo su cui non è ancora partita la produzione in serie e sul quale sono montati pezzi provenienti da diversi fornitori.

Concludendo, la Strati, oltre ad essere disegnata da un italiano, rappresenta un notevole salto avanti per la stampa 3D che lascia il mondo dei prototipi con grandi dimensioni per approdare, forse, a livello commerciale. Ripeto quello che ho scritto anche nel precedente articolo, la stampa 3D ci riserverà ancora molte sorprese per il futuro e, grazie ad un incremento dell’utilizzo e della ricerca, potrà realizzare oggetti a basso costo e larga diffusione.

Psicosi 2012. Le risposte della scienza”, un libro di divulgazione della scienza accessibile a tutti e scritto per tutti. Matteo Martini, Armando Curcio Editore.