L'informazione non è un optional, ma è una delle condizioni essenziali dell'esistenza dell'umanità. La lotta per la sopravvivenza, biologica e sociale, è una lotta per ottenere informazioni.

Technology (12)

 Gianni Viola        This email address is being protected from spambots. You need JavaScript enabled to view it.a

 

APOLLO 19/20: LE ISTANZE FOIA E LA CONNESSIONE CON IL PROGETTO REDSUN. INTERVISTA DI SPAZIOTESLA A LUCA SCANTAMBURLO 

 

In occasione della intervista di lunedì 8 aprile 2024 con Alberto Negri Presidente della Associazione Spazio Tesla di San Giorgio Piacentino - in diretta Facebook e YouTube dalle ore 19.0, Luca Scantamburlo ha commentato l'ultima risposta della pratica FOIA assegnata alla Patrick Space Force Base di Cocoa Beach (Florida). La intervista è disponibile al seguente link:


 Alberto Negri di Spazio Tesla Intervista  Luca Scantamburlo

 

Qui di seguito il link con il download della ultima pratica FOIA 2023 (nome e dati personali del richiedente, cittadino italiano, sono stati omessi per privacy) inerente le missioni spaziali classificate Apollo 19 e 20, già missioni NASA cancellate per motivi di budget e riprogrammate negli anni '70 del secolo scorso, le quali sarebbero state portate a termine nel febbraio e agosto 1976 sotto l'egida del Dipartimento della Difesa (DoD) statunitense e con assistenza NASA e collaborazione dei Sovietici:

download FOIA - pratica USAF / Patrick Air Force Base 2023

Nel corso della intervista si parlerà anche delle lettere di posta elettronica inviate mesi fa ad addetti ai lavori del KARI - Korea Aerospace Research Institute - a proposito della grande anomalia lunare sigariforme che giace accanto al cratere Guest della faccia lontana della Luna: infatti la sonda spaziale coreana denominata DANURI - in orbita attorno alla Luna dal dicembre 2022 - sta mappando la superficie selenica con fotocamere ad alta risoluzione (5 metri a circa 100 km di quota dalla superficie del nostro satellite naturale).

 
 

Qui di seguito un breve video a cura del KARI che illustra la missione spaziale lunare DANURI

https://youtu.be/IfAM8ISqrFk

La sonda DANURI ha infatti sorvolato anche il cratere Tsiolkovskiy - come ho avuto modo di capire consultando il database della missione - cioè il grande grande cratere lunare di circa 185 di diametro situato nella parte sud-occidentale della faccia nascosta della Luna, proprio a Est della anomalia lunare sigariforme, e pertanto quasi sicuramente il team scientifico del KARI dispone di fotografie della Piana di Fermi, del cratere Izsak e del cratere Guest, a pochi chilometri dalla gigantesca anomalia lunare.

Al momento, gli addetti ai lavori del KARI non hanno ancora risposto ai miei interrogativi, nonostante siano trascorsi diversi mesi. Al seguente link la email del sottoscritto Luca Scantamburlo

download LETTERA al KARI
FOTOGRAFIE SONDA DANURI, LUNA

Riguardo al presunto snapshot di un software di mappatura lunare che mostra chiaramente e in dettaglio la grande anomalia lunare sigariforme (vedi foto in alto) non ci è dato sapere al momento chi lo abbia realizzato e con quale software - esso viene commentato in diversi siti e blog della Rete  sin dal 2015. Potrebbe essere un fermo immagine di Google Moon. Vi sono diversi software di mappatura lunare. Google Moon nondimeno attualmente NON mostra alcun dettaglio della zona dove giace la anomalia lunare oggetto di speculazioni: zoomando sulla zona del cratere Guest, vicino al cratere Izsak, i dati di superficie e le immagini non sono disponibili o sono stati censurati.

Le coordinate lunari dell'oggetto sigariforme sono approssimativamente le seguenti in gradi decimali (non sessagesimali):

Longitudine 117,67

Latitudine compresa fra -18,65 e -18,78.

A nord del cratere Izsak e a sud-ovest rispetto al cratere Delporte

 

Il cratere a forma di otto immediatamente a sud dell'oggetto, è stato denominato cratere Guest proprio pochi anni fa (2017), su decisione dell'Unione Astronomica Internazionale (IAU) in onore del vulcanologo e geologo britannico John Edward Guest (1938-2012). Si fa presente che "guest" in lingua inglese significa "ospite".

Se si consulta il database fotografico del sito dell'Arizona State University (ASU) l'anomalia lunare - delle dimensioni comprese fra i 3 i 4 km di lunghezza - è chiaramente visibile, per poi scomparire come per magia zoomando ulteriormente l'immagine (il che è un non senso scientifico oltre che logico)

 

 

 

 

 

 

 

Qui in alto è possibile vedere lo snapshot già discusso (a sinistra) è una immagine zoomata utilizzando la piattaforma dell'Arizona State University: seppur l'oggetto è presente, zoomando esso scompare lasciando un avvallamento, in totale contrasto con i dettagli d'immagine che lo stesso ASU fornisce.

Se il sito dell'ASU restituisce foto incoerenti rispetto ai dettagli, non così fa il sito sito web del Dizionario Geografico della Nomenclatura Planetaria, gestito dall' USGS Astrogeology Science Center. Questo lavoro di aggiornamento di database e nomenclatura viene eseguito per conto del gruppo di lavoro per la nomenclatura del sistema planetario dell'Unione Astronomica Internazionale ed è supportato dalla NASA (l'Amministrazione Nazionale per l'Aeronautica e lo Spazio) nell'ambito di un accordo inter-agenzia. L'oggetto sigariforme è chiaramente visibile accanto al cratere Guest, elencato dal Dizionario Geografico della Nomenclatura Planetaria:

 

 

Immagine dal seguente link https://planetarynames.wr.usgs.gov/Feature/15613

 

Ricordo che la mappatura fotografica e i dati di Google Moon sono consultabili grazie a un mosaico di immagini scattate dalla missione militare Clementine del Dipartimento della Difesa americano. Le immagini composite di Google Moon sono state preparate dall'USGS (l'istituto di Indagine geologica degli Stati Uniti, il quale è uno storico ufficio scientifico del Dipartimento degli Interni degli Stati Uniti, incaricato di fornire informazioni scientifiche sui rischi naturali, sull'acqua, l'energia, i minerali e le altre risorse naturali, ec...). Altri dati nonché alcune delle mappe ad alta risoluzione utilizzate del materiale Apollo, sono per gentile concessione dell'U.S. Geological Survey. Gran parte del resto del materiale proviene dall'Apollo Lunar Surface Journal della NASA, dall'Atlante geologico della Luna dell'USGS, dalla serie Lunar Chart (LAC) e alcune immagini Apollo sono fornite dal Lunar and Planetary Institute, gestito dall'USRA.

 

Mappa lunare faccia lontana, con cratere Izsak, Guest e Delporte
 Crediti d'immagine: NASA/GSFC/ASU

 

 

Lato nascosto della Luna: confronto fianco a fianco della prima fotografia in assoluto
del lato nascosto della Luna, 
scattata dalla sonda sovietica Luna 3, e una visualizzazione
della stessa utilizzando 
i più recenti dati LRO (sonda statunitense della Agenzia spaziale
americana). 

Crediti d'immagine: Foto Luna 3 URSS (1959)  / LRO NASA (2009)
 

 

 

 

 

 

 

 

Con l'ingresso nel nuovo anno, nello Stato di Washington, all'estremo nordovest degli Stati Uniti d'America, precisamente negli stabilimenti The Boeing Company di Seattle, termina definitivamente la produzione del leggendario B-747 noto in tutto il Mondo come Jumbo Jet .

Ad onor del vero – vorrei tranquillizzare appassionati e nostalgici – il colosso dei cieli solcherà le rotte mondiali per parecchi anni a venire, almeno una trentina se non di più visto che l'ultimo esemplare è stato consegnato in questi giorni alla Atlas Air ( cargo ) e considerato che l'accordo Trump - Muilenburg (AD Boeing) datato 27 Febbraio 2018, ha sancito che la Casa Bianca adotterà due B-747-800 a partire dal 2024 in sostituzione degli attuali 747-200 in servizio dal 1991. La USAF li identificherà con la sigla VC-25B.

 

L a storia che ho selezionato per celebrare la memoria del prodigioso progetto nato dalla mente dell'Ingegnere statunitense Joe Sutter (Seattle, 21 marzo 1921 – Bremerton, 30 agosto 2016) sotto la supervisione del Presidente dellaThe Boeing CompanyMalcom Stamper (Detroit, 4 aprile 1925 – Seattle, 14 giugno 2005), ci riporta indietro nel tempo. Al 1991, per l'esattezza. Scenario: Africa; rotta: ADD-TLV (Addis Abeba, 2.334 mslm – Tel Aviv, 5 mslm); CompagniaEl Al; nome dell'operazione militare:Salomone; missione: prelievo e trasporto della popolazione di religione ebraica presente sul territorio etiope presso Israele.

I FATTI

Nell'arco di trentasei ore comprese tra il 23 ed il 24 Aprile del 1991, il governo israeliano guidato da Yitzhak Shamir, predispose un ponte aereo non-stop che coinvolse un totale di 36 aeromobili attinti tra il settore militare (IAF Israeli Air Force ) e quello cargo di El Al , la compagnia di bandiera locale. Vennero fatti sgomberare quattordicimilacinquecento passeggeri tra uomini, donne e bambini. Ben di più degli ottomila della precedente Operazione Mosè svoltasi a cavallo tra il Novembre del 1994 ed il Gennaio del 1985.

Convocato nel tardo pomeriggio del 23 Aprile direttamente dal settore cargo di El Al , il Comandante Arie Oz racconta di essersi ritrovato a bordo di un B-747-FF (Full Freight – tutto cargo) parcheggiato sul piazzale dell'Aeroporto Ben Gurion di Tel Aviv in compagnia di alcuni collaboratori ed esperti militari. La missione, come anticipato, prevedeva il volo su ADD, relativo imbarco del maggior numero di passeggeri possibile e conseguente volo di rientro in base. Racconta Oz che

ero pronto per firmare il loadsheet [il documento riassuntivo recante tutte le informazioni del volo in merito al carico, al carburante, ai membri presenti a bordo eccetera - NdR] e sul Boeing 747 quando firmi il loadsheet devi resettare il Trim. Così, mi accinsi ad eseguire l'operazione ma il computer ci dava errore. Assieme al Primo Ufficiale abbiamo controllato i pannelli e constatato che ahimè non si resettasse. Mi rivolsi ai colleghi facendo presente che eravamo impegnati in una missione per la salvezza delle vite umane. Quindi al diavolo il trim automatico e facciamo tutto a mano, esclamai!L'ingegnere di bordo consultò il manuale (MEL) in cui trovò che la Boeing prevedesse il decollo in quelle condizioni a patto che fossero soddisfatte due parametri essenziali: non puoi volare con l'autopilota inserito; il volo dev'essere un volo di rientro in base autorizzato dal più alto in grado.

      Cap.

 

Di tempo per le decisioni non ce n'era. Bisognava intervenire tempestivamente, senza venir meno alla sicurezza del volo. Dallo scalo di TLV giunse improvvisamente a bordo un emissario militare che investì l'equipaggio con queste parole: “ Da questo momento siete ufficialmente sotto il controllo delle Forze Armate e non rispondete alle autorità civili ”. Ad Oz non sembrò vero: gli era appena stata servita su di un piatto d'argento la soluzione a tutti i problemi!

 

Visto che in ambito militare non vi fosse nessuno competente quanto me su quella macchina [il B-747] , e considerato che avevo servito in aeronautica fino a raggiungere il grado di Tenente Colonnello, ne conseguiva che il più alto in grado fossi io stesso e dunque mi sono autorizzato da me stesso, specificando al mio equipaggio che il volo sarebbe stato un volo di rientro nel momento in cui saremmo giunti a destinazione. Feci sbarcare il militare e poco dopo eravamo in aria con la prua diretta in Africa”.

 

Giunti ad Addis Abeba, il Comandante diede orine di riempire l'aereo con il maggior numero di persone possibile. Non doveva rimanere scoperto nemmeno un centimetro quadro! Ad eccezione della cabina di pilotaggio la quale doveva assolutamente rimanere inviolata. Vennero imbarcati 1088 passeggeri. In più fonti troverete riportato il numero errato di 1122. Ma in realtà il numero fu di 1086 al decollo e 1088 all'atterraggio: il numero venne incrementato lungo la crociera, grazie alla nascita in volo di due creature. Il volo di rientro, conferma il Cpt Oz fu caratterizzato da una serie di anomalie che mai gli erano capitate in anni di volo. Prima tra tutte il numero esorbitante di persone dietro, il trim che non ha mai funzionato, le due tratte senza autopilota e soprattutto la quota di rientro che non superò mai i 25mila piedi: 

 

abbiamo condotto il volo col massimo della cautela agendo sui comandi con tutta l'accortezza possibile per non causare disagi ai passeggeri. La scelta di non superare quota 25mila piedi era ovviamente dettata dalla necessità di poter raggiungere i 14mila piedi in un minuto o poco più in caso di decompressione perché a quella quota non c'è bisogno di maschere per l'ossigeno e la gente avrebbe potuto respirare senza l'ausilio dei dispositivi che non sarebbero mai stati sufficienti per tutti ovviamente.

  La rotta

 

Il volo di rientro fu un successo. La Boeing , grazie all'operato di El Al , conquistò un primato che con tutta probabilità mai nessun'altra casa costruttrice potrà appuntarsi al petto.

In realtà i primati mondiali collezionati dal Comandante Arie Oz e dal suo equipaggio, furono quattro:

maggior numero di passeggeri trasportati a bordo di un aereo cargo;

maggior numero di passeggeri trasportati a bordo di un aereo in una sola tratta;

maggior numero di passeggeri trasportati a bordo di un aereo civile;

maggior numero di nascite a bordo di un aereo.

Ad onor del vero, esisterebbe un quinto ed ultimo record, come confermato dalla viva voce del protagonista, intervistato da un suo ex allievo attualmente anch'egli Comandante di B-747 Cargo per El Al

C'è un fatto che ancora oggi mi sorprende ed è che in quell'occasione ho deciso tutto io e nessuno si è mai sognato di contestare od avallare le mie scelte né prima né dopo i voli. Fu la prima ed unica volta che nella mia lunga carriera di Comandante non mi sia stato chiesto di rendere conto di un virgola riguardo il mio operato. Ho assunto tutte le responsabilità del caso indirettamente ed ho agito secondo quello che sentivo fosse giusto e non secondo procedure o regole.

 

NB

L'intervistatore è un Comandante di B-747 FF attualmente in attività presso El Al del quale non si conosce né il nome né il cognome ma solamente la denominazione del suo Canale YT che è Captain Boeing . Si sa per certo che costui sia stato allievo del Comandante Arie Oz. Di quest'ultimo non esiste una sola nota su Wikipedia. È totalmente assente dal web.

L'intervista completa è disponibile presso: https://www.youtube.com/watch?v=-yatwvr4vl8&t=2s

Andrea Signini

 

 

Pochi giorni fa, a partire dall’articolo 96 della bozza della Legge di Bilancio, è stata annunciata la creazione di un Istituto italiano di Cybersicurezza – IIC, fra i cui fondatori si trovano il Presidente del Consiglio dei Ministri, il Comitato interministeriale per la Sicurezza della Repubblica e il ministro dell’Univeristà e della ricerca Gaetano Manfredi, in stretto coordinamento con i vertici del Dipartimento Informazioni e Sicurezza (DIS).

Fra gli obiettivi dell’Istituto, non solo la promozione e l’accrescimento delle competenze tecnologiche, industriali e scientifiche nazionali, ma soprattutto lo sviluppo della digitalizzazione del sistema-Italia, in un’ottica di sicurezza tale da garantire al Paese il raggiungimento della piena autonomia informatica, a tutela della sicurezza strategica nazionale.

Eppure, dopo appena ventiquattr’ore dall’annuncio, nella versione ufficiale della Legge di Bilancio, dell’IIC non c’è più traccia: svanito, in un acceso faccia a faccia fra il Presidente del Consiglio Giuseppe Conte e il Partito Democratico.

Quali sono le motivazioni dietro l’istituzione dell’IIC, perché è stato “cancellato” in così poco tempo e cosa comporta, proprio per l’Italia, una simile decisione?

Le ragioni del sì

Come già evidenziato in più sedi, l’idea di una fondazione a tutela della dimensione cyber nazionale non è certo nuova: già nel 2017, con la redazione del “Piano Nazionale Cyber” redatto dal Dipartimento Informazioni per la Sicurezza della Repubblica diretto allora da Alessandro Pansa, è possibile ritrovare i principali orientamenti della dottrina oggi (ri)proposta.

Certo, all’epoca le ragioni dell’istituto, semi-privatistico nella struttura, erano tutte inserite all’interno d’una visione sotto l’esclusivo potere dei servizi di intelligence ed era oltretutto assente l’esercizio di vigilanza effettuato da Comitato interministeriale per la sicurezza della Repubblica.
Una fondazione per la cyber-security «applicherebbe un approccio comprensivo nel supporto alla cybersecurity in tutta la catena di valore, dalla ricerca all’applicazione e lo sviluppo delle tecnologie chiave», favorendo – al contempo – «il dialogo col settore privato, le organizzazioni di consumatori e altri stakeholder rilevanti, aiutato dall’istituzione di un comitato industriale e scientifico»[1].

Non solo: sarebbe il perfetto punto di partenza di quella sovranità digitale più volte annunciata da Ursula Von Der Leyen, Presidente della Commissione Europea, per trovare una via tutta continentale a temi quali il nuovo protocollo 5G e la diffusione di tecnologie cloud, il machine learning e lo sviluppo di sempre più sofisticate intelligenze artificiali.

L’avvio dei lavori d’apertura d’un istituto italiano dedicato alla dimensione cyber, poi, condurrebbe l’Italia a beneficiare dei fondi Next Generation EU, destinati – per una tranche tutt’altro che inconsistente – proprio al rafforzamento del fronte cibernetico dei diversi strati membri.

In futuro, infine, parte dei fondi destinati ai progetti denominati Horizon e Digital Europe sarà finalizzato alla realizzazione d’un European Cybersecurity Competence Centre; parliamo, al riguardo, di circa 5 miliardi di euro.

Il solo problema è costituito dalla necessità, da parte dei membri UE, di dotarsi di un centro di competenza nazionale e l’Italia, a oggi, non può certo dire di averne uno.

Di conseguenza, in questa prospettiva, la possibilità di attingere ai fondi per l’EU Competence è praticamente prossima allo zero.

… e perché no?

Per molti, invece, lo stralcio in sede di redazione della Legge di Bilancio della proposta legata all’istituzione di una fondazione per il cyber è una vittoria non di poco conto.

Già nel 2017, l’allora vicepresidente della commissione Difesa della Camera, Massimo Artini, per esempio, aveva giudicato rischioso e inefficace l’affidare un tema di così vasta rilevanza a una fondazione di diritto privato configurata all’interno del raggio d’azione dei servizi di intelligence[2].

Differente sarebbe stato, continuava Artini, se al posto della fondazione fosse stata istituita un’agenzia nel pieno rispetto della direttiva NIS all’interno della Presidenza del Consiglio, con ben specifiche funzioni di sicurezza cyber.

L’errore, secondo invece i ministri PD Franceschini e Guerini, è quello d’aver tentato di riformare l’intero apparato d’intelligence senza consultare tutti gli attori politici coinvolti (maggioranza e minoranza) e soprattutto attraverso il ricorso a una frettolosa proposta inserita fra le pieghe della Legge di Bilancio, avente per natura tutt’altre finalità.

Futuro incerto

Un altolà più politico che altro, ma che secondo molti osservatori potrebbe avviare un’audizione presso il Copasir del direttore generale del DIS, il prefetto Gennaro Vecchione, convocato proprio per spiegare le ragioni della fondazione stessa.

A questo, punto però viene lecito chiedersi se un simile istituto vedrà mai la luce: secondo fonti di governo, la fondazione “ritornerà” per mano di un maxi-emendamento alla manovra stessa.         
Per carità, la speranza è pur sempre l’ultima a morire, specie in merito a uno strumento che potrebbe davvero costituire l’arma più efficace nella promozione e diffusione della cultura della cyber sicurezza nazionale.

Per gentile concessione di Vision & Global Trends

Attualmente viviamo in una società digitalizzata e quale momento migliore per poter fare un’affermazione simile. Tutti noi abbiamo subito l’avvento del virus SARS-CoV-2 e questo ci ha repentinamente catapultati all’interno dell’universo della tecnologia. Qualsiasi tipo di rapporto umano e lavorativo si è automaticamente proiettato sullo schermo dei nostri computer e questo ha modificato l’essenza delle relazioni stesse e di tutte quelle dimensioni proprie della vita sociale. Anche la politica si è lasciata plasmare da questi cambiamenti e senza dubbio si è alimentata, ora più che mai, delle nuove Tecnologie d’informazione e comunicazione (ITC) e dal 5G, elementi che da anni si stanno sviluppando e radicando nei vari paesi del mondo.

Le nuove tecnologie d’informazione e comunicazione sono l’insieme delle tecniche e dei metodi utilizzati nella trasmissione, ricezione ed elaborazione di informazioni ormai presenti nella maggior parte delle professioni dopo l’avvento di Internet negli anni ’90. Fondamentale è il ruolo che esse svolgono anche all’interno delle dinamiche che intercorrono tra i vari attori geopolitici che attualmente sfruttano le nuove tecnologie per muovere le proprie pedine sullo scacchiere del mondo. Se vogliamo proseguire con questo ragionamento, non è difficile riconoscere che la tecnologia nella storia ha sempre avuto un ruolo centrale. Ricordando la teoria mackinderiana, essa focalizzava la sua attenzione sull’introduzione della nave, la quale per l’autore era lo strumento chiave che permetteva all’America del Nord di poter avere l’intero controllo sul globo. A riconfermare questa centralità ancora è lo studioso Spykman che riconosce l’aereo come mezzo tecnologico utile a raggiungere controllo e potere su vaste aree terrestri. 

Oggi, la funzione innovativa rivestita precedentemente dalla nave e l’aereo, è assunta dalle moderne tecnologiche e il 5G le quali delineano nuovi scenari geopolitici, nuovi scontri tra soggetti diversi per l’egemonia e il controllo del pianeta e delle sue risorse. E’ in atto una competizione per l’implementazione di reti mobili 5G di prossima generazione, le quali saranno sia quantitativamente che qualitativamente diverse dalle precedenti generazioni di tecnologia di rete mobile. Le forze politiche e il confronto commerciale tra Stati Uniti e Cina modellano lo sviluppo di standard mobili di prossima generazione e il dispiegamento in mercati e regioni chiave. Le ITC e i servizi relativi ricoprono l’intera gamma di produzione, consumo e distribuzione di informazione in tutti i media, trasmessa da internet e dai satelliti alla radio e alla televisione. Negli ultimi dieci anni nessuna tecnologia ha avuto un impatto globale allo stesso livello delle ITC. Gli Stati Uniti, il Giappone e la Cina sono i tre paesi che spendono di più in ITC, e questo comporta un evidente conflitto sull’egemonia di questo spazio virtuale del quale si fatica a comprenderne i confini fisici ed etici. Per queste ragioni lo sviluppo del 5G e delle ITC avrà un’influenza decisiva sul futuro delle le principali superpotenze tecnologiche mondiali sia in termini di concorrenza economica sia in termini di Balance of power.

Gran parte della discussione pubblica sul 5G si è incentrata sulla velocità di diffusione dei dati notevolmente superiore al 4G, infatti le reti mobili di prossima generazione trasmetteranno i dati circa 100 volte più velocemente rispetto alle attuali reti. A differenza delle precedenti generazioni di reti, costruite pensando ai servizi voce e dati dei consumatori, il 5G consentirà anche comunicazioni ad alta capacità e latenza ultra bassa. Queste funzionalità miglioreranno notevolmente le prestazioni delle reti di dati mobili abilitando nuovi tipi di comunicazione machine-to-machine, aprendo la strada alle applicazioni digitali di prossima generazione che richiedono un accesso quasi istantaneo e altamente affidabile per lo scambio di ingenti quantità di dati.

Le decisioni che i governi e gli attori del settore prenderanno riguardo al “quando” e al “come” costruire le loro reti 5G avranno conseguenze significative, sia sullo sviluppo della rivoluzione digitale negli Stati Uniti, in Cina e negli altri paesi, sia nell’equilibrio dei poteri che intercorrono tra le super potenze. Ci troveremo quindi presto in un mondo suddiviso tra chi potrà orientare lo sviluppo del paese in base a queste nuove tecnologie di comunicazione e informazione, e chi non ne avrà la possibilità, come i Paesi in via di sviluppo. Per quanto riguarda paesi terzi, come quelli europei, accedere a questo circolo virtuoso significherà dover assumere scelte definitive circa le tecnologie di rete 5G e sui relativi ecosistemi applicativi e sempre più dovranno affrontare un difficile compromesso tra i loro interessi commerciali e di sicurezza. Si può facilmente ipotizzare quindi che tali paesi e i loro governi possano subire pressioni da parte degli Stati Uniti e dei suoi alleati al fine di non dipendere dalla Cina per il 5G, che attualmente risulta essere il paese più all’avanguardia. L’economia globale è ormai davanti al rischio di una completa biforcazione delle catene di approvvigionamento della tecnologia globale e della separazione del panorama del mondo in due distinti sistemi regionali: uno basato su norme e regole guidate dagli Stati Uniti, l’altro incentrato sulla Cina.

Nel giuoco delle super potenze, ruolo emblematico è assunto dalla Russia di Putin, la quale si oppone all’implementazione delle ITC e del 5G in quanto considera le modalità di diffusione delle informazioni pericolose soprattutto per la tutela degli individui. Queste nuove modalità di sviluppo e progresso tecnologico comportano ovviamente rischi come quello di una più facile circolazione di fake news, utilizzate sempre più come soluzioni strategiche a scopi geopolitici che mirano alla manipolazione dell’opinione pubblica. Essa si vede quotidianamente sommersa da informazioni delle quali non può, nell’immediato verificarne la veridicità. Per accertarsi della fondatezza delle notizie ogni individuo dovrebbe essere fornito di un bagaglio culturale e di strumenti concettuali che gli consentono di discernere con maggiore consapevolezza le notizie false da quelle vere. Per questo parallelamente alle ITC e al 5G stanno nascendo sistemi di protezione e sicurezza nell’ambito dell’Unione europea.

 

Per gentile concessione di  - Vision & Global Trends. 

 

I responsabili “al di sopra di ogni sospetto


Se da una parte la prescrizione giudiziaria, che attualmente si intende superare con le nuove proposte di legge, consiste in quella sorta di spada di Damocle che potrebbe essere lasciata cadere sulla testa dell’accusato in tempo anche molto differito rispetto a quello del reato attribuito, esistono però, delle circostanze che esprimono il contrario. Vi sono infatti dei casi che si sono protratti nel tempo soltanto per l’ “inerzia” del tutto ingiustificata di chi ha, invece, il compito di assicurare lo stato di legalità ed in particolare, quando si tratta di questioni di importanza internazionale come il caso in questione.

Molti già conoscono il caso del Dott. Celani, già alla ribalta della cronaca negli anni passati per l’ inverosimile boicottaggio ricevuto all’ interno del suo stesso Istituto.

Il Dott. Celani, Primo Ricercatore dell’Istituto Nazionale di Fisica Nucleare di Frascati, (INFN) è impegnato nel campo della ricerca dei cosiddetti “fenomeni nucleari a basse energie” privi di radiazioni per obiettivi essenzialmente civili-industriali e domestici.

Qualche anno fà egli ebbe un’intuizione scientifica che superava il tradizionale impiego dei materiali molto costosi necessari a questo tipo di ricerca.

Si trattava dell’attività sperimentale in corso da parte di scienziati degli Stati più industrializzati del mondo, per ottenere energia termica ed in prospettiva elettrica; per cui la novità non sta nel tipo di studio, ma nei risultati raggiunti e raggiungibili industrialmente, per offrire un futuro migliore a tutti i popoli della Terra.

 

Non fu una questione di costi

Nel caso specifico, il Dott. Celani nel corso delle sue sperimentazioni, sostituì nei suoi test spesso coronati da successo, il prezioso palladio fino allora impiegato, con la costantana che è un semplice composto di rame-nichel con bassa concentrazione di manganese. In questo modo, attraverso una serie di test sempre più raffinati nel proprio laboratorio, riuscì a comprendere che con l’ausilio di alcuni catalizzatori si otteneva una reazione termica qualitativamente significativa nonché la possibilità di generare direttamente energia elettrica. I risultati ottenuti portavano quindi, verso la conclusione finale di produzione di energia nucleare essenzialmente priva di radiazioni ionizzanti ed a bassissimo costo.

Si era così arrivati a concepire la realizzazione di un impianto prototipico per generare, in un futuro non troppo lontano, perfino energia “distribuita”, anche per uso individuale a livello domestico.

 

Il pericolo del successo

Ma con il crescere della notorietà del Dott. Celani, crescono contro di lui le avversità che arrivano dall’interno dello stesso Istituto Nazionale di Fisica Nucleare.

Il periodo più favorevole a questo genere di ostilità è quello delle ferie estive in cui, com’è noto, è difficile reperire il bandolo della matassa quando la maggior parte degli addetti sono in ferie o in procinto di partire e chi resta difficilmente è a conoscenza di ciò che serve sapere. Infatti, nel luglio del 2013 arriva l’ordine del Direttore dei Laboratori Nucleari di Frascati di chiudere, entro settembre dello stesso anno, la sperimentazione del Dott. Celani sulle “energie anomale a bassa energia”.

Si trattava nella sostanza, come si vedrà in seguito, di ostacolare la conclusione della ricerca in Italia di questa nuova fonte di energia: si evince in chiari termini che un atteggiamento di questo genere non può che favorire il mantenimento degli attuali monopoli del mercato mondiale dei carburanti fossili.

 

 

 

Chiusura della sperimentazione LENR

All’esterno dello stesso Istituto il miglioramento dei risultati ottenuti dal Dott. Celani, destano grande interesse nel mondo scientifico, malgrado le avversità tipiche di ogni scoperta di nuove tipologie di energia. Si tratterebbe, in caso di pieno successo, di poter finalmente donare al mondo intero energia a basso costo ed a volontà tanto da considerare il Dott. Celani oltre che uno Scienziato anche un benefattore dell’umanità.

La sua notorietà infatti, supera le frontiere del mondo e giunge in Norvegia, dove nel 2014 in virtù delle sue ricerche, viene proposto (da persone “illustri” che ne avevano la facoltà, cioè provenienti dall’ambito Accademico, Politico, Religioso) per il premio Nobel per la Pace, in considerazione che la sua scoperta avrebbe potuto eliminare gran parte dei continui conflitti per l’accaparramento delle fonti energetiche del mondo. Uno dei punti-chiave che destarono l’interesse di tale prestigiosa istituzione è stato anche la metodologia di ricerca sperimentate denominata “Live Open Science” di cui il Dott. Celani è stato un convinto fautore sin dall’inizio, come proposto dai fondatori (Francia, Inghilterra, USA; Luglio 2012).

 

Oltre il quasi…

I risultati ottenuti dal Dott. Celani sono già sufficienti a superare le valutazioni preliminari ed entrare nella scelta finale per il più alto gradino del podio.

Si sarebbe trattato quindi del premio Nobel per la Pace che in questa circostanza viene conferito ad Oslo, e non ha Stoccolma, sede riservata alle categorie umanistiche e scientifiche.

A questo punto a casa nostra, ossia in Italia, cominciano i cosiddetti dolori di pancia, per il timore che il Dott. Celani possa conseguire l’ambito premio. La questione ancora più grave è che questo tipo di avversione non è stata determinata dall’ antipatia tra colleghi in quanto il Dott. Celani, persona cordiale e simpatica non era inviso a nessuno, ma dall’alto interesse di impedire che con l’assegnazione del premio Nobel venisse ufficializzato e solennemente annunciato al mondo intero, il riconoscimento di questa nuova fonte di energia, pur se ancora a livello di ricerca di base/prototipale.

Dopo parecchi mesi di altalenanti decisioni presso lo INFN sulla chiusura del laboratorio la Direzione aveva temporeggiato: perfino forze politiche (di opposizione nel 2013-2014) in Parlamento si erano interessate al problema formalizzando il tutto con alcune interrogazioni parlamentari. Fino a settembre 2014 ad Oslo tutto sembrava ormai scontato a favore del nostro candidato, ma pochissimi giorni prima dell’assegnazione, qualcosa improvvisamente cambia l’orientamento dei giudici. Così che il premio Nobel per la Pace 2014 viene attribuito per motivazioni politiche agli attivisti (su argomenti comunque di educazione culturale-scolastica) rispettivamente Pachistani ed Indiani Malala Yousafzay e Kailash Satyarthi. La delusione è tanta poiché la differente scelta dell’ultimo momento è stata ritenuta apparentemente…… inspiegabile.

La seconda finale al Nobel –

Le motivazioni per le quali Dott. Celani potesse ottenere il riconoscimento delle sue scoperte crescono ulteriormente per la candidatura del 2015. Egli presenta pertanto i risultati di ricerca ancora più convincenti dell’anno precedente grazie ad ulteriori affinamenti sperimentali. Infatti nel gennaio dello stesso anno viene subito riproposto dal gruppo di lavoro (i “proponitori”), arricchito anche da membri del Parlamento Italiano, per la medesima candidatura

Questa volta le motivazioni con il progresso dei risultati ottenuti, con un anno in più di sviluppi e convalida sperimentale, erano state meglio sopportate e presentate ad Oslo a corredo dei lavori dello stesso Celani. Difficilmente quindi, sarebbe sfuggito ciò che nell’anno prima ha mancato di un soffio. Ma……, come avviene anche nelle storie più belle, dopo le buone notizie sopravviene sempre qualche impedimento che questa volta non si fa attendere. Infatti appena un mese dopo, nei laboratori di Frascati, avviene il colpo di scena.

Per eccesso di lunghezza l’ articolo si concluderà con la seconda parte nel prossimo.

di Alberto Zei

La costellazione Iridium® NEXT conta ora 50 satelliti per la comunicazione in orbita

 

Roma, 30 marzo 2018 – Il quinto gruppo di satelliti Iridium NEXT, realizzati da Thales Alenia Space (joint venture tra Thales 67% e Leonardo 33%), è stato lanciato con successo da SpaceX dalla base militare di Vandenberg in California.

 

Thales Alenia Space è prime contractor per il programma Iridium® NEXT, responsabile della realizzazione, integrazione e validazione in orbita degli 81 satelliti di Iridium Next, oltre che della definizione e validazione dell’intero sistema. I satelliti sono stati integrati in serie da Orbital ATK, sottocontraente di Thales Alenia Space, nel suo stabilimento produttivo di satelliti di Gilbert, in Arizona, sotto la supervisione in loco del team di Thales Alenia Space. Tulle le operazioni di lancio e messa in orbita (LEOP), e di test in orbita ( In Orbit Tests) sono state eseguite nel centro di controllo SNOC (Iridium’s Satellite Network Operation Center) di Leesburgh. Il successo di questo quinto lancio Iridium® NEXT consolida ulteriormente la reputazione dell'azienda per le eccellenti competenze dimostrate in qualità di prime contractor per così sofisticati sistemi di comunicazioni satellitari (SATCOM).

"Due terzi dei nostri satelliti sono ora in orbita e le prestazioni superano le aspettative. I prossimi due gruppi di satelliti Iridium NEXT sono già pronti in previsione del sesto e del settimo lancio - ha dichiarato Denis Allard, Iridium NEXT Vice President per Thales Alenia Space - Tutto procede nella giusta direzione per raggiungere il nostro obiettivo, ovvero lanciare tutti i 75 satelliti Iridium NEXT ad orbita terrestre bassa nel 2018 " .

La costellazione Iridium® NEXT offre connettività globale grazie ai suoi 66 satelliti interconnessi a un’altitudine di 780 km, con nove satelliti di riserva in orbita e sei altri satelliti di riserva a terra. Questo sistema internazionale fornisce capacità senza pari nelle telecomunicazioni in movimento (individui, veicoli di terra, veivoli, navi) e assicura una copertura completa in tutto il mondo, inclusi gli oceani. Grazie alla sua copertura globale e al funzionamento indipendente Iridium NEXT fornisce assistenza indispensabile in condizioni molto difficili, come in aree isolate, durante disastri naturali o durante conflitti, per citarne alcuni. Completamente indipendente da qualsiasi network di terra, offre comunicazioni sicure, protette da intrusioni e hacking.

 

 

A proposito di Thales Alenia Space

Da oltre quaranta anni Thales Alenia Space progetta, integra, testa e gestisce sistemi spaziali innovativi ad alta tecnologia per telecomunicazioni, navigazione, osservazione della Terra, gestione ambientale, ricerca scientifica e infrastrutture orbitali. Joint venture tra Thales (67%) e Leonardo (33%), Thales Alenia Space insieme a Telespazio forma la partnership strategica "Space Alliance", in grado di offrire un’ insieme completo di servizi e soluzioni per enti governativi, istituzioni, gruppi industriali, aziende private. Forte di un’esperienza unica in materia di satelliti per missioni duali, costellazioni, payload flessibili a banda larga, altimetria e meteorologia, osservazione ottica e radar ad alta definizione ed esplorazione spaziale, Thales Alenia Space ha saputo consolidare la propria competenza e allo stesso tempo perseguire una strategia incentrata sull'innovazione. Con l’immissione di nuovi prodotti e l’estensione dei mercati di riferimento, Thales Alenia Space è oggi un attore imprescindibile dell’avventura spaziale e umana in costante evoluzione. Nel 2017 la società ha realizzato un fatturato consolidato di 2,6 miliardi di euro e ha 7.980 dipendenti in 9 Paesi. www.thalesaleniaspace.com

Il mondo del futuro sarà senza alcun dubbio radicalmente diverso da quello che conosciamo: così come quello attuale è radicalmente diverso da quello nel quale io sono cresciuto. Con la differenza che il ritmo delle innovazioni è sempre più incalzante e spasmodico, alimentato da meccanismi drogati, che inducono bisogni non necessari e rendono artificiosamente obsoleti i nuovi prodotti, spesso inservibili dopo pochi anni (obsolescenza programmata), e portano alla crescente sostituzione dei valori umani e sociali con il possesso di beni materiali o  status symbol.

Il mondo del futuro potrà più o meno piacere, ma sembra  indubbio che tra le innovazioni ve  ne saranno anche di terrificanti ed estremamente pericolose nel campo della guerra e degli armamenti, nonché del controllo sociale sempre più pervasivo. Sono tanti gli interrogativi e gli aspetti inquietanti che riguardano gli sviluppi dell’intelligenza artificiale e dell’automazione e il loro controllo (se questo non è un’illusione), ma tra questi occorre includere anche la guerra e il modo in cui queste tecnologie potrebbero (o potranno, se non verranno arrestati) inserirsi nei conflitti bellici del futuro, affiancandosi, se non addirittura sostituendosi per molte funzioni, agli esseri umani. L’automazione crescente interesserà infatti anche gli armamenti perché si stanno approntando le cosiddette armi autonome (fully autonomous weapons), chiamate a volte “killer robot“, armamenti che possono selezionare e ingaggiare bersagli senza ulteriore intervento di un operatore umano.

L’immaginario corre agli scenari della fantascienza, come Guerre Stellari, ma per quanto la fantascienza cerchi di immaginare il futuro più impensabile questo non è evidentemente prevedibile e potrà essere completamente diverso.

Il dibattito sull’innovazione tecnologica è sempre stato molto vivo (risalendo per lo meno dal tempo dei luddisti): è sempre stata presente, e alla fine prevalente (in modo attivo o, spesso, passivo) una corrente che ha salutato con favore tutte le innovazioni, affermando che il problema non è fermare il “progresso” ma controllarlo. Il mio personale parere è che questa idea di “controllo della tecnologia e delle innovazioni” si è rivelata una copertura ideologica e raramente ha funzionato per evitare le ricadute negative delle innovazioni: porto spesso un esempio, siamo riusciti a controllare l’innovazione dell’automobile che esiste da più di un secolo, a valorizzarne solo gli (indubbi) aspetti positivi? A me sembra che lo sviluppo incontrollato dell’automobile si sia tramutato nel soffocamento delle città, in frequenti paralisi della circolazione, in una fonte micidiale di inquinamento ambientale terribilmente nocivo [penso che tutti conoscano le autorevoli e spaventose valutazioni di 9 milioni di decessi prematuri all’anno: ma questa notizia ha forse indotto una riduzione dell’uso dell’auto privata? D’altra parte le automobili autonome (self-driving cars) sono ormai una realtà in via di inserimento nel mercato commerciale (una volta superate le barriere normative, culturali ed economiche)].

Tanto più micidiale è il rischio di uno sviluppo incontrollato delle armi autonome, soprattutto di un loro utilizzo incontrollabile e irresponsabile (ma è mai esistito uno sviluppo responsabile degli armamenti?). Storicamente è sempre avvenuto che lo sviluppo di armi innovative non sia mai stato arrestato, sia stato adottato (spesso con l’illusione, o il pretesto, di acquisire un vantaggio per molto tempo incolmabile sugli avversari) ed abbia rivoluzionato in modo duraturo la natura stessa della guerra: è avvenuto per il fucile e il cannone, fino alla bomba atomica e i suoi sviluppi successivi (bomba termonucleare, missili, difese antimissile, ecc.): salvo poi chiudere la stalla successivamente, mettendo affannosamente al bando le armi più spaventose (chimiche, biologiche, mine anti-uomo, bombe a grappolo: per le armi nucleari siamo all’inizio).

Le armi autonome cominciano già ora ad essere una realtà e non solo uno scenario potenziale, ma non ancora regolamentato. Esso pone in ogni caso già da ora dei problemi etici e legali fondamentali.

Per fortuna sembra che stia maturando una sana preoccupazione e reazione, che però non trova corrispondenza in un’adeguata informazione e non provoca quella presa di coscienza e quella razione dell’opinione pubblica che ne determinerebbe il radicale ripudio. Una volta aperto questo vaso di Pandora, che darà origine agli sviluppi e applicazioni più impensabili, come si potrà tornare indietro?

Le maggiori autorità mondiali dell’intelligenza artificiale e della robotica – fra cui spiccano i nomi di Elon Musk e Mustafa Suleyman, di Google DeepMind – si sono rivolte alle Nazioni Unite per promuovere il bando delle armi autonome. Essi sottolineano che grazie alle evoluzioni tecnologie degli ultimi anni lo sviluppo di queste armi potrebbe scatenare una terza rivoluzione nelle scienze belliche, dopo quelle legate all’invenzione della polvere da sparo e a quella delle armi nucleari (ovviamente la classificazione delle rivoluzioni militari si presta ad arbitrarietà, ma quello che conta è il concetto):

“Una volta sviluppate le armi autonome permetteranno conflitti armati di scala ben più ampia rispetto ad oggi, e con velocità più superiore a quelle che l’uomo può comprendere …Possono essere armi di terrore, armi che despoti e terroristi utilizzeranno contro le popolazioni innocenti, e armi che possono essere manipolate per comportarsi in modalità poco desiderabili”.

La lettera è firmata da 116 leader di società che si occupano di Intelligenza Artificiale provenienti da 26 nazioni differenti. Il suo obiettivo è di sensibilizzare l’Onu affinché venga avviato un dialogo per proporre un divieto globale sullo sviluppo delle armi autonome. È forse il caso di esprimere qualche perplessità sul fatto che a muoversi siano esponenti di imprese del settore. Ma la necessità di sensibilizzare e mobilitare l’opinione pubblica è senz’altro urgente. I media e le istituzioni mondiali sembrano muti, e comunque incapaci di affrontare le sfide che sorgono alle nuove frontiere di conoscenza, scienza e tecnologia, di governare e integrare in uno sviluppo equilibrato, compatibile e sostenibile i più delicati avanzamenti conoscitivi e le loro potenziali ricadute. Mentre il mondo è dominato dal paradigma (o il mito) della comunicazione e allo stesso tempo orfano di un ordine nel comunicare.

Le principali potenze militari che stanno sviluppando questo tipo di tecnologie sono USA, Cina, Russia e Israele. Alcuni sistemi sono già stati utilizzati sul campo, come le torrette di confine autonome sviluppate dalla sudcoreana Dodaam Systems, che adottano dei mitragliatori capaci di identificare e sparare su bersagli senza alcun intervento umano (necessitano solo dell’ok per sferrare il colpo letale).

Come sempre accade vi sono anche voci opposte, che sostengono che queste tecnologie siano in grado di ridurre le morti sul campo di battaglia, con la possibilità di individuare soldati e combattenti in maniera più precisa rispetto agli esseri umani: come non ricordare che i bombardamenti nucleari di Hiroshima e Nagasaki furono surrettiziamente “giustificati” per risparmiare vittime fra i soldati americani in una invasione del Giappone?

 

Per gentile concesssione dell'agenzia di stampa Pressenza

INFN

Boicottaggi, sabotaggi e ostruzionismo all’interno delle nostre Istituzioni di “ricerca” più prestigiose, fino ad arrivare alla distruzione dei documenti in occasione del Premio Nobel.
Sarebbe interessante sapere, da una parte, chi dispone e distribuisce le risorse economiche nazionali già assegnate dal Governo per la ricerca; dall’ altra, dove sono finiti i fondi della ricerca scientifica destinati ai laboratori più promettenti di risultati utili e utilizzabili per l’interesse della collettività.
Il caso specifico in cui il potentato delle lobby nostrane ha operato in modo contrario agli interessi nazionali è quello del Dott. Francesco Celani, noto ricercatore dell’Istituto Nazionale di Fisica Nucleare di Frascati (INFN) che si interessa allo sviluppo di innovative metodologie per la produzione di energia termica ad alta efficienza, a basso costo e praticamente priva di radiazioni nocive, denominata LENR. Il tutto ad integrazione e, nel lungo periodo, in sostituzione dell’energia ottenuta dalla combustione delle varie sostanze fossili inquinanti, da molti ritenute responsabili principali del cosiddetto “Effetto serra” e dei bruschi cambiamenti climatici a queste attribuite.
Questo Ricercatore ha dedicato la parte professionale di maggiore esperienza della propria vita nei Laboratori di Frascati, fino alle soglie dell’età di quiescenza lavorativa.
L’Istituto ha così acquisito risultati eclatanti in questo tipo di ricerca anche in virtù degli approfondimenti professionali che lo stesso Celani ha potuto ottenere in Conferenze internazionali e durante i periodi trascorsi all’ estero con altri Ricercatori.
Ma proprio qui sta il punto perché tanto più Celani più acquistava conoscenza internazionale e stima professionale per le sue ricerche in questo comparto strategico, tanto più in Italia veniva avversato attraverso le lobby economiche e politiche; lobby che sono di fatto, arrivate all’ostruzionismo lavorativo all’interno dello stesso INFN.

 

Chiusura della sperimentazione LENR - Qualche anno fa, l’intuizione scientifica del Dott. Celani supera il tradizionale impiego dei materiali molto costosi come il Palladio, per la produzione di questa energia termica. Egli arrivava infatti, ad un risultato ancora maggiore con l’ impiego della Costantana, ossia di un composto, sostanzialmente, a base di nichel e rame, con l’ aggiunta di un particolare vetro.
Ovviamente il risultato che più interessa ai fini industriali è la quantità di energia e il suo rendimento. Sono questi la prospettiva del futuro sulla quale il mondo intero potrà attingere a volontà energia da impianti semplici a costi molto contenuti, di impiego anche domestico.
Ma con il crescere della notorietà del Dott. Celani, crescono contro di lui le avversità che arrivano all’interno dell’Istituto Nazionale di Fisica Nucleare. Il periodo migliore per questo genere di ostilità è quello delle ferie estive in cui, com’è noto, è difficile reperire il bandolo della matassa. Infatti nel luglio del 2013 arriva l’ordine del Direttore dei Laboratori Nucleari di Frascati di chiudere entro settembre dello stesso anno, la sperimentazione su LENR.
In considerazione però, della abnormità della decisione adottata, vengono presentate ben otto interrogazioni parlamentari, per chiedere le ragioni di tale imperativo; interrogazioni che fortunatamente hanno sortito l’effetto di superare gli intendimenti del Direttore e di far proseguire l’attività di ricerca allo stesso Celani, ma senza alcun finanziamento da parte dell’Istituto.

 

Proposta al premio Nobel - La conoscenza anche all’estero del caso Celani è ormai grande e la sua notorietà scientifica dei successi sperimentali su LENR rompe gli steccati del Laboratorio di Fisica Nucleare di Frascati; notorietà che supera le frontiere del mondo e giunge in Norvegia, dove nel 2014 in virtù delle ricerche, da lui condotte su LENR viene proposta e accettata la candidatura per il premio Nobel per la Pace.
Celani infatti, simbolicamente parlando, alla stregua di un novello Prometeo che regalò il fuoco degli Dei agli uomini, si propone ora, di consegnare all’Umanità il dono dell’ energia a basso costo ed a volontà per tutti. Il premio Nobel per la Pace simboleggia infatti, il contributo del nostro Ricercatore alla eliminazione dei continui conflitti, come la storia insegna, per l’ accaparramento delle fonti energetiche del mondo.
Per queste ragioni egli, per quanto, si è potuto capire, supera le valutazioni preliminari, entrando nella scelta finale per il più alto gradino di Oslo. Di fatto, stante la trepidazione di casa nostra, temendo che il Dott. Celani potesse conseguire l’ambito premio, non si comprende quale sia stata la posizione assunta dalla rappresentanza ufficiale italiana. Ma alla fine, quando tutto sembrava ormai scontato a favore del nostro candidato, il conferimento Nobel viene attribuito per ragioni politiche, agli attivisti indiani Malala Yousafzay e Kailash Satyarthi.

 

La seconda finale al Nobel - L’anno successivo, ossia, nel 2015, accade la medesima cosa. Il Dott. Celani, viene di nuovo prescelto per la candidatura al premio Nobel, evidentemente per il rammarico di qualcuno di un’ingiustizia arrecata al nostro Ricercatore che sotto il profilo formale aveva dato adito, ovviamente, a qualche indimostrata richiesta tecnica, ritenuta decisiva.
Evidentemente in Italia a cui l’attenzione delle lobby si riferisce, la preoccupazione cresce e il rimedio da prendersi perché Celani non riesca a salire il prestigioso gradino, questa volta, dovrà essere ben valido e definitivo.
Celani infatti, a Gennaio del 2015 è già tra i candidati al premio Nobel. Il mese successivo nei Laboratori di Frascati avviene la sorpresa; sorpresa non già per l’ostruzionismo ma per la qualità del rimedio escogitato. Si tratta questa volta di un fatto più unico che raro nella storia del Centro, ma significativo della avversione alla ricerca LENR, identificata in Celani per la grave problematica che questi rappresenterebbe in Italia, qualora fosse a lui attribuito il premio Nobel.
Ubi malum, ibi remedium – dicevano nel passato. E il rimedio c’è stato. Guarda caso! - direbbe qualcuno. Guarda proprio il caso di ciò che è avvenuto! Nel febbraio 2015, il Direttore dei Laboratori di

 Celani
 Il prof. Francesco Celani

Frascati questa volta dà di fatto disposizione affinché tutta la documentazione scientifica del Dott. Celani depositata in un apposito locale del Centro, venga distrutta, all’insaputa dell’interessato, attraverso la macerazione. Dopo il misfatto, neppure con l’immane e affannoso lavoro di ricostruzione, Celani riesce a ricomporre in tempo utile, la documentazione mancante per dimostrare, dopo la seconda candidatura per il Premio Nobel, il merito riconoscibile per l’alto gradino dell’ ambito premio. E quell’anno la preferenza viene attribuita al Quartetto tunisino delle Associazioni per il dialogo politico democratico della cosiddetta “Primavera Araba”.

 

La conferma giapponese - A conferma del giusto indirizzo intrapreso nei Laboratori di Frascati per opera di Celani, si ha in questi giorni notizia giapponese di notevoli miglioramenti quantitativi dell’energia LENR prodotta attraverso lo stesso utilizzo di rame-nichel in stretto contatto con una specifica struttura di vetro, cioè il leit-motiv di Celani: questi rappresentano proprio la base su cui il nostro Ricercatore ha ottenuto i propri risultati in Italia.
Concludiamo l’articolo, facendo presente che il Dott. Celani, arrivato come detto, alle soglie del pensionamento, contrariamente a quanto avviene nella Pubblica Amministrazione con proroghe annuali in attività lavorativa, suo malgrado, dovrà andare obbligatoriamente in quiescenza alla fine di settembre.

In questo caso però, lascerà il proprio lavoro alle soglie del successo, come avvenne per “l’incompiuta di Schubert”; “incompiuta” che a differenza di quanto accadde per il musicista, questa volta sarebbero le stesse lobby antagoniste ad impedire i tentativi a chicchessia di completare l' opera.
Per queste ragioni ci si chiede come lo Stato Italiano, rappresentato dal Parlamento e dalle varie classi politiche che lo compongono, possa rimanere indifferente di fronte ad una serie di così gravi e continuate prevaricazioni all’interno della Pubblica Amministrazione. Con la perentoria messa in quiescenza di Celani, si ottiene proprio ciò che finora le menzionate lobby hanno tentato, ostacolando per i loro interessi la scoperta della produzione di una nuova forma di energia, impedendo cioè, una fondamentale conquista scientifica a discapito dell’ Italia e dell’intera Umanità.

010 Ripresa satellitare Alla base della rilevazione satellitare si trova il processo fotografico e quant’altro attenga alla “visione”, che, tra i fenomeni naturali, è considerata uno dei più affascinanti e complessi, caratterizzata dal fenomeno della luce. Questa è una forma d’energia radiante che consente di rendere visibili gli oggetti circostanti e tali sensazioni luminose rappresentano la più elementare e rudimentale percezione visiva. Posto che la visione avviene attraverso l’organo dell’occhio, si potrebbe essere indotti a dare al fenomeno della percezione visiva una spiegazione puramente fisica. Va detto però, che il fenomeno, in realtà, non può prescindere da importanti fattori psichici. La percezione visiva non è esclusivamente legata agli stimoli sensoriali, essa è un complesso processo dinamico di ricerca svolto dal cervello, il cui scopo è definire la migliore interpretazione possibile dei dati raccolti. La sola fase ottico-fisiologica della visione è insufficiente.

La fotografia è un processo di trasferimento di un oggetto reale in immagine, e tecnicamente essa può essere definita come una rappresentazione ottenuta dall’interazione dell’energia raggiante con l’emulsione fotosensibile della pellicola, come la descrizione di un fenomeno o di un processo mediante la rappresentazione normalmente bidimensionale di informazioni relative al fenomeno o al processo indagati.

Per comprendere il concetto di fotografia, vale riferirsi all’esempio di come funziona una macchina fotografica in rapporto con l’occhio umano, dove l’obiettivo (della macchina) corrisponde al cristallino, la camera oscura corrisponde alla sclerotica, la lastra sensibile è la retina, mentre il diaframma corrisponde all’iride che controlla il flusso luminoso in entrata attraverso la pupilla (il guadagno in termini strumentali); infine, la pellicola fotosensibile corrisponde ai fotorecettori e/o ai rilevatori (dunque alla parte sensoriale) a loro volta equivalenti ai coni e bastoncelli.

Sebbene la “visione” sia un dato dinamico e essa spesso si presenti sotto vari connotati e “vedere” non abbia, dunque, sempre lo stesso significato, tuttavia l’ideale della “visione” è la percezione quanto meno “reale” della scena osservata, parimenti, la “fotografia” ha come scopo la riproduzione “fedele” di ciò che esiste nella realtà.

Una conferma ci giunge, ben a proposito, nell’ambito di un’opera di geomatica1, dove è scritto che “lo scopo che si sono posti da sempre i fotografi è la fedele riproduzione dell’oggetto reale nell’immagine finale in termini sia risolutivi sia cromatici”.2 Per tale motivo un’immagine va giudicata solo ed esclusivamente in conformità a tale parametro: essa è una buona fotografia se riproduce in termini fedeli (ed onesti!) il “reale”.

Interessante a tal proposito quanto leggo nel recentissimo Manuale di fotografia di Silvio Mencarelli3, il quale dice che “(…) fondamentalmente in fotografia è possibile realizzare soltanto due tipi d’immagine: costruendo completamente e artificialmente la scena da riprendere, scegliendo a nostro gusto le luci, l’ambientazione, la posa dei soggetti creando quindi noi una realtà visibile, o non intervenendo sulle caratteristiche della scena che stiamo vivendo: osservando quindi e riprendendo i soggetti e le situazioni senza intervenire.” Il Mencarelli più avanti precisa che il primo caso è un falso, nel secondo, invece, fotografiamo ciò che ci si propone e ci si rappresenta.

Ciò detto, per quanto oggi si sia tentati, trattando del telerilevamento, di enfatizzare i fattori innovativi che spesso paiono straordinari e ammirevoli oltre misura, ciò che è essenziale, e che interessa la nostra ricerca, è soprattutto il “prodotto fotografico”. Di là dei dettagli tecnici (che non formano oggetto del nostro interesse e che in questa sede non hanno valenza alcuna), le immagini digitali, se pur prodotte da un meccanismo differente, devono ugualmente rispondere ai medesimi principî di qualità. Ciò che conta veramente è la capacità di riprodurre in termini reali, una data scena osservata. Se tale obiettivo non fosse raggiunto, non potrebbe mai dirsi di essere davanti ad una buona fotografia. Non solo. Se la “fotografia” mostrata riproducesse dei particolari “inesistenti”, non si tratterebbe propriamente di una fotografia, bensì di un’opera artistica, di un disegno, o di un’immagine creata per elaborazione digitale, o sinteticamente, di una pitto-fotografia che non ha alcun rapporto concreto con la realtà che, invece, vi dovrebbe essere raffigurata.4

In pratica, ciò che ora è possibile, tramite l’uso della tecnica digitale, non lo era un tempo e oggi appaiono sorprendenti, ma vere, e in un certo senso “nostalgiche”,

 017 Camera di ripresa Viking
 Camera di ripresa Viking

le parole contenute in un’opera apparsa, solo un trentennio fa, ma già così distante dai molti “progressi” (o regressi?) raggiunti dalla scienza odierna. Ecco quanto leggiamo nel volume “Astrografia astronomica” di Walter Ferreri:5 Ad alcuni parrà incredibile che esistano metodi per aumentare la nitidezza di una fotografia già scattata. Questo perché è molto diffusa l’opinione secondo la quale la nitidezza sia un fatto esclusivamente oggettivo indicante il numero di dettagli contenuti in una fotografia. In realtà per nitidezza s’intende non solo quanti dettagli si vedono ma anche come si vedono, cioè, detto in altri termini, una foto appare più nitida di un’altra perché i suoi dettagli sono caratterizzati da un maggiore microcontrasto o acutezza. Dunque se è certamente impossibile creare dettagli che non esistono è però possibile operare per renderli più visibili aumentando il loro microcontrasto.”

In tale contesto è osservabile che le forme d’analisi tradizionalmente utilizzate, in alcuni casi specifici, non danno conto della qualità di ciò che l’immagine riproduce e poiché il livello di qualità di una data immagine fotografica è fondamentale e propedeutico per una qualsiasi ulteriore analisi, ci rendiamo conto del minimo valore che assumono le elaborazioni digitali e la fotointerpretazione proposte in loro assenza. Proprio per sopperire a questa grave mancanza metodologica, intervengono, oltre ai tradizionali parametri della risoluzione geometrica e radiometrica, altre tipologie d’analisi (di cui diremo più avanti) che studiano in altro modo i vari elementi di un’immagine satellitare, ponendoli in rapporto con tutti i parametri di riferimento possibili.6

 

 

 

1 La “geomatica” è definita come un “approccio sistemico integrato multidisciplinare per selezionare gli strumenti e le tecniche appropriate per acquisire (in modo metrico e tematico), integrare, trattare, analizzare, archiviare e distribuire dati spaziali georiferiti con continuità in formato digitale”. Cfr. Mario A. Gomarasca, Elementi di Geomatica, Associazione Italiana di Telerilevamento, Milano 2000, p.1.

2 Mario A. Gomarasca, op. cit., p. 76.

3 Edizioni Edup, Roma 2009 – pp. 12,13.

4  In inglese: digitally-created picture.

5 Edizioni Il Castello, Milano 1977, p. 137.

6 Tali parametri supplementari sono la risoluzione topografica e quella analogica.

 

Da più parti si sostiene la tesi della superiore qualità delle immagini satellitari digitali rispetto alle immagini analogiche e, a tal proposito, vale la pena rilevare quale sia realmente la differenza sostanziale tra una macchina fotografica tradizionale e una fotocamera digitale. Posto che la parola “fotografare” significa “scrivere con la luce”, la differenza consiste principalmente nel diverso modo di registrare un’immagine: su pellicola, nelle fotocamere analogiche e mediante un dispositivo ad accoppiamento di carica detta CCD1, concettualmente simile ai sensori utilizzati per le acquisizioni da satellite, nelle fotocamere digitali. Quest’ultimo procedimento consente di ottenere immagini mediante tecnologie elettroniche direttamente in forma digitale e di memorizzarle su un supporto magnetico, ottico o elettronico.

Il processo tradizionale d’acquisizione fotografica consiste invece nella scelta dei materiali fotografici (camera, obiettivi, tipo e sensibilità della pellicola) e nello sviluppo fotochimico e nella relativa stampa.

Il processo fotografico avviene in più fasi operative progressive, mentre con l’acquisizione digitale si ha la disponibilità immediata delle immagini e la possibilità di controllo di tutte le fasi di lavoro. In questo caso, il processo fotogrammetrico tradizionale si riassume nei seguenti punti: 1) Acquisizione/registrazione delle immagini; 2) Orientamento delle immagini e ricostruzione del modello tridimensionale dell’oggetto attraverso tecniche stereoscopiche; 3) Restituzione, cioè misura dell’oggetto e formalizzazione numerica o grafica delle sue caratteristiche dimensionali.

I vantaggi del “digitale” rispetto al processo fotografico analogico si possono riassumere nei seguenti punti: 1) Elevata risoluzione radiometrica; 2) A parità di tempi di ripresa, maggiore rapidità nell’avere a disposizione l’immagine; 3) Facoltà di elaborazione digitale; 4) Riproducibilità identica dell’originale, in tempi brevi e a costi contenuti; 5) Possibilità di inserimento in sistemi informativi e di gestione.

Per quanto sopra detto, è possibile affermare che, nella sostanza, la differenza di qualità fra le immagini digitali e le analogiche, riguarda fattori che non hanno alcun’attinenza con l’adesione dell’immagine alla scena reale ripresa, mentre attengono a fattori accessori che non intaccano il valore obiettivo dell’immagine medesima.

Chiariti i termini tecnici della questione, dobbiamo ora comprendere il valore dei comportamenti “antropologici” connessi all’uso più massiccio della tecnologia digitale. La semplificazione apportata dal digitale ha creato una sorta di “esercito di leva” di fotografi con un tratto evidente (e incipiente) d’analfabetismo fotografico. Mentre un tempo, il “fotografo” era un’artista, padrone della tecnica di ripresa, le cui diverse modalità d’applicazione davano risalto all’ingegno personale, oggi le immagini digitali sono tutte uguali: tutte pronte in fretta, e senza cura alcuna dei particolari (e degli errori), tanto, alla fine, sarà il computer ad aggiustare ogni cosa, a eliminare tutti i difetti riscontrati.

In realtà i programmi d’elaborazione, grafica e video, possono produrre solo immagini finte che, poco alla volta, trasformano una vera possibile immagine in un vero reale “ologramma”.2 Tali programmi d’elaborazione permettono l’uso della cosiddetta “grafica vettoriale” su immagini fotografiche. Tale tecnica riesce a immortalare, nella camera oscura digitale, anche ciò che non esiste o che non è visto davanti all’obiettivo. In altre parole è stato superato il limite “logico” che un tempo confinava la fotografia nel contesto d'una riproduzione fedele della realtà.

Un tratto distintivo di tale “non – cultura”, è stato (ed è in atto, poiché il processo continua inesorabilmente…) l’abbandono del documento cartaceo e il subentro della cultura digitale. Quest’ultima ha di fatto distrutto l’organicità del pensiero, per ciò stesso rendendo impossibile l’applicazione sistematica del metodo scientifico sperimentale, laddove tale processo presupporrebbe l’utilizzo contestuale di documenti visionati in successione logica.

Questo spiega, abbondantemente, la incipiente difficoltà delle generazioni attuali e nondimeno di quella parte delle generazioni precedenti già abbondantemente contaminate dal nuovo corso digitale, alla lettura e alla interpretazione delle immagini satellitari, ormai visionate solo per il tramite del monitor di un computer.

Stupenda l’affermazione di Vilèm Flusser, in “Per una filosofia della fotografia”, secondo cui “L’analfabetismo non è più fisiologicamente compreso, come una volta, entro i ristretti limiti di una cultura codificata nei testi, mentre esso partecipa quasi del tutto alla cultura codificata delle immagini. Se in futuro dovesse compiersi la totale sottomissione dei testi alle immagini, allora dovremmo fare i conti con un analfabetismo generale, e soltanto gli specialisti (quelli che avranno conservato i vecchi codici) impareranno a scrivere”.

 

1Dall’inglese Charge-Coupled Device.

2Un ologramma è una rappresentazione tridimensionale dell'oggetto proiettato.

© 2022 FlipNews All Rights Reserved