
L'informazione non è un optional, ma è una delle condizioni essenziali dell'esistenza dell'umanità. La lotta per la sopravvivenza, biologica e sociale, è una lotta per ottenere informazioni. |
Gianni Viola This email address is being protected from spambots. You need JavaScript enabled to view it.a
Il mondo del futuro sarà senza alcun dubbio radicalmente diverso da quello che conosciamo: così come quello attuale è radicalmente diverso da quello nel quale io sono cresciuto. Con la differenza che il ritmo delle innovazioni è sempre più incalzante e spasmodico, alimentato da meccanismi drogati, che inducono bisogni non necessari e rendono artificiosamente obsoleti i nuovi prodotti, spesso inservibili dopo pochi anni (obsolescenza programmata), e portano alla crescente sostituzione dei valori umani e sociali con il possesso di beni materiali o status symbol.
Il mondo del futuro potrà più o meno piacere, ma sembra indubbio che tra le innovazioni ve ne saranno anche di terrificanti ed estremamente pericolose nel campo della guerra e degli armamenti, nonché del controllo sociale sempre più pervasivo. Sono tanti gli interrogativi e gli aspetti inquietanti che riguardano gli sviluppi dell’intelligenza artificiale e dell’automazione e il loro controllo (se questo non è un’illusione), ma tra questi occorre includere anche la guerra e il modo in cui queste tecnologie potrebbero (o potranno, se non verranno arrestati) inserirsi nei conflitti bellici del futuro, affiancandosi, se non addirittura sostituendosi per molte funzioni, agli esseri umani. L’automazione crescente interesserà infatti anche gli armamenti perché si stanno approntando le cosiddette armi autonome (fully autonomous weapons), chiamate a volte “killer robot“, armamenti che possono selezionare e ingaggiare bersagli senza ulteriore intervento di un operatore umano.
L’immaginario corre agli scenari della fantascienza, come Guerre Stellari, ma per quanto la fantascienza cerchi di immaginare il futuro più impensabile questo non è evidentemente prevedibile e potrà essere completamente diverso.
Il dibattito sull’innovazione tecnologica è sempre stato molto vivo (risalendo per lo meno dal tempo dei luddisti): è sempre stata presente, e alla fine prevalente (in modo attivo o, spesso, passivo) una corrente che ha salutato con favore tutte le innovazioni, affermando che il problema non è fermare il “progresso” ma controllarlo. Il mio personale parere è che questa idea di “controllo della tecnologia e delle innovazioni” si è rivelata una copertura ideologica e raramente ha funzionato per evitare le ricadute negative delle innovazioni: porto spesso un esempio, siamo riusciti a controllare l’innovazione dell’automobile che esiste da più di un secolo, a valorizzarne solo gli (indubbi) aspetti positivi? A me sembra che lo sviluppo incontrollato dell’automobile si sia tramutato nel soffocamento delle città, in frequenti paralisi della circolazione, in una fonte micidiale di inquinamento ambientale terribilmente nocivo [penso che tutti conoscano le autorevoli e spaventose valutazioni di 9 milioni di decessi prematuri all’anno: ma questa notizia ha forse indotto una riduzione dell’uso dell’auto privata? D’altra parte le automobili autonome (self-driving cars) sono ormai una realtà in via di inserimento nel mercato commerciale (una volta superate le barriere normative, culturali ed economiche)].
Tanto più micidiale è il rischio di uno sviluppo incontrollato delle armi autonome, soprattutto di un loro utilizzo incontrollabile e irresponsabile (ma è mai esistito uno sviluppo responsabile degli armamenti?). Storicamente è sempre avvenuto che lo sviluppo di armi innovative non sia mai stato arrestato, sia stato adottato (spesso con l’illusione, o il pretesto, di acquisire un vantaggio per molto tempo incolmabile sugli avversari) ed abbia rivoluzionato in modo duraturo la natura stessa della guerra: è avvenuto per il fucile e il cannone, fino alla bomba atomica e i suoi sviluppi successivi (bomba termonucleare, missili, difese antimissile, ecc.): salvo poi chiudere la stalla successivamente, mettendo affannosamente al bando le armi più spaventose (chimiche, biologiche, mine anti-uomo, bombe a grappolo: per le armi nucleari siamo all’inizio).
Le armi autonome cominciano già ora ad essere una realtà e non solo uno scenario potenziale, ma non ancora regolamentato. Esso pone in ogni caso già da ora dei problemi etici e legali fondamentali.
Per fortuna sembra che stia maturando una sana preoccupazione e reazione, che però non trova corrispondenza in un’adeguata informazione e non provoca quella presa di coscienza e quella razione dell’opinione pubblica che ne determinerebbe il radicale ripudio. Una volta aperto questo vaso di Pandora, che darà origine agli sviluppi e applicazioni più impensabili, come si potrà tornare indietro?
Le maggiori autorità mondiali dell’intelligenza artificiale e della robotica – fra cui spiccano i nomi di Elon Musk e Mustafa Suleyman, di Google DeepMind – si sono rivolte alle Nazioni Unite per promuovere il bando delle armi autonome. Essi sottolineano che grazie alle evoluzioni tecnologie degli ultimi anni lo sviluppo di queste armi potrebbe scatenare una terza rivoluzione nelle scienze belliche, dopo quelle legate all’invenzione della polvere da sparo e a quella delle armi nucleari (ovviamente la classificazione delle rivoluzioni militari si presta ad arbitrarietà, ma quello che conta è il concetto):
“Una volta sviluppate le armi autonome permetteranno conflitti armati di scala ben più ampia rispetto ad oggi, e con velocità più superiore a quelle che l’uomo può comprendere …Possono essere armi di terrore, armi che despoti e terroristi utilizzeranno contro le popolazioni innocenti, e armi che possono essere manipolate per comportarsi in modalità poco desiderabili”.
La lettera è firmata da 116 leader di società che si occupano di Intelligenza Artificiale provenienti da 26 nazioni differenti. Il suo obiettivo è di sensibilizzare l’Onu affinché venga avviato un dialogo per proporre un divieto globale sullo sviluppo delle armi autonome. È forse il caso di esprimere qualche perplessità sul fatto che a muoversi siano esponenti di imprese del settore. Ma la necessità di sensibilizzare e mobilitare l’opinione pubblica è senz’altro urgente. I media e le istituzioni mondiali sembrano muti, e comunque incapaci di affrontare le sfide che sorgono alle nuove frontiere di conoscenza, scienza e tecnologia, di governare e integrare in uno sviluppo equilibrato, compatibile e sostenibile i più delicati avanzamenti conoscitivi e le loro potenziali ricadute. Mentre il mondo è dominato dal paradigma (o il mito) della comunicazione e allo stesso tempo orfano di un ordine nel comunicare.
Le principali potenze militari che stanno sviluppando questo tipo di tecnologie sono USA, Cina, Russia e Israele. Alcuni sistemi sono già stati utilizzati sul campo, come le torrette di confine autonome sviluppate dalla sudcoreana Dodaam Systems, che adottano dei mitragliatori capaci di identificare e sparare su bersagli senza alcun intervento umano (necessitano solo dell’ok per sferrare il colpo letale).
Come sempre accade vi sono anche voci opposte, che sostengono che queste tecnologie siano in grado di ridurre le morti sul campo di battaglia, con la possibilità di individuare soldati e combattenti in maniera più precisa rispetto agli esseri umani: come non ricordare che i bombardamenti nucleari di Hiroshima e Nagasaki furono surrettiziamente “giustificati” per risparmiare vittime fra i soldati americani in una invasione del Giappone?
Per gentile concesssione dell'agenzia di stampa Pressenza
Boicottaggi, sabotaggi e ostruzionismo all’interno delle nostre Istituzioni di “ricerca” più prestigiose, fino ad arrivare alla distruzione dei documenti in occasione del Premio Nobel.
Sarebbe interessante sapere, da una parte, chi dispone e distribuisce le risorse economiche nazionali già assegnate dal Governo per la ricerca; dall’ altra, dove sono finiti i fondi della ricerca scientifica destinati ai laboratori più promettenti di risultati utili e utilizzabili per l’interesse della collettività.
Il caso specifico in cui il potentato delle lobby nostrane ha operato in modo contrario agli interessi nazionali è quello del Dott. Francesco Celani, noto ricercatore dell’Istituto Nazionale di Fisica Nucleare di Frascati (INFN) che si interessa allo sviluppo di innovative metodologie per la produzione di energia termica ad alta efficienza, a basso costo e praticamente priva di radiazioni nocive, denominata LENR. Il tutto ad integrazione e, nel lungo periodo, in sostituzione dell’energia ottenuta dalla combustione delle varie sostanze fossili inquinanti, da molti ritenute responsabili principali del cosiddetto “Effetto serra” e dei bruschi cambiamenti climatici a queste attribuite.
Questo Ricercatore ha dedicato la parte professionale di maggiore esperienza della propria vita nei Laboratori di Frascati, fino alle soglie dell’età di quiescenza lavorativa.
L’Istituto ha così acquisito risultati eclatanti in questo tipo di ricerca anche in virtù degli approfondimenti professionali che lo stesso Celani ha potuto ottenere in Conferenze internazionali e durante i periodi trascorsi all’ estero con altri Ricercatori.
Ma proprio qui sta il punto perché tanto più Celani più acquistava conoscenza internazionale e stima professionale per le sue ricerche in questo comparto strategico, tanto più in Italia veniva avversato attraverso le lobby economiche e politiche; lobby che sono di fatto, arrivate all’ostruzionismo lavorativo all’interno dello stesso INFN.
Chiusura della sperimentazione LENR - Qualche anno fa, l’intuizione scientifica del Dott. Celani supera il tradizionale impiego dei materiali molto costosi come il Palladio, per la produzione di questa energia termica. Egli arrivava infatti, ad un risultato ancora maggiore con l’ impiego della Costantana, ossia di un composto, sostanzialmente, a base di nichel e rame, con l’ aggiunta di un particolare vetro.
Ovviamente il risultato che più interessa ai fini industriali è la quantità di energia e il suo rendimento. Sono questi la prospettiva del futuro sulla quale il mondo intero potrà attingere a volontà energia da impianti semplici a costi molto contenuti, di impiego anche domestico.
Ma con il crescere della notorietà del Dott. Celani, crescono contro di lui le avversità che arrivano all’interno dell’Istituto Nazionale di Fisica Nucleare. Il periodo migliore per questo genere di ostilità è quello delle ferie estive in cui, com’è noto, è difficile reperire il bandolo della matassa. Infatti nel luglio del 2013 arriva l’ordine del Direttore dei Laboratori Nucleari di Frascati di chiudere entro settembre dello stesso anno, la sperimentazione su LENR.
In considerazione però, della abnormità della decisione adottata, vengono presentate ben otto interrogazioni parlamentari, per chiedere le ragioni di tale imperativo; interrogazioni che fortunatamente hanno sortito l’effetto di superare gli intendimenti del Direttore e di far proseguire l’attività di ricerca allo stesso Celani, ma senza alcun finanziamento da parte dell’Istituto.
Proposta al premio Nobel - La conoscenza anche all’estero del caso Celani è ormai grande e la sua notorietà scientifica dei successi sperimentali su LENR rompe gli steccati del Laboratorio di Fisica Nucleare di Frascati; notorietà che supera le frontiere del mondo e giunge in Norvegia, dove nel 2014 in virtù delle ricerche, da lui condotte su LENR viene proposta e accettata la candidatura per il premio Nobel per la Pace.
Celani infatti, simbolicamente parlando, alla stregua di un novello Prometeo che regalò il fuoco degli Dei agli uomini, si propone ora, di consegnare all’Umanità il dono dell’ energia a basso costo ed a volontà per tutti. Il premio Nobel per la Pace simboleggia infatti, il contributo del nostro Ricercatore alla eliminazione dei continui conflitti, come la storia insegna, per l’ accaparramento delle fonti energetiche del mondo.
Per queste ragioni egli, per quanto, si è potuto capire, supera le valutazioni preliminari, entrando nella scelta finale per il più alto gradino di Oslo. Di fatto, stante la trepidazione di casa nostra, temendo che il Dott. Celani potesse conseguire l’ambito premio, non si comprende quale sia stata la posizione assunta dalla rappresentanza ufficiale italiana. Ma alla fine, quando tutto sembrava ormai scontato a favore del nostro candidato, il conferimento Nobel viene attribuito per ragioni politiche, agli attivisti indiani Malala Yousafzay e Kailash Satyarthi.
La seconda finale al Nobel - L’anno successivo, ossia, nel 2015, accade la medesima cosa. Il Dott. Celani, viene di nuovo prescelto per la candidatura al premio Nobel, evidentemente per il rammarico di qualcuno di un’ingiustizia arrecata al nostro Ricercatore che sotto il profilo formale aveva dato adito, ovviamente, a qualche indimostrata richiesta tecnica, ritenuta decisiva.
Evidentemente in Italia a cui l’attenzione delle lobby si riferisce, la preoccupazione cresce e il rimedio da prendersi perché Celani non riesca a salire il prestigioso gradino, questa volta, dovrà essere ben valido e definitivo.
Celani infatti, a Gennaio del 2015 è già tra i candidati al premio Nobel. Il mese successivo nei Laboratori di Frascati avviene la sorpresa; sorpresa non già per l’ostruzionismo ma per la qualità del rimedio escogitato. Si tratta questa volta di un fatto più unico che raro nella storia del Centro, ma significativo della avversione alla ricerca LENR, identificata in Celani per la grave problematica che questi rappresenterebbe in Italia, qualora fosse a lui attribuito il premio Nobel.
Ubi malum, ibi remedium – dicevano nel passato. E il rimedio c’è stato. Guarda caso! - direbbe qualcuno. Guarda proprio il caso di ciò che è avvenuto! Nel febbraio 2015, il Direttore dei Laboratori di
![]() |
Il prof. Francesco Celani |
Frascati questa volta dà di fatto disposizione affinché tutta la documentazione scientifica del Dott. Celani depositata in un apposito locale del Centro, venga distrutta, all’insaputa dell’interessato, attraverso la macerazione. Dopo il misfatto, neppure con l’immane e affannoso lavoro di ricostruzione, Celani riesce a ricomporre in tempo utile, la documentazione mancante per dimostrare, dopo la seconda candidatura per il Premio Nobel, il merito riconoscibile per l’alto gradino dell’ ambito premio. E quell’anno la preferenza viene attribuita al Quartetto tunisino delle Associazioni per il dialogo politico democratico della cosiddetta “Primavera Araba”.
La conferma giapponese - A conferma del giusto indirizzo intrapreso nei Laboratori di Frascati per opera di Celani, si ha in questi giorni notizia giapponese di notevoli miglioramenti quantitativi dell’energia LENR prodotta attraverso lo stesso utilizzo di rame-nichel in stretto contatto con una specifica struttura di vetro, cioè il leit-motiv di Celani: questi rappresentano proprio la base su cui il nostro Ricercatore ha ottenuto i propri risultati in Italia.
Concludiamo l’articolo, facendo presente che il Dott. Celani, arrivato come detto, alle soglie del pensionamento, contrariamente a quanto avviene nella Pubblica Amministrazione con proroghe annuali in attività lavorativa, suo malgrado, dovrà andare obbligatoriamente in quiescenza alla fine di settembre.
In questo caso però, lascerà il proprio lavoro alle soglie del successo, come avvenne per “l’incompiuta di Schubert”; “incompiuta” che a differenza di quanto accadde per il musicista, questa volta sarebbero le stesse lobby antagoniste ad impedire i tentativi a chicchessia di completare l' opera.
Per queste ragioni ci si chiede come lo Stato Italiano, rappresentato dal Parlamento e dalle varie classi politiche che lo compongono, possa rimanere indifferente di fronte ad una serie di così gravi e continuate prevaricazioni all’interno della Pubblica Amministrazione. Con la perentoria messa in quiescenza di Celani, si ottiene proprio ciò che finora le menzionate lobby hanno tentato, ostacolando per i loro interessi la scoperta della produzione di una nuova forma di energia, impedendo cioè, una fondamentale conquista scientifica a discapito dell’ Italia e dell’intera Umanità.
Alla base della rilevazione satellitare si trova il processo fotografico e quant’altro attenga alla “visione”, che, tra i fenomeni naturali, è considerata uno dei più affascinanti e complessi, caratterizzata dal fenomeno della luce. Questa è una forma d’energia radiante che consente di rendere visibili gli oggetti circostanti e tali sensazioni luminose rappresentano la più elementare e rudimentale percezione visiva. Posto che la visione avviene attraverso l’organo dell’occhio, si potrebbe essere indotti a dare al fenomeno della percezione visiva una spiegazione puramente fisica. Va detto però, che il fenomeno, in realtà, non può prescindere da importanti fattori psichici. La percezione visiva non è esclusivamente legata agli stimoli sensoriali, essa è un complesso processo dinamico di ricerca svolto dal cervello, il cui scopo è definire la migliore interpretazione possibile dei dati raccolti. La sola fase ottico-fisiologica della visione è insufficiente.
La fotografia è un processo di trasferimento di un oggetto reale in immagine, e tecnicamente essa può essere definita come una rappresentazione ottenuta dall’interazione dell’energia raggiante con l’emulsione fotosensibile della pellicola, come la descrizione di un fenomeno o di un processo mediante la rappresentazione normalmente bidimensionale di informazioni relative al fenomeno o al processo indagati.
Per comprendere il concetto di fotografia, vale riferirsi all’esempio di come funziona una macchina fotografica in rapporto con l’occhio umano, dove l’obiettivo (della macchina) corrisponde al cristallino, la camera oscura corrisponde alla sclerotica, la lastra sensibile è la retina, mentre il diaframma corrisponde all’iride che controlla il flusso luminoso in entrata attraverso la pupilla (il guadagno in termini strumentali); infine, la pellicola fotosensibile corrisponde ai fotorecettori e/o ai rilevatori (dunque alla parte sensoriale) a loro volta equivalenti ai coni e bastoncelli.
Sebbene la “visione” sia un dato dinamico e essa spesso si presenti sotto vari connotati e “vedere” non abbia, dunque, sempre lo stesso significato, tuttavia l’ideale della “visione” è la percezione quanto meno “reale” della scena osservata, parimenti, la “fotografia” ha come scopo la riproduzione “fedele” di ciò che esiste nella realtà.
Una conferma ci giunge, ben a proposito, nell’ambito di un’opera di geomatica1, dove è scritto che “lo scopo che si sono posti da sempre i fotografi è la fedele riproduzione dell’oggetto reale nell’immagine finale in termini sia risolutivi sia cromatici”.2 Per tale motivo un’immagine va giudicata solo ed esclusivamente in conformità a tale parametro: essa è una buona fotografia se riproduce in termini fedeli (ed onesti!) il “reale”.
Interessante a tal proposito quanto leggo nel recentissimo Manuale di fotografia di Silvio Mencarelli3, il quale dice che “(…) fondamentalmente in fotografia è possibile realizzare soltanto due tipi d’immagine: costruendo completamente e artificialmente la scena da riprendere, scegliendo a nostro gusto le luci, l’ambientazione, la posa dei soggetti creando quindi noi una realtà visibile, o non intervenendo sulle caratteristiche della scena che stiamo vivendo: osservando quindi e riprendendo i soggetti e le situazioni senza intervenire.” Il Mencarelli più avanti precisa che il primo caso è un falso, nel secondo, invece, fotografiamo ciò che ci si propone e ci si rappresenta.
Ciò detto, per quanto oggi si sia tentati, trattando del telerilevamento, di enfatizzare i fattori innovativi che spesso paiono straordinari e ammirevoli oltre misura, ciò che è essenziale, e che interessa la nostra ricerca, è soprattutto il “prodotto fotografico”. Di là dei dettagli tecnici (che non formano oggetto del nostro interesse e che in questa sede non hanno valenza alcuna), le immagini digitali, se pur prodotte da un meccanismo differente, devono ugualmente rispondere ai medesimi principî di qualità. Ciò che conta veramente è la capacità di riprodurre in termini reali, una data scena osservata. Se tale obiettivo non fosse raggiunto, non potrebbe mai dirsi di essere davanti ad una buona fotografia. Non solo. Se la “fotografia” mostrata riproducesse dei particolari “inesistenti”, non si tratterebbe propriamente di una fotografia, bensì di un’opera artistica, di un disegno, o di un’immagine creata per elaborazione digitale, o sinteticamente, di una pitto-fotografia che non ha alcun rapporto concreto con la realtà che, invece, vi dovrebbe essere raffigurata.4
In pratica, ciò che ora è possibile, tramite l’uso della tecnica digitale, non lo era un tempo e oggi appaiono sorprendenti, ma vere, e in un certo senso “nostalgiche”,
|
Camera di ripresa Viking |
le parole contenute in un’opera apparsa, solo un trentennio fa, ma già così distante dai molti “progressi” (o regressi?) raggiunti dalla scienza odierna. Ecco quanto leggiamo nel volume “Astrografia astronomica” di Walter Ferreri:5 “Ad alcuni parrà incredibile che esistano metodi per aumentare la nitidezza di una fotografia già scattata. Questo perché è molto diffusa l’opinione secondo la quale la nitidezza sia un fatto esclusivamente oggettivo indicante il numero di dettagli contenuti in una fotografia. In realtà per nitidezza s’intende non solo quanti dettagli si vedono ma anche come si vedono, cioè, detto in altri termini, una foto appare più nitida di un’altra perché i suoi dettagli sono caratterizzati da un maggiore microcontrasto o acutezza. Dunque se è certamente impossibile creare dettagli che non esistono è però possibile operare per renderli più visibili aumentando il loro microcontrasto.”
In tale contesto è osservabile che le forme d’analisi tradizionalmente utilizzate, in alcuni casi specifici, non danno conto della qualità di ciò che l’immagine riproduce e poiché il livello di qualità di una data immagine fotografica è fondamentale e propedeutico per una qualsiasi ulteriore analisi, ci rendiamo conto del minimo valore che assumono le elaborazioni digitali e la fotointerpretazione proposte in loro assenza. Proprio per sopperire a questa grave mancanza metodologica, intervengono, oltre ai tradizionali parametri della risoluzione geometrica e radiometrica, altre tipologie d’analisi (di cui diremo più avanti) che studiano in altro modo i vari elementi di un’immagine satellitare, ponendoli in rapporto con tutti i parametri di riferimento possibili.6
1 La “geomatica” è definita come un “approccio sistemico integrato multidisciplinare per selezionare gli strumenti e le tecniche appropriate per acquisire (in modo metrico e tematico), integrare, trattare, analizzare, archiviare e distribuire dati spaziali georiferiti con continuità in formato digitale”. Cfr. Mario A. Gomarasca, Elementi di Geomatica, Associazione Italiana di Telerilevamento, Milano 2000, p.1.
2 Mario A. Gomarasca, op. cit., p. 76.
3 Edizioni Edup, Roma 2009 – pp. 12,13.
4 In inglese: digitally-created picture.
5 Edizioni Il Castello, Milano 1977, p. 137.
6 Tali parametri supplementari sono la risoluzione topografica e quella analogica.
Da più parti si sostiene la tesi della superiore qualità delle immagini satellitari digitali rispetto alle immagini analogiche e, a tal proposito, vale la pena rilevare quale sia realmente la differenza sostanziale tra una macchina fotografica tradizionale e una fotocamera digitale. Posto che la parola “fotografare” significa “scrivere con la luce”, la differenza consiste principalmente nel diverso modo di registrare un’immagine: su pellicola, nelle fotocamere analogiche e mediante un dispositivo ad accoppiamento di carica detta CCD1, concettualmente simile ai sensori utilizzati per le acquisizioni da satellite, nelle fotocamere digitali. Quest’ultimo procedimento consente di ottenere immagini mediante tecnologie elettroniche direttamente in forma digitale e di memorizzarle su un supporto magnetico, ottico o elettronico.
Il processo tradizionale d’acquisizione fotografica consiste invece nella scelta dei materiali fotografici (camera, obiettivi, tipo e sensibilità della pellicola) e nello sviluppo fotochimico e nella relativa stampa.
Il processo fotografico avviene in più fasi operative progressive, mentre con l’acquisizione digitale si ha la disponibilità immediata delle immagini e la possibilità di controllo di tutte le fasi di lavoro. In questo caso, il processo fotogrammetrico tradizionale si riassume nei seguenti punti: 1) Acquisizione/registrazione delle immagini; 2) Orientamento delle immagini e ricostruzione del modello tridimensionale dell’oggetto attraverso tecniche stereoscopiche; 3) Restituzione, cioè misura dell’oggetto e formalizzazione numerica o grafica delle sue caratteristiche dimensionali.
I vantaggi del “digitale” rispetto al processo fotografico analogico si possono riassumere nei seguenti punti: 1) Elevata risoluzione radiometrica; 2) A parità di tempi di ripresa, maggiore rapidità nell’avere a disposizione l’immagine; 3) Facoltà di elaborazione digitale; 4) Riproducibilità identica dell’originale, in tempi brevi e a costi contenuti; 5) Possibilità di inserimento in sistemi informativi e di gestione.
Per quanto sopra detto, è possibile affermare che, nella sostanza, la differenza di qualità fra le immagini digitali e le analogiche, riguarda fattori che non hanno alcun’attinenza con l’adesione dell’immagine alla scena reale ripresa, mentre attengono a fattori accessori che non intaccano il valore obiettivo dell’immagine medesima.
Chiariti i termini tecnici della questione, dobbiamo ora comprendere il valore dei comportamenti “antropologici” connessi all’uso più massiccio della tecnologia digitale. La semplificazione apportata dal digitale ha creato una sorta di “esercito di leva” di fotografi con un tratto evidente (e incipiente) d’analfabetismo fotografico. Mentre un tempo, il “fotografo” era un’artista, padrone della tecnica di ripresa, le cui diverse modalità d’applicazione davano risalto all’ingegno personale, oggi le immagini digitali sono tutte uguali: tutte pronte in fretta, e senza cura alcuna dei particolari (e degli errori), tanto, alla fine, sarà il computer ad aggiustare ogni cosa, a eliminare tutti i difetti riscontrati.
In realtà i programmi d’elaborazione, grafica e video, possono produrre solo immagini finte che, poco alla volta, trasformano una vera possibile immagine in un vero reale “ologramma”.2 Tali programmi d’elaborazione permettono l’uso della cosiddetta “grafica vettoriale” su immagini fotografiche. Tale tecnica riesce a immortalare, nella camera oscura digitale, anche ciò che non esiste o che non è visto davanti all’obiettivo. In altre parole è stato superato il limite “logico” che un tempo confinava la fotografia nel contesto d'una riproduzione fedele della realtà.
Un tratto distintivo di tale “non – cultura”, è stato (ed è in atto, poiché il processo continua inesorabilmente…) l’abbandono del documento cartaceo e il subentro della cultura digitale. Quest’ultima ha di fatto distrutto l’organicità del pensiero, per ciò stesso rendendo impossibile l’applicazione sistematica del metodo scientifico sperimentale, laddove tale processo presupporrebbe l’utilizzo contestuale di documenti visionati in successione logica.
Questo spiega, abbondantemente, la incipiente difficoltà delle generazioni attuali e nondimeno di quella parte delle generazioni precedenti già abbondantemente contaminate dal nuovo corso digitale, alla lettura e alla interpretazione delle immagini satellitari, ormai visionate solo per il tramite del monitor di un computer.
Stupenda l’affermazione di Vilèm Flusser, in “Per una filosofia della fotografia”, secondo cui “L’analfabetismo non è più fisiologicamente compreso, come una volta, entro i ristretti limiti di una cultura codificata nei testi, mentre esso partecipa quasi del tutto alla cultura codificata delle immagini. Se in futuro dovesse compiersi la totale sottomissione dei testi alle immagini, allora dovremmo fare i conti con un analfabetismo generale, e soltanto gli specialisti (quelli che avranno conservato i vecchi codici) impareranno a scrivere”.
1Dall’inglese Charge-Coupled Device.
2Un ologramma è una rappresentazione tridimensionale dell'oggetto proiettato.
Roma, 11 Novembre 2015 - Thales Alenia Space,joint venture tra Thales (67%) e Finmeccanica (33%), ha annunciato oggi di aver siglato un contratto con BTRC (Bangladesh Telecom Regulatory Commission) per la costruzione del satellite per telecomunicazioni Bangabandhu, aggiudicandosi l'accordo tra una serie di concorrenti internazionali. Il satellite diminuirà il divario digitale, diffondendo servizi di trasmissione e telecomunicazione alle aree rurali e introducendo servizi redditizi, come quelli direct-to-home, in tutto il paese e la regione.
In quanto prime contractor di questo programma chiavi in mano, Thales Alenia Space sarà responsabile della progettazione, produzione, test e consegna in orbita del satellite.
Il satellite è basato su una piattaforma derivante dall’esperienza di Thales Alenia Space, con 81 Spacebus già ordinati e più di 600 anni accumulati in orbita. Realizzato sulla versione aggiornata della piattaforma Spacebus 4000B2, Bangagandhu sarà dotato di 27 trasponditori in banda Ku e 14 in banda C. L'area di copertura del satellite includerà il Bangladesh e la regione circostante. Questo sistema offrirà capacità in banda Ku al Bangladesh e alle sue acque territoriali sul Golfo del Bengala, India, Nepal, Bhutan, Sri Lanka, Filippine e Indonesia, fornendo inoltre capacità in banda C a tutta la regione.
Thales Alenia Space si occuperà inoltre del segmento di terra, che sfrutterà gli strumenti SpaceOps di Thales Alenia Space per la pianificazione e monitoraggio della missione: includerà due strutture a terra per la gestione del satellite e il Network Operations Center, basato sulla soluzione globale SpaceGate di Thales Alenia Space. Spectra Ltd Company, partner di Thales in Bangladesh, si occuperà delle attività civili delle strutture di terra.
Il lancio è previsto per il 2017 e questo primo satellite del Bangladesh sarà posizionato a 119,1° est.
"Thales Alenia Space è orgogliosa di essere stata scelta da BTRC per il primo, fondamentale satellite di Bangladeshi Telecom. Questo satellite, denominato Bangabandhu come il famoso padre della Nazione, è una milestone chiave per lo sviluppo delle telecomunicazioni in Bangladesh e costituirà anche un notevole supporto alla crescita dell'economica nazionale e al riconoscimento della regione asiatica," ha affermato Jean Loïc Galle, CEO di Thales Alenia Space.
“Il contratto per questo satellite di telecomunicazioni firmato con Thales Alenia Space, player chiave nelle telecomunicazioni spaziali, sottolinea una svolta significativa nella storia del Bangladesh, non solo perché riduce il divario digitale, ma anche perché in grado di generare business e posti di lavoro” ha affermato Md Golam Razzaque, Direttore del progetto Bangabandhu per conto di BTRC. "Noi ci auguriamo di eseguire il lancio in concomitanza del 46⁰ anniversario del giorno della Vittoria del nostro Paese che sarà il 16 dicembre 2017 ".
Forte del suo importante background di tecnologia ed innovazione, che sta destando interesse in tutto il mondo, è iniziato anche in Italia il lancio dell’avveniristica e-bike Neox, completamente made in Italy. Frutto di cinque anni di ricerca e progettazione e di 4 brevetti internazionali depositati, può a buon diritto definirsi unica al mondo perché “nata elettrica”. Ma il bello è che non si vede.
Città intasate dal traffico, difficoltà sempre maggiori nel trovare un parcheggio: ormai la mobilità, urbana e non, necessita sempre più di alternative sostenibili, ma anche confortevoli, eleganti e in sintonia con la modernità.
Da qualche anno anche in Italia, in ritardo sull’Europa, soprattutto del nord, una delle risposte più accreditate sembra essere l’e-bike, altrimenti definita “bicicletta con pedalata assistita”, o in gergo tecnico internazionale “pedelec”. Bici che utilizzano un motorino elettrico come sostegno allo sforzo normalmente richiesto dalla pedalata, con il concetto di ottenere il massimo risultato con il minimo sforzo. Sono nate così una serie di e-bike che montano in modo “vistoso” motori elettrici e cambi, prodotti da terzi, assemblati in modo visibile e antiestetico e, in alcuni casi, con una concezione di cambio che non permette una pedalata assistita fluida. Dalla rilevazione di queste lacune, un gruppo di imprenditori veneti, appassionati di ciclismo e di innovazione tecnologica, ha ideato un nuovo concept di e-bike concepita, da zero, per essere elettrica. Il progetto Neox, brand di Siral, società specializzata nella produzione e ricerca eco-tecnologica, è nato 5 anni fa con l’obiettivo direalizzare ex novo una bike elettrica senza avvalersi di “protesi” altrui, ma soprattutto partendo da alcune innovazioni tecnologiche che la rendono unica al mondo. Una concezione che si è basata su4 brevetti internazionali depositati,inerenti Il cambio, il sistema di innesto, il sensore di coppia e la posizione di folle. Innovativa anche l’ estetica, capace di celare motorino, cambio e altri orpelli - inseriti in blocco in un unico monobraccio - con un design elegante ed estremamente “pulito”. Il risultato è una bike insospettabilmente elettrica, di grande appeal. Fluida nell’assistenza elettrica e nel cambio dei rapporti e con un enorme vantaggio logistico: la possibilità di poterne smontare, in tre secondi d’orologio, entrambe le ruote, per caricarla facilmente anche in un’auto di piccole dimensioni. Il tutto senza neanche doversi sporcare le mani, visto che tutta la trasmissione è celata all’interno della struttura.
Elegante, comoda e sicura, questa e-bike 2.0 risulta utile per spostarsi, senza fatica e senza sporcarsi, da un capo all’altro della città, ma anche per una galvanizzante pedalata “country”. Anche chi non è allenato, potrà così vivere la galvanizzante esperienza di “volare” su una biciclettacoprendo lunghi percorsi, anche in pendio, senza doverne pagare il prezzo in termini di acido lattico o dolori vari del giorno dopo.
Il concept innovativo, unico al mondo, che sta alla base dell’invenzione di Neox risiede nel cambio elettronico sequenziale rotativo, con sistema di cambio direttamente integrato nel motore di assistenza.
Un sistema innovativo, che evita i movimenti trasversali dei cambi tradizionali, garantendo una totale fluidità nel cambio di rapporti e nell’ausilio alla pedalata, che avviene in modo costante e continuativo, senza alcun effetto di “strappo” o di “spinta”. Tutto il sistema è costantemente monitorato da un sensore di sforzo con rilevazione di coppia tra gli ingranaggi primari e secondari.
Non ultimo, Neox monta un antifurto, attivabile con codice Pin, che agisce bloccando il sistema meccanico e mettendo l’e-bike in folle. L’ideale per bere un caffè o un aperitivo senza dover incatenare la bici, con la sicurezza che qualsiasi malintenzionato, in questo modo, si ritroverebbe a far ruotare le pedivelle “a vuoto”, non potendo trasmettere il moto.
La e-bike è garantita 5 anni e permette di beneficiare di assistenza semplicemente sganciando e spedendo il monobraccio contenete tutto il sistema elettro-meccanico di trasmissione.
Costi: Urban € 4.000 (Iva compresa) – Sporter € 4.500 (Iva compresa) – Crosser € 4.900 (Iva compresa)
Per informazioni su distribuzione, modelli e prezzi: www.myneox.it – This email address is being protected from spambots. You need JavaScript enabled to view it.