ALI - Numero 28

 

Embed or link this publication

Description

Settembre 2017

Popular Pages


p. 1



[close]

p. 2

In laboratorio l'ibernazione artificiale non è fantascienza. ''Ci aiuterà, dall'Alzheimer alle missioni spaziali'' Evoca scenari futuribili ma la possibilità di indurre artificialmente uno stato simile al letargo è in realtà concreta. E potrebbe avere importanti applicazioni in campo medico e spaziale. Lo spiega il neuroscienziato Matteo Cerri Coricarsi. Chiudere gli occhi. Sperimentare il progressivo intorpidimento di membra e mente. E svegliarsi settimane, mesi o anni più tardi, più vivi e freschi di prima. Uno scenario visto in tantissime opere di fantascienza – da Interstellar a 2001: Odissea nello spazio, passando per Avatar e Il dormiglione – che sembra però essere molto più concreto di quanto si possa pensare. Gli scienziati lo chiamano ibernazione, i profani lo conoscono come letargo. Perché, alla fine, di questo si tratta: una condizione caratterizzata da una riduzione estrema del metabolismo e della temperatura corporea, che consente di sopravvivere a periodi più o meno prolungati di assenza di risorse. Una sorta di austerity fisiologica, insomma: un superpotere che molti mammiferi – scoiattoli, marmotte, topi, orsi – possiedono e attuano spontaneamente. E che diversi scienziati in tutto il mondo cercano di replicare, estendendolo artificialmente a specie non ibernanti. Obiettivo ultimo, gli esseri umani. A occuparsi del tema, in Italia, è l’équipe di Matteo Cerri, neuroscienziato dell’Università di Bologna e collaboratore dell’Agenzia Spaziale Europea, che in un recente intervento al Festival della Mente di Sarzana ha raccontato lo stato dell’arte e illustrato i possibili scenari futuri. Cosa si intende esattamente per 'ibernazione' e come funziona? "Si tratta di un processo naturale, popolarmente noto come letargo, che consente all’organismo di alcuni mammiferi di avvicinarsi a uno stato fisiologico molto vicino alla morte. Nel corpo di chi va in ibernazione si registra un notevole abbassamento della temperatura e una drastica riduzione di respirazione, battito cardiaco e metabolismo: in questo modo è possibile diminuire significativamente il consumo di energia e sopravvivere a lunghi periodi in cui ci sono poche risorse a disposizione. Un po’ quello che accade a un computer che, per risparmiare carica della batteria quando non è collegato alla rete elettrica, entra in stand-by. L’aspetto interessante è che si tratta probabilmente di una caratteristica ancestrale, cioè condivisa da tutti i mammiferi: riteniamo infatti che tutti i mammiferi siano dotati del gruppo di geni che predispone e consente di affrontare lo status di ibernazione. La sfida scientifica importante è quella di capire perché l’evoluzione abbia agito diversamente sulle specie, facendo mantenere questa capacità ad alcune di esse e facendola perdere ad altre."

[close]

p. 3

Cosa succede al cervello di chi va in ibernazione? "La comprensione di quello che accade nel cervello durante l’ibernazione è uno degli aspetti più complessi e delicati dell’intero meccanismo. Sappiamo con certezza che l’ibernazione, dal punto di vista cerebrale, è molto diversa da stati come il coma, il sonno o l’anestesia, nei quali il cervello esprime una cosiddetta attività a onde lente: i neuroni della corteccia cerebrale, sostanzialmente, sincronizzano, ossia perdono la capacità di effettuare più operazioni diverse nello stesso momento. Durante lo stato di ibernazione, invece, i neuroni mantengono la desincronizzazione, ma il ritmo delle operazioni risulta molto rallentato: per questo motivo, riteniamo che gli animali che sono in ibernazione sperimentino un tempo soggettivo estremamente dilatato. Un’altra caratteristica che è stata osservata è che i neuroni tendono progressivamente a disconnettersi, per poi ricostruire al risveglio le connessioni interrotte e recuperare la plasticità precedente. E ancora: dal punto di vista biochimico, nel cervello degli animali ibernati si osserva la cosiddetta iperfosforilazione della proteina tau, un fenomeno che avviene anche nel cervello di chi soffre del morbo di Alzheimer. Tutte queste modificazioni ritornano poi rapidamente alla normalità poco dopo il risveglio."

[close]

p. 4

Comprendere i meccanismi naturali che inducono all’ibernazione è un passaggio cruciale per tentare di riprodurre artificialmente il fenomeno. Come fanno gli animali a 'capire' che è il momento di andare in letargo? "Anche in questo caso, si tratta di un fenomeno molto complesso. Sostanzialmente, il cervello attiva i meccanismi che portano all’ibernazione quando si rende conto di trovarsi in una condizione di bilancio energetico negativo, cioè quando l’organismo spende più energia di quanta ne abbia a disposizione. Indurre tale condizione in laboratorio, per animali ibernanti, è relativamente semplice: si può usare la cosiddetta strategia del work for food, in cui l’animale, per procurarsi il cibo, deve consumare un po’ più di energia rispetto a quella che riceve dal cibo stesso. Si può anche simulare l’arrivo dell’inverno, con alcune ore di digiuno in un ambiente leggermente freddo per innescare il torpore." Da diverso tempo lei e la sua équipe lavorate sull’induzione artificiale dell’ibernazione in non-ibernanti. Come si fa? E cosa avete scoperto? "Siamo riusciti alcuni anni fa, sostanzialmente, a indurre uno stato di letargo artificiale nei ratti, animali che in natura non possiedono questa capacità. La nostra idea è stata di ingannare con un farmaco alcuni neuroni che si trovano in una specifica area cerebrale, il raphe pallidus. Questi neuroni controllano la quantità di energia che il nostro corpo consuma, e, inducendoli a farci consumare di meno, si innesca uno stato molto simile al letargo." E gli esseri umani? "Prima di pensare a una possibile transazione all’essere umano – che tra l’altro aprirebbe interrogativi etici ancora irrisolti – dobbiamo ancora comprendere molti aspetti dell’ibernazione. Primo fra tutti, capire quanto può durare questo status: teoricamente sembrerebbe che non ci siano limiti, ma non conosciamo eventuali effetti collaterali che potrebbero comparire dopo lunghi periodi di ibernazioni. Un altro aspetto delicato riguarda il risveglio: sappiamo ancora poco dei meccanismi che il cervello mette in atto per indurre l’uscita dal torpore. Solo dopo aver compreso questi e altri aspetti si potrà iniziare a prendere in considerazione l’applicazione della tecnica agli esseri umani." Perché lo facciamo? Quali sono le applicazioni? "Le possibili applicazioni sono molteplici. In campo medico, anzitutto: l’ibernazione artificiale potrebbe essere utilizzata dai chirurghi durante gli interventi più complessi, per permettere ai diversi organi di sopravvivere anche in considerazioni di scarsa disponibilità di ossigeno. Oppure – ma è un’ipotesi al momento molto lontana – si potrebbe pensare di usare la tecnica nei pazienti in attesa di trapianti. Più realisticamente, lo studio dell’ibernazione potrà aiutare meglio a comprendere, tra le altre cose, i meccanismi alla base del morbo di Alzheimer – in virtù delle analogie descritte in precedenza –: sembra possibile ipotizzare un rallentamento della malattia in soggetti ibernati. La stessa ipotesi si può formulare, tra l’altro, anche per la crescita tumorale. Anche nel campo della ricerca spaziale le applicazioni sono molto promettenti: la possibilità di indurre l’ibernazione negli astronauti consentirebbe di affrontare lunghi viaggi spaziali aggirando il problema delle scorte di cibo e della schermatura dai raggi cosmici nocivi, da cui l’ibernazione sembra costituire una sorta di protezione."

[close]

p. 5



[close]

p. 6

Nibiru: il pianeta 9 e l'ennesima bufala sulla fine del mondo Questa volta è prevista per il 23 settembre, quando una peculiare configurazione astrale farà da preludio all'arrivo di Nibiru, un pianeta proveniente dalle aree più remote del Sistema Solare per distruggere la Terra Per Nostradamus la fine del mondo sarebbe dovuta arrivare nel 1999. Per altri nel 2000, complice il temibile millennium bug. A dare retta ai Maya invece si poteva ipotizzare che l’anno fatale sarebbe stato il 2012. E se fino ad oggi l’abbiamo scampata, forse è ancora troppo presto per cantare vittoria. Il 23 settembre infatti dovrebbe essere la volta di Nibiru, un fantomatico corpo celeste che alcuni identificano con il Pianeta 9, e che sembrerebbe – così vuole la leggenda – in rotta di collisione con la Terra. Una teoria che ha radici nella mitologia babilonese e sumera e nella numerologia (o presunta tale) cristiana, e che ha avuto una tale diffusione negli ultimi anni da costringere la Nasa a smentire ufficialmente (e non per la prima volta) la possibilità di un simile cataclisma. Ma come nasce questa ennesima bufala sulla fine del mondo? E cosa c’entra Nibiru con il misterioso Pianeta 9? La leggenda di Nibiru, in effetti, ha radici lontane. Se ne inizia a parlare più di un ventennio fa, quando l’unione tra le teorie di Zecharia Sitchin, scrittore ed esperto di archeologia misteriosa, e quelle di Nancy Lieder, una signora del Wisconsin in contatto diretto con la razza aliena degli Zeta Reticuli, crea una delle più longeve teorie del complotto degli ultimi decenni: quella di Nibiru, un pianeta gigante nascosto ai margini del nostro Sistema Solare e destinato a distruggere la Terra, la cui esistenza sarebbe stata ovviamente insabbiata da governi e istituzioni mondiali. Le prime versioni della teoria parlavano del 2003 come probabile data del disastro, per poi puntare – una volta superati indenni il presunto rendezvous fatale – al 2012, intrecciandosi questa volta con le presente previsioni cataclismatiche dei Maya. Sopravvissuti anche al secondo appuntamento con Nibiru, serviva evidentemente un nuovo candidato. Ed è bastato aspettare un paio d’anni perché si presentasse l’occasione perfetta, arrivata nel 2014 quando un articolo su Nature degli astronomi Chad Trujillo e Scott Sheppard ha aperto la strada all’esistenza di un nono pianeta all’interno del Sistema Solare. L’ipotesi, corroborata nel 2016 da una seconda ricerca pubblicata dagli scienziati Mike Brown e Konstantin Batygin, è quella del pianeta 9: un gigante nascosto in un’orbita lontanissima dal Sole, e sfuggito fino ad oggi ai nostri telescopi. Nibiru, evidentemente, altro non era che il nuovo Pianeta 9 (e poco importa se gli scienziati non hanno mai neanche paventato la possibilità di un impatto con la Terra). Non restava che trovare una nuova data per il disastro. Ci ha pensato David Meade, autore di Planet X – The 2017 Arrival, un libro che attraverso una “solida” lettura numerologica dei testi sacri giudaico cristiani è riuscito a calcolare la data della fine del mondo, cataclisma che il Signore avrebbe affidato all’impatto della Terra con Nibiru, nella nuova veste di Pianeta 9.

[close]

p. 7

I segni sono molti e, assicura Meade, facili da notare se si sa dove guardare. Dai suoi calcoli il 23 settembre si realizzerà una particolare configurazione astrale prevista in un passo del Libro dell’Apocalisse (Apocalisse 12.1) che farà da preludio all’arrivo di Nibiru. Ipotesi affascinante. Ma anche priva di senso, spiega l’esperto di dinamica planetaria Giovanni Valsecchi, dell’Istituto di astrofisica e planetologia spaziali dell’Inaf. “Non esiste alcuna possibilità che un oggetto di simili dimensioni raggiunga le zone più interne del Sistema Solare – assicura Valsecchi – quanto meno, non in una scala temporale che coincida con quella della nostra vita”. Questo ovviamente non vuol dire che il Pianeta 9 sia una sciocchezza. “Quella del cosiddetto Pianeta 9 è un’ipotesi scientificamente molto seria – aggiunge l’esperto – che nasce per spiegare alcune caratteristiche anomale delle orbite degli oggetti transnettuniani più lontani”. Osservando le orbite di questi corpi celesti posti oltre l’orbita di Nettuno emergerebbero infatti anomalie, strani allineamenti e piani orbitali preferenziali che possono essere spiegati solo in due modi. La prima ipotesi è quella avanzata dai lavori di Truillo e Sheppard e quelli di Brown e Batygin: un pianeta enorme e lontanissimo che interferisce con le orbite degli oggetti transnettuniani. Si tratterebbe di un pianeta molto particolare, perché a una tale distanza dal Sole – nel punto più vicino la sua distanza sarebbe 200 volte maggiore di quella della Terra – la nebulosa primordiale da cui ha avuto origine il Sistema Solare non avrebbe avuto la densità necessaria per dare vita a un pianeta. E quindi il Pianeta 9 dovrebbe avere avuto un’altra origine: o nella parte centrale del Sistema Solare, da cui poi sarebbe migrato nell’attuale posizione in un remoto passato, o in un altro sistema stellare, da cui sarebbe sfuggito per poi essere catturato in qualche momento dalla gravità del Sole. Una sequenza di eventi molto particolare: difficile – spiega l’esperto – ma non impossibile. L’altra possibilità è tutto sommato più semplice: le anomalie osservate nelle orbite dei transnettuniani potrebbero essere solo un’illusione. “Oggi conosciamo solo un migliaio di oggetti transnettuniani – chiarisce Valsecchi – e in futuro potremmo renderci conto che si tratta di una frazione di quelli esistenti, che per ora abbiamo individuato solo i più facili da osservare e che quelle che oggi ci appaiono come anomalie nelle loro orbite non siano più tali considerandoli nella loro totalità. D’altronde, abbiamo ancora molto da scoprire su queste zone così esterne del Sistema Solare”. I misteri, insomma, non mancano. Anche se per ora i segreti nascosti nello spazio profondo non sembrano rappresentare un rischio per il nostro pianeta. Per una conferma, comunque, non resta che attendere il 23 settembre.

[close]

p. 8



[close]

p. 9

Le miniere spaziali del futuro Presentato ieri all'European Planetary Science Congress un white paper che illustra le sfide da superare dalla nascente industria mineraria spaziale. Uno scambio tra comunità scientifica e imprese per rendere questa nuova corsa all'oro una realtà Dalle buie profondità della terra all’immensità dello spazio: l’industria mineraria del futuro avrà un aspetto ben diverso da quella che conosciamo. Ieri, allo European Planetary Science Congress in corso a Riga, in Lettonia, è stato presentato un white paper, dal titolo InSpace Utilization of Asteroids: “Answers to Questions from the Asteroid Miners”, che riassume le conclusioni, e le domande ancora aperte, risultanti dal convegno Asteroid Science Intersections with InSpace Mine Engineering (Asime), svoltosi nel settembre del 2016 in Lussemburgo. Quest’ultimo ha avuto lo scopo di far entrare in contatto gli astronomi (e i loro interessi prettamente scientifici riguardo a ciò che ancora non sappiamo riguardo agli asteroidi) con rappresentanti dell’industria mineraria spaziale – compagnie come TransAstra, Deep Space Industries e Planetary Resources – primariamente interessati alle difficoltà tecnologiche e logistiche, e i (potenzialmente enormi) profitti derivanti da questo tipo di attività. Quello che solo poche decadi fa sembrava uno scenario fantascientifico (impossibile non pensare a Bruce Willis e il suo team di astro-minatori nel blockbuster Armageddon, ormai quasi 20 anni or sono) è oggi un tema di animata discussione, e prossimo a diventare una realtà. Nelle pagine del white paper vengono offerte risposte a 35 domande relative all’estrazione mineraria spaziale: dalla fase di preparazione (come identificare gli asteroidi più ricchi di risorse), a domande di tipo scientifico (composizione esterna e interna degli asteroidi, e il possibile interesse astrobiologico di questi oggetti), fino a problemi di carattere pratico: sfide tecnologiche e potenziali rischi di questa nuova industria mineraria. Come osserva l’astronomo Jose Luis Galache, uno dei relatori al congresso di Riga e Cto della compagnia Aten Engineering, «l’attività mineraria sugli asteroidi risiede all’incredibile congiuntura di scienza, ingegneria, impresa, e immaginazione. Il problema è che è anche un classico esempio di un campo scientifico relativamente giovane, e più scopriamo nuove informazioni, grazie a missioni come Hayabusa o Rosetta, più ci rendiamo conto di quante cose ancora non conosciamo». Il problema più immediato è quello di capire il numero e la composizione degli asteroidi più vicini alla terra (i Near Earth Asteroids, o Nea), per così identificare gli obiettivi più promettenti, sia in termini scientifici che di rendimento di materiali. Essendo oggetti piccoli e relativamente poco visibili (specialmente quando direttamente illuminati dal Sole), per esaminare i Nea conosciuti, e scoprirne di nuovi, sarà necessario utilizzare potenti telescopi.

[close]

p. 10

La maggior parte dei Nea attualmente conosciuti sono di due tipi principali: il tipo C comprende asteroidi scuri, porosi, e prevalentemente composti da carbonio, mentre il tipo S – più comune, e che include la maggior parte degli asteroidi della Fascia Principale– comprende asteroidi di tono più rossiccio, mediamente più densi, e composti principalmente da silicati. Disporre di una strategia efficiente e rapida per differenziare i due tipi sarà necessario per selezionare gli obiettivi più adatti per una missione mineraria. Amara Graps, dell’Università della Lettonia e del Planetary Science Institute a Tucson (Arizona), correlatrice del white paper insieme a Galache, spiega che «a parte qualche campione che ci è stato riportato da poche missioni, l’unico modo che abbiamo di studiare la composizione degli asteroidi è analizzare la luce riflessa dalla loro superficie, o esaminare i frammenti che sono arrivati sulla terra, sotto forma di meteoriti». Ma questi metodi hanno grossi limiti, continua Graps, dato che «le osservazioni spettroscopiche sono relative allo “strato” più esterno dell’asteroide, che è esposto allo spazio e soggetto ad altri processi che ne alterano la composizione. I meteoriti sono cruciali, ma anch’essi raccontano solo parte della storia: gli elementi più fragili contenuti negli asteroidi possono essere stati distrutti durante il rientro atmosferico». Un altro possibile metodo per classificare gli asteroidi è quello di identificare “famiglie” (gruppi di asteroidi derivanti dalla frammentazione di uno o più “progenitori” comuni), capaci di indicare gruppi dalla simile composizione interna. Ma anche qualora venissero identificati gli obiettivi migliori, rimangono problemi di carattere ingegneristico: quale può essere la tecnica migliore per uno scavo minerario in assenza di gravità, e non conoscendo ancora la consistenza e lo spessore del regolite degli asteroidi? E quali strumenti saranno necessari per estrarre materiali dal loro interno? Benché questo white paper offra molte risposte, le incognite sono ancora numerose. Ma documenti come questo dimostrano che la sinergia tra comunità scientifica e impresa promette risultati concreti nel futuro prossimo. Chissà se, nel decennio a venire, assisteremo a una nuova corsa all’oro: con razzi e sonde ipertecnologiche invece che picconi e carriole.

[close]

p. 11



[close]

p. 12

Fotoni e onde sonore per i computer del futuro Un team di ricercatori australiani è riuscito per la prima volta a trasferire i dati in un microchip alla velocità della luce, servendosi però delle onde sonore Trasmettere dati alla velocità della luce. Una manna dal cielo per tutti coloro che ogni giorno vorrebbero lanciare dalla finestra il loro computer troppo lento. Ora, infatti, arriva una speranza per soppiantare la tecnologia di oggi che si basa sul passaggio di corrente elettrica (ovvero elettroni): alcuni scienziati australiani della University of Sidney hanno appena raccontato sulle pagine di Nature Communications di essere riusciti per la prima volta a manipolare e memorizzare informazioni all’interno di un microchip, utilizzando i fotoni, ovvero le particelle di luce, e le onde sonore. Per quanto sembri bizzarra, questa tecnologia sarà fondamentale per il futuro dell’informatica: ci permetterà di passare dai nostri computer elettronici a computer sempre più leggeri, che trasmettono i dati alla velocità della luce. Infatti, i computer che utilizzano i fotoni hanno la potenzialità di funzionare almeno 20 volte più velocemente di un computer normale, per non parlare del fatto che non producono calore. La codifica delle informazioni con i fotoni è abbastanza facile: lo facciamo già quando inviamo informazioni tramite la fibra ottica. Ma trovare un modo affinché un microchip di un computer possa essere in grado di recuperare ed elaborare le informazioni memorizzate nei fotoni è stato finora molto difficile, se non impossibile, in quanto la luce è troppo veloce da leggere per i microchip esistenti. Secondo i ricercatori australiani, invece, una possibilità sarebbe stata quella di rallentare la luce e di trasformarla in onde sonore. “Le informazioni nel nostro microchip in forma acustica viaggiano a una velocità di cinque ordini di grandezza più lenti rispetto alla forma ottica”, spiega l’autore Birgit Stiller. “Proprio come la differenza che c’è tra il tuono e il fulmine”. Ciò significa che i computer potrebbero avere molti vantaggi dai dati trasmessi con alte velocità, come l’assenza del calore causato dalla resistenza degli elettroni e le interferenze dovute alle radiazioni elettromagnetiche. Ma“perché questi computer diventino una realtà commerciale, i dati fotonici devono essere rallentati in modo che possano essere processati, gestiti, memorizzati e accessibili”, precisa Moritz Merklein, che ha collaborato allo studio. Per riuscirci, il team di ricercatori ha sviluppato un sistema di memoria che trasforma accuratamente le onde sonore e quelle luminose su un microchip fotonico, ovvero quello che verrà utilizzando per i computer che si serviranno dei fotoni. Come si vede nel video, per prima cosa l’informazione fotonica entra nel chip come un impulso di luce (in giallo), dove interagisce con un impulso di scrittura (in blu), producendo un’onda acustica che memorizza i dati. Un altro impulso di luce, chiamato impulso di lettura (sempre in blu), accede a questi dati sonori e trasmette ancora una volta la luce (giallo). Mentre la luce passerà attraverso il chip a una velocità di 2/3 nanosecondi, una volta trasformata come onda sonora, l’informazione potrà rimanere sul chip fino a 10 nanosecondi, abbastanza a lungo per essere elaborata. Inoltre, a differenza di tanti altri tentativi precedenti, il nuovo sistema è stato in grado di lavorare su un’ampia larghezza di banda. “Costruire un buffer acustico all’interno di un chip migliora la nostra capacità di controllare le informazioni di diversi ordini di grandezza”, conclude Merklein. “Il nostro sistema non è limitato, quindi, a una piccola larghezza di banda come i precedenti sistemi, ma consente di memorizzare e recuperare informazioni a più lunghezze d’onda simultaneamente, aumentando notevolmente l’efficienza di un dispositivo”.

[close]

p. 13



[close]

p. 14

‘First in last out’ I marines primi a mettere in servizio gli unmanned ground vehicles? Il corpo dei Marines dopo aver sperimentato per alcuni anni unmanned ground vehicles (UGV), ovvero veicoli terrestri comandanti a distanza, praticamente la controparte terrestre dei droni aereonautici (UAV), sarebbe interessato ad effettuare il primo investimento reale per questa tecnologia. Gli UGV, a differenza degli UAV che sono stati accettati velocemente nel panorama militare statunitense, hanno avuto molte difficoltà nel suscitare consenso. L’Esercito statunitense, infatti, finora ha commissionato solamente la costruzione di un veicolo a guida remota destinato a supportare ed a rifornire le truppe al suolo (SMET). Tutto ciò avveniva nel 2016, molti anni dopo il lancio del primo UAV. Nonostante questi ritardi, dovuti più allo scarso interesse che alla mancanza di fondi o di volontà, finalmente anche per i droni terrestri si sta muovendo qualcosa e il corpo dei Marines non vuole restare indietro nello sviluppo. Come è stato dichiarato recentemente a Military.com da Phil Skuta, direttore della General Dynamics Land Systems dei programmi per i Marines e la U.S. Navy, i marines “hanno recentemente hanno inviato segnali alle industrie, poiché è stata presa la decisione di partecipare, insieme all’Esercito statunitense, allo sviluppo degli UGV”. I marines oltre che allo SMET (foto sotto) negli ultimi anni hanno partecipato anche ai test effettuati sul Multi-Utility Tactical Transport (MUTT, foto apertura) di General Dynamics. Il MUTT, stando a quanto detto da Skuta, potrà avere tre varianti, le quali si differenzieranno per il numero di ruote visto che potrebbe essere prodotto a 4, a 6 ed a 8 ruote, ed avrà la capacita di caricare fino a circa 550 kg (1200 lb - carico massimo della versione a 8 ruote). Oltre alla versione ruotata la General Dynamics ha in progetto anche di costruire, nel caso in cui vincesse l’appalto, anche una versione cingolata che garantirebbe una mobilità superiore. I primi test sul MUTT effettuati dai Marines sono del 2014 e sono serviti per dimostrare l’abilità di caricare armi, munizioni ed equipaggiamenti, oltre che per far vedere quanto questo veicolo potrebbe aiutare le truppe al suolo, specialmente in alcuni ambienti difficili dove il MUTT aumenterebbe l’efficienza e la sicurezza dei militari. Ma non solo, perché Skuta ha dichiarato che: “Il MUTT può andare in aree dove non si potrebbero inviare soldati. Questo perché può essere armato e dotato di sensori per aumentare la protezione delle unità al suolo”. La comodità e l’utilità del MUTT risiederebbe anche nella capacità di movimento in spazi ridotti, tant’è che durante i test è stato imbarcato all’interno sia del MV-22 Osprey sia su altri aerei da trasporto senza alcun problema. Ovviamente il MUTT a differenza dello SMET, il quale ancora è in fase di progettazione, è stato testato a lungo dal corpo dei Marines, tant’è che al momento è stata ordinata la produzione di un veicolo da usare per trasportare soldati feriti dal campo di battaglia alle retrovie. Questo sarà un modello dal quale seguiranno ulteriori sviluppi che porteranno il MUTT ad affiancare sempre maggiormente i marines sul campo di battaglia.

[close]

p. 15



[close]

Comments

no comments yet