Nelle grandi città le verdure cresceranno nell’aria

Nonostante il freddo, all’interno del CityFarm [NdR: ortoCittadino] del MIT, crescono rigogliosi peperoni, melanzane e pomodori, pronti per una raccolta anticipata all’inizio di febbraio. A differenza dei metodi di coltivazione tradizionale, molte delle piante coltivate qui crescono nell’aria.

(Aleszu Bajak)

Sul loro sito si legge che, fondato da Caleb Harper MArch ’14, il CityFarm [1] è un iniziativa della MIT Media Lab [2] progettata per indigare l’adozione di larga scala sia della cultura “aeroponica” che di quella “idroponica” con lo scopo di “inventarsi il futuro dell’agricoltura“.

Contrariamente all’agricoltura tradizionale, che usa l’irrigazione e la terra come un supporto strutturale, in quella aeroponica le radici, protette da alcune strutture, vengono nutrite tramite un nebulizzatore che spruzza una nube di acqua arricchita di minerali. Le parti verdi della pianta sono esposte a luci LED con uno spettro ottimizzato e vengono costantemente monitorate per garantire ottimali condizioni di crescita.

foto2
Harvard e il suo team festeggiano l’ultimo raccolto nel Novembre 2013. (Aleszu Bajak)

Come risultato un cespo di lattuga romana riesce a crescere in 19 giorni, al contrario degli 80 giorni necessari con il metodo tradizionale e dei 22 giorni usando l’idroponica, dove le radici sono sommerse in acqua.

Con il metodo aeroponico si riesce a usare il 98 % dell’acqua in meno rispetto all’agricoltura tradizionale, e le piante riescono a crescere per 365 giorni all’interno di aree molto più piccole, rendendo possibile una produzione di gran lunga superiore anche durante i gelidi inverni di Boston.

Recenti stime[3] predicono che il 60 % della popolazione mondiale risiderà nelle città entro il 2030, questo fa pensare che l’aeroponica potrebbe diventare un metodo sempre più comune per coltivare la verdura nelle aree metropolitane. Harper predice che i cittadini raccoglieranno frutti di bosco, lattuga, e altre verdure in siti situati proprio nel loro vicinato.

Tornando al CityFarm, le 1.500 piante del laboratorio forniscono al team di Harper dati dettagliati sull’energia incorporata, e quindi esattamente la quantità di cui hanno bisogno le piante per crescere. Altri sensori e dispositivi, come trasmettitori situati sulle luci e nebulizzatori, trasmettono informazioni su ogni kilowatt usato, con, eventualmente, la possibilità di twittarli.

foto3
Harvard controlla le piantine di lattuga nella CityFarm.
(Kent Larson)

Un tracciamento così dettagliato dell’input di energia e l’output della produzione è una cosa nuova per l’agricoltura. Spesso non viene contata l’energia necessaria per alimentare il trattore o il trasporto dei pomodori al negozio, e Harper spera di modificare questa abitudine.

Prevede il lancio, nei prossimi due mesi, di un Open Agricolture Iniative [NdR: Iniziativa di Agricoltura Aperta] con CityFarm che ospiterà una piattaforma Open Source di dati agricoli per migliorare la valutazione dell’aeroponica e di altri sistemi di coltivazione. “Stiamo fornendo la spina dorsale per un cambiamento verso un agricoltura economica e guidata da dati” dice, e vede nel MIT la strada per fare spazio a una nuova agricoltura tecnologica, incoraggiando borse di studio interdisciplinari tra le università di tecnologia e di agricoltura. “Non sto competendo con l’agricoltura, ma sto fornendo un intelligenza di rete e un ottimizzazione tecnologica che prima non c’era”.

Per adesso Harper continua a fare test di degustazione delle sue lattughe in preparazione per l’imminente raccolto. “Sono diventato un esperto di lattuga” dice scherzando.

Per maggiori informazioni e tenersi costantemente informati sul progetto, potete seguirli nel loro canale twitter @MITCityFARM.

Daniel Iversen
13 febbraio 2014

[1] http://www.mitcityfarm.com/
[2] https://www.media.mit.edu/
[3] http://www.who.int/gho/urban_health/situation_trends/urban_population_growth_text/en/

Vibrisse elettroniche per far “sentire” i robot

Grazie alla nanotecnologia si sono ottenuti pelle ed impianti oculari elettronici. Ora siamo vicini alla creazione di vibrisse elettroniche, o “E-whiskers” in grado di far “sentire” ai robot piccolissime sollecitazioni dall’ambiente circostante.

vibrisse

I ricercatori della Berkley Lab [1] e la University of California (UC) a Berkley hanno creato sensori tattili molto simili alle vibrisse di gatti e ratti, fatti però di pellicole composite realizzate in nanotubuli di carbonio e nanoparticelle di argento, .

Queste strutture riescono a reagire a pressioni molto lievi, anche alla scala di un singolo Pascal, comparabile a quella di un biglietto di un dollaro che preme sulla superficie di un tavolo.

Questi nuovi dispositivi hanno una vasta gamma di potenziali applicazioni possibili ed offrono ai robot nuove abilità di “vedere” e di “sentire” l’ambiente che li circonda.

“Le vibrisse sono sensori tattili simili a capelli, usati da alcuni mammiferi e insetti per monitorare il vento e muoversi attorno ad ostacoli in spazi angusti”, spiega il leader della ricerca, Ali Javey, scienziato di facoltà al Lab’s Materials Sciences Division di Berkeley e professore di ingegneria elettronica ed informatica alla UC Berkeley. “Le nostre vibrisse elettroniche consistono di lunghe fibre elastiche con un alto “rapporto d’aspetto” [NdR: cioe’ la capacita’ di allungarsi senza rompersi] rivestite di un film composito ad alta conduttività contenente nanotubuli e nanoparticelle. Nei test queste vibrisse erano 10 volte più sensibili alla pressione di tutte gli altri sensori di pressione riportati, sia capacitivi che resistivi”

Javey e il suo gruppo di ricerca sono stati leader nello sviluppo di pelle elettronica (E-skin) e di altri dispositivi elettronici flessibili in grado di interfacciarsi con l’ambiente e, in questo loro ultimo sforzo, è stata usata una pasta di nanotubuli di carbonio per formare un matrice di rete elettricamente conduttivo e con un ottima flessibilità. A questa matrice di nanotubi è stato caricato un sottile film di nanoparticelle di argento che ha dato alla matrice una alta sensibilità alle sollecitazioni meccaniche.

“La sensibilità allo sforzo e la resistività elettrica del nostro film composito viene facilmente regolato cambiando il rapporto della composizione dei nanotubuli di carbonio e delle nanoparticelle d’argento”. dice Javey. “Il composto può poi essere verniciato oppure stampato su fibre con un’alto rapporto d’aspetto per formare vibrisse elettroniche, integrabili con diverse interfacce”

Javey fa notare che l’uso di fibre elastiche con un bassa costante elastica, così come la componente strutturale delle vibrisse, forniscono una grande deflessione e quindi elevate sollecitazioni in risposta alle più piccole pressioni che vengono applicate.

Come verifica sperimentale del progetto, il dottor Javey ed il suo gruppo di ricerca hanno usato con successo le loro vibrisse elettroniche per evidenziare la capacita’ di mappature 2D e 3D dei flussi di vento, con un elevato grado di accuratezza. In futuro, questi “baffi” elettronici potrebbero essere utilizzati per veicolare il rilevamento tattile per la mappatura spaziale degli oggetti circostanti, e potrebbe anche portare alla creazione di sensori indossabili per la misurazione del battito e della frequenza cardiaca.

I nostri “e-whiskers” rappresentano un nuovo tipo di sensori altamente reattivi, adatti al monitoraggio in tempo reale degli effetti ambientali” spiega Javey. “La facilità di fabbricazione, la leggerezza e le ottime prestazioni delle nostre vibrisse dovrebbe avere una vasta gamma di applicazioni per la robotica avanzata, per interafacce uomo-macchina e applicazioni biologiche”.

Un documento che descrive questa ricerca è stato pubblicato sul Proceedings of the National Academy of Sciences ed è intitolato “Highly sensitive electronic whiskers based on patterned carbon nanotube and silver nanoparticle composite films”  Javey è l’autore corrispondente mentre i co-autori sono Kuniharu Takei, Zhibin Yu, Maxwell Zheng, Hiroki Ota e Toshitake Takahashi.

La ricerca è stata sostenuta dalla Defense Advanced Research Projects Agency.

Daniel Iversen
10 febbraio 2014

[1] http://newscenter.lbl.gov/science-shorts/2014/01/20/e-whiskers/

Il “colesterolo buono” non è sempre così buono

I ricercatori della Cleveland Clinic hanno scoperto il processo per cui la lipoproteina ad alta densità (HDL), il cosiddetto “colesterolo buono“, diventa disfunzionale, perdendo le sue proprietà cardio-protettive e favorendo invece infiammazioni, arteriosclerorsi o ostruzione delle arterie. La ricerca è stata pubblicata online sul journal Nature Medicine [1].

col

Sono state ampiamente studiate e riportate nel corso degli anni le proprietà benefiche cardio-protettive della HDL, nessun studio clinico però è ancora riuscito a dimostrare l’effettiva efficacia nel miglioramento della salute cardiovascolare dei farmaci progettati per aumentare i livelli di HDL .

Questa falla, insieme a ricerche precedenti che mostrano la presenza nelle pareti di arterie della forma ossidata di una proteina abbondante nel HDL, ha spronato il team di ricerca a studiare il processo per il quale la HDL diventa disfunzionale. Il tutto sotto la guida di Stanley Hazen, M.D., Ph.D., Vice Presidente del Translational Research for the Lerner Research Institute e capo sezione al Preventive Cardiology & Rehabilitation al Miller Family Heart and Vascular Institute al Cleveland Clinic.

La principale proteina presente nella HDL è la Apolipoproteina (apoA1), che fornisce la struttura alla molecola e permette di trasferire il colesterolo fuori dalla parete dell’arteria per mandarla al fegato, dove viene poi esplulso. E’ per via di questa proteina che la HDL possiede, normalmente, proprietà cardio-protettive; il dottor Hazen e i suoi colleghi hanno però scoperto che nella parete delle arterie, durante l’arteriosclerosi, una alta proporzione della apoA1 si ossida e smette di contribuire alla salute cardiovascolare, favorendo, invece, lo sviluppo di malattie coronariche.

Nel corso di più di cinque anni di studio il team del Dr.Hazen ha sviluppato un metodo per identificare la apoA1/HDL disfunzionale e hanno scoperto il processo dove, nella parete delle arterie, questo viene ossidato e diventa quindi disfunzionale. Hanno poi testato il sangue di 627 pazienti del Cleveland Clinic per trovare la HDL disfunzionale, notando che livelli alti di questa lipopotreina aumentava il rischio di malattie cardiovascolari.

“Identificando la struttura della molecola apoA1 disfunzionale ed il processo per cui questa diventa un promotore di malattie invece di un prevenirle stiamo facendo i primi passi per creare nuovi test e trattamenti per malattie cardiovascolari” dice il Dr. Hazen.

“Ora che sappiamo come è fatta una proteina disfunzionale, stiamo sviluppando un test clinico per misurare il suo livello nel flusso sanguigno. Questo sarà uno strumento prezioso per la valutazione del rischio di malattie cardiovascolari nei pazienti e per guidare lo sviluppo di terapie mirate sulla HDL in funzione della prevenzione di malattie”.

La ricerca mira anche alla sviluppo di nuovi bersagli terapeutici per prodotti farmaceutici, come quelli progettati per impedire la formazione della HDL disfunzionale e lo sviluppo o la progressione dell’arteriosclerosi.

Daniel Iversen
3 febbraio 2014

[1] http://www.nature.com/nm/journal/vaop/ncurrent/full/nm.3459.html

Cavalcando la legge di Moore: nanodispositivi piccoli come cellule nervose

Nel campo dei sistemi elettronici informatici ultra-small sono stati fatti dei passi in avanti molto importanti per merito di un team interdisciplinare di scienziati e ingegneri della MITRE Corporation e della Harward University [1].

Si tratta di alcuni passaggi chiave che prolungano la vita alla legge di Moore, che si pensava fosse alla fine imminente, in cui si afferma che la densità del dispositivo e la capacità di elaborazione complessiva per i computer raddoppia ogni due o tre anni.

La macchina a stato finito con nanofilo (in colori falsati) costruita da nanofili assemblati, occupa la piccola regione centrale del chip insieme alle altre caratteristiche corrispondenti alle linee metalliche usate per il rodaggio del sistema integrato. Credit: Jun Yao and Charles Lieber, Harvard University.
La macchina a stato finito con nanofilo (in colori falsati) costruita da nanofili assemblati, occupa la piccola regione centrale del chip insieme alle altre caratteristiche corrispondenti alle linee metalliche usate per il rodaggio del sistema integrato. Credit: Jun Yao and Charles Lieber, Harvard University.

In un paper che è uscito questa settimana su “Proceedings of the National Academy of Sciences”, il team descrive il processo di progettazione e di assemblamento, dal basso verso l’alto (bottom-up), usato per la creazione di un computer funzionante super-sottile: il sistema nano-elettronico più denso mai costruito.

Il processore di controllo ultra-piccolo e a bassissimo consumo energetico – chiamato “nanoelectronic finite-state machine”, o semplicemente “nanoFSM” [NdR: macchina nanoelettronica a stato finito] è più piccolo di un cellula nervosa umana ed è composta da centinaia di transistors di nanofili, ognuno dei  quali è un interruttore circa 10.000 volte più sottile di un capello umano. I transistor nanowire, essendo “non volatili”, usano pochissima energia. In questo modo, anche senza corrente, gli interruttori si ricordano se sono accesi o spenti.

All’interno del nanoFSM i nano-interruttori sono assemblati e organizzati in circuiti su tante piccole “mattonelle”, e insieme, convogliano piccoli segnali elettronici intorno al computer, consentendogli di ottimizzare calcoli e processi sui segnaliche potrebbero essere utilizzati per controllare sistemi molto piccoli, ad esempio minuscoli dispositivi medici terapeutici, sensori e attuatori, o addirittura robot dalle dimensioni di un insetto.

Nel 2011, il team MITRE-Harvard aveva dimostrato la capacità di eseguire semplici operazioni logiche da parte di una singola di queste sottilissime piastrelle.

In questa loro recente collaborazione hanno unito diversi mattoncini su di un singolo chip per creare un primo nanocomputer programmabile, unico di questo genere.

E’ stata un sfida riuscire ad mettere in piedi un sistema e sviluppare progetti di nanocircuiti che riuscissero ad imballare tutte le funzioni di controllo che volevamo, all’interno di un sistema cosi piccolo” dice Shamik Das, architetto capo del nanocoputer ed ingegnere principale e leader del team al MITRES’S Nanosystems Group. “Una volta avuti i progetti però, i nostri collaboratori di Harvard li hanno resi realizzabili, facendo un ottimo lavoro di innovazione ”.

La costruzione di questo nanocomputer è stata possibile grazie a passi avanti significativi ottenuti in quei processi che assemblano con estrema precisione le dense matrici dei nanodispositivi che erano necessari a questo progetto. Grazie a ciò è anche stato possibile produrre copie multiple del nanoFSM, usando un approccio innovativo dove, per la prima volta, nanosistemi complessi vengono assemblati in maniera economica dal basso verso l’alto (from bottom up), attenendosi in conformità al progetto pre-esistente.

Fino ad ora ciò era possibile usando i metodi di fabbricazione top-down litografici a basso costo, senza però l’assemblamento bottom-up.

Per questo motivo – secondo la legge di Moore che sta spingendo l’ industria elettronica – il nanoFSM, e lo scopo per il qule è stato pensato rappresentano un passo avanti rispetto alla tendenza di miniaturizzazione che prosegue da 50 anni a questa parte con importanti risvolti economici.

Visti i limiti dei metodi della sua fabbricazione litografica convenzionale e su transistor convenzionali, molti esperti di quest’’industria affermano che il trend della legge di Moore potrebbe essere arrivato alla fine. Altri hanno detto che succederà in meno di 5 anni, con le conseguenze economiche negative a cui ciò porterebbe, a meno che non ci siano innovazioni importanti tecnologiche e di fabbricazione, come avvenuto con i nanoFSM.

James Ellenbogen, scienziato capo della nanotecnologia al MITRE, e un esperto in costruzione di computer integrati su scala nanometrica, hanno detto: “Non tutte le risposte necessarie all’industria vengono date dal nanoFSM e dai nuovi metodi che sono stati inventati per costruirlo, anche se, credo che incorporino passi in avanti importanti in due delle aree chiave dell’industria elettronica in cui ci si è focalizzati proprio per estendere la legge di Moore”:

Il team di sviluppo al MITRE ha aggiunto, assieme a Das e Ellenbogen, anche James Klemic, direttore del laboratorio della nanotecnologia della corporation. I ricercatori del MITRE, organizzazione pioniera nel campo della nanotecnologia dal 1992, hanno collaborato con un team di tre persone ad Harward, capeggiati da Charles Lieber, investigatore di fama mondiale in questo campo.

Daniel Iversen
31 gennaio 2014

[1] http://phys.org/news/2014-01-law-nanocomputing-nanowire-tiles.html

L’uomo riconosce il grasso.. a naso

grasso-naso

Una nuova ricerca condotta dal Monell Center, rivela che gli esseri umani sono in grado di usare il senso dell’olfatto per identificare grassi alimentari presenti nel cibo. Dal momento che l’odore viene sempre rilevato prima del gusto, questa scoperta delinea una delle prime qualità sensoriali che segnala la presenza di grassi in un alimento. Un giorno potranno essere sviluppati alcuni metodi innovativi che, usando gli odori, creino alimenti più appetibili ma con un basso contenuto di grasso, in modo da aiutare gli sforzi della salute pubblica a ridurre l’assunzione di grassi alimentari.

“Il senso dell’olfatto negli esseri umani è di gran lunga superiore di quanto crediamo nel guidarci attraverso la vita quotidiana”, spiega il primo autore Johan Lundström, PhD, neuroscienziato cognitivo al Monell. “Il fatto di avere l’abilità di poter identificare e discriminare piccole differenze del tenore della quantità di grasso nel nostro cibo ci suggerisce che questa caratteristica deve avere avuto una importanza evolutiva considerevole.”

Essendo un nutrimento molto ricco di calorie, e stoccabile nel nostro corpo per lunghi periodi, il grasso è da sempre stato una risorsa energetica molto desiderata nel corso dell’ evoluzione. Deve essere quindi stato vantaggioso individuarlo nell cibo, proprio come lo è stato anche il gusto per il dolce che certifica la presenza di energia negli alimenti, sotto forma di carboidrati.

Anche se gli scienziati sanno che gli esseri umani usano dei segnali sensoriali per rilevare il grasso, rimane ancora poco chiaro quali siano esattamente i sensori che forniscono questa abilità. I ricercatori al Monell hanno motivato la capacità di individuare il grasso attraverso l’odore come un vantaggio che permette di trovare risorse di cibo a distanza.

Mentre ricerche precedenti avevano determinato che la nostra specie è di fatto in grado di usare il senso dell’olfatto per individuare alti livelli di grasso puro, in forma di acidi grassi, non si pensava che ciò significasse riuscire a rilevarlo anche in una forma più reale, come il cibo.

Nel studio corrente [1], riportato sulla rivista Open Access PLOS ONE, i ricercatori hanno chiesto alle persone se riuscivano a individuare e quantificare la quantià di grasso in un prodotto alimentare consumato comunemente, come il latte.

Per farlo, hanno chiesto a soggetti sani di annusare del latte contenente delle normali quantità di grasso: 0,125 %, 1,4% oppure 2.7 %.

Ai soggetti bendati sono stati presentati i campioni di latte all’interno di alcune fiale. Due di queste contenevano latte con la medesima percentuale di grasso, mentre la terza ne conteneva una concentrazione diversa.

Il compito dei soggetti era quello di annusare le tre fiale e identificare quale di queste aveva la concentrazione diversa dalle altre.

Lo stesso esperimento è stato condotto tre volte usando soggetti diversi: prima con persone in salute e con un penso normale, provenienti dall’area di Philadelphia, poi usando soggetti da un contesto culturale diverso, l’area di Wageningen nei Paesi bassi; i terzi soggetti provenivano sempre dall’area di Philadephia ma erano sia sovrappeso che normopeso.

In tutti e tre gli esperimenti i partecipanti potevano usare il senso dell’olfatto per distinguere i diversi livelli di grasso nel latte: si è visto che questa abilità non era diversa nelle due culture testate, anche se, per esempio, le persone dei Paesi Bassi consumano giornalmente molto più latte degli americani. Non c’era nemmeno nessuna relazione tra il peso corporeo e l’abilità di distinguere il grasso.

“Ora abbiamo bisogno di identificare quali sono le molecole olfattive che permettono alle persone di individuare e differenziare i livelli di grasso, le cui molecole, tipicamente non sono volatili, il che significa che è improbabile che possano essere rilevate annusando campioni alimentari” spiega l’autore capo Sanne Boesveldt, PhD, una neuroscienziata sensoriale. “Avremmo bisogno di sofisticate analisi chimiche per fiutare il segnale”.

[1] http://www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0085977

Daniel Iversen
27 gennaio 2014

Può Internet aiutare a promuovere l’equità e la distribuzione del reddito?

In una rete topocratica gli individui con un alto reddito (pallini verdi) sono concentrati al cuore del network, mentre in una rete meritocratica possono essere localizzati in qualsiasi zona dato che il loro reddito arriva in primo luogo da quello che essi producono e non da quello che distribuiscono. Credit: J.Borondo, et.al  ©2013 Scientific Reports
In una rete topocratica gli individui con un alto reddito (pallini verdi) sono concentrati al cuore del network, mentre in una rete meritocratica possono essere localizzati in qualsiasi zona dato che il loro reddito arriva in primo luogo da quello che essi producono e non da quello che distribuiscono.
Credit: J.Borondo, et.al ©2013 Scientific Reports

Da molti anni si dibatte sul problema di come dovrebbe essere strutturato un sistema economico al fine di promuovere al meglio l’equità e l’uguaglianza. Affrontando la complessità della tematica attraverso la Network Science, i ricercatori del MIT e di altri istituti hanno scoperto che il livello medio in cui gli individui sono collegati tra loro in una collettività può influenzare in modo cruciale l’equità della distribuzione del reddito.

I ricercatori, J. Borondo, et al., hanno pubblicato un paper della loro ricerca in un recente numero di Scientific Reports.[1]

Nello studio i ricercatori hanno costruito un modello nel quale gli individui possono guadagnare del reddito in due modi: attraverso la produzione di beni oppure attraverso la distribuzione di beni prodotti da altri. Un sistema in cui si ottiene un maggior reddito per la produzione che per la distribuzione viene definito “meritocratico”, mentre quello in cui il reddito è maggiormente ottenuto dalla distribuzione è detto “topocratico”. Importante sottolineare inoltre che il reddito guadagnato dalla distribuzione non dipende da quanto un individuo produce ma piuttosto dalla sua posizione all’interno del network.

Utilizzando questo semplice modello, i ricercatori hanno dimostrato che la connettività della rete determina se il reddito è percepito in modo meritocratico o topocratico: le reti densamente connesse sono più meritocratiche, mentre quelle a bassa densità sono più topocratiche.

Questa differenza ha senso, visto che gli individui in reti più densamente connesse possono vendere ciò che producono direttamente agli altri, senza il bisogno di intermediari. Dall’altra parte, nelle reti a densità più bassa, gli individui non hanno nessuna connessione diretta con gli acquirenti e devono fare affidamento sugli intermediari per aiutarli a connettersi con gli acquirenti.

httpv://www.youtube.com/watch?v=CTJ8TAMv3sk

Nel video il professore assistente al MIT, Cesar Hidalgo, parla del sistema meritocratico, del comportamento da “rock star”, meccanismi di mercato e nuovi media. Video credit: Serious Science

Usando strumenti di analisi presi dalla Network Science, i ricercatori sono stati in grado di calcolare la soglia alla quale una topocrazia diventa meritocrazia. Questa soglia dipende sia dalla connettività del network, sia dalle regole usate per distribuire il reddito tra i produttori e gli intermediari. Quando il reddito viene ripartito equamente tra il produttore e l’intermediario coinvolto nella transazione, la soglia di cambiamento si verifica quando la lunghezza media del percorso tra i due individui è 2. Quindi se, in media, c’è più di una persona tra un produttore e il suo acquirente, allora il network diventa topocratico. In questo modello, il famoso sesto grado di separazione implica un sistema altamente topocratico.

La soglia cambia invece quando l’intermediario guadagna percentuali più piccole del totale della vendita, questo per effetto di una legge di potenza, il cui esponente dipende dalla grandezza della commissione. Quindi, quando la percentuale degli intermediari è più piccolo, si necessita di una minore connettività per far si che il network diventi meritocratico.

Questi risultati pongono la questione su come le società moderne si stiano evolvendo, in termini di Rete. E’ risaputo che, grazie ai progressi delle tecnologie di comunicazione e dei social network, la connettività della nostra società sta aumentando. Dal punto di vista dei ricercatori le tecnologie di comunicazione stanno essenzialmente riducendo il costo di “fare rete” rendendo più facile per una persona l’interazione con altri, e quindi, contribuire a far diventare la nostra società più meritocratica.

Il modello ci predice che Internet, dando agli individui la possibilità di commercializzare direttamente gli uni con gli altri (o tramite un grande mediatore come iTunes, Amazon o eBay), sta giocando un ruolo importante nell’accrescere la meritocrazia di una società, riducendo la lunga catena di intermediari che invece definisce società poco connesse. Da questa prospettiva Internet sembra promuovere l’equità nella distribuzione del reddito all’interno della nostra società.

Anche se i ricercatori vedono la struttura meritocratica come favorevole rispetto a quella topocratica, avvertono che reti più dense non sono sempre preferibili a quelle meno dense. Ad esempio, reti piu rade hanno facoltà nel preservare la diversità culturale o nel limitare la diffusione di malattie. Da ricerche precedenti inoltre si è visto che, date le loro limitate connessioni dirette, queste reti impediscono anche ai free-riders di prosperare. Questi, dovendo passare attraverso intermediari per sfruttare un’altra persona, fanno in modo che essi assumano un ruolo cruciale per rafforzare la cooperazione.

Daniel Iversen
23 gennaio 2014

[1] http://www.nature.com/srep/2014/140121/srep03784/full/srep03784.html

Palline adesive potrebbero fermare la diffusione di cellule tumorali

breast-cancer

Nanoparticelle adesive anti-cancro riescono a distruggere le cellule tumorali nel sangue e possono impedire al tumore di invadere il corpo.

La fase tumorale più pericolosa e mortale è quando il cancro si sparge nell’organismo. Gli scienziati alla Cornell University, negli Stati Uniti, hanno progettato delle nanoparticelle che, iniettate nel flusso sanguigno, uccidono al contatto le cellule cancerogene migranti; l’impatto di questa strategia è stata incredibile anche se, riferiscono i ricercatori, c’è ancora molto lavoro da fare.

Uno dei maggiori fattori nel delineare le aspettative di vita dopo aver diagnosticato un cancro è capire se dal tumore si siano diffuse metastasi.

“Più del 90% delle morti per tumore sono legati alla metastasi” dice il ricercatore leader nella ricerca, il professor Michael King.

La squadra alla Cornell ha ideato un nuovo metodo per risolvere il problema “agganciando” ad alcune piccole sfere (nanoparticelle) una proteina anti-tumorale chiamata “Trail” (già usata studi clinici sul cancro) e alcune proteine con proprietà appiccicose.

Una volta iniettate nel sangue, queste nanoparticelle si sono agganciate ai globuli bianchi.

I test hanno visto che nel marasma del flusso sanguigno i globuli bianchi si imbattono nelle cellule tumorali staccatesi dal tumore principale per cercare di diffondersi nel resto del corpo, ed il report [1] evidenzia che il contatto con la proteina “Trail” ha poi innescato la loro morte.

Il prof Michael King ha affermato alla BBC che i dati hanno mostrato un effetto incredibile: non c’è stato solo un leggero cambiamento nel numero delle cellule tumorali.

“In realtà i risultati, per adesso in vitro nel sangue umano e nei topi, sono abbastanza notevoli, . Dopo due ore dall’aggiunta delle nanoparticelle all’interno del flusso sanguigno le cellule tumorali si sono letteralmente disintegrate”.

Il professore ritiene questa pratica potrebbe essere usata prima di un intervento o della chemioterapia, e in generale in quei casi dove le cellulare tumorali si spargono dalla massa principale ed inizia la metastasi, per prevenirne la diffusione nei pazienti affetti da tumore particolarmente aggressivo.

Saranno tuttavia necessari ulteriori test di sicurezza in topi ed in animali più grandi prima di un qualsiasi tentativo di sperimentazione umana; fiino ad adesso però, le evidenze ci suggeriscono che questo sistema non ha nessun effetto a catena per il sistema immunitario e non danneggia altre cellulre del sangue, nè il rivestimento dei vasi sanguigni.

Ma il prof King è cauto: “C’è un sacco di lavoro da fare. Sono necessari diversi passi avanti prima che questa tecnica possa diventare vantaggiosa per i pazienti”

[1] http://www.pnas.org/content/early/2014/01/03/1316312111

Daniel Iversen
19 gennaio 2013