50 anni di lotta al fumo: ecco chi vince e chi perde

Nei paesi che hanno leggi sul tabagismo i decessi calano, ma nel mondo il numero di fumatori esplode. Soprattutto in Asia

L’11 gennaio del 1964 era presidente JFK e non c’era film di Hollywood o show televisivo in cui le sigarette non fossero onnipresenti (vedi alla voce Mad Men, per farsi un’idea). Quel giorno, però, un fatto avrebbe cominciato a cambiare il rapporto tra la società occidentale e le “bionde”. Quel giorno, infatti, Surgeon General Luther Terry, ovvero il direttore del servizio di Salute Pubblica america,  pubblicava un report in cui si metteva nero su bianco che la relazione tra il fumo e il cancro ai polmoni era evidente e inconfutabile.

Oggi sappiamo che le conseguenze per la salute riguardano anche altre patologie. Nel 1965 gli Stati Uniti introducevano i messaggi di avvertimento sui pacchetti e nel 2003 l’Organizzazione Mondiale della Sanità, alla Framework Convention on Tobacco control, indicava come necessaria l’introduzione di politiche di regolamentazione per l’industria del tabacco, oltre ad auspicare la proibizione di fumare in luoghi pubblici, il divieto di pubblicizzare le sigarette e l’applicazione di tasse sulle vendite.

A cinquant’anni da quello storico documento come sono andate le cose? Quanti sono i fumatori nel mondo? Secondo un paio di studi scientifici pubblicati l’8 gennaio scorso su Nature, le misure anti-fumo sono state efficaci, ma generalmente il numero di fumatori di sigarette è cresciuto. Soprattutto perché è aumentata la popolazione mondiale dagli anni Sessanta a oggi (dai 3 miliardi e mezzo dell’inizio degli anni Settanta ai 7 e rotti di oggi), come spiega anche uno studio recente pubblicato sul Journal of the American Medical Association. E perché sono aumentati i fumatori in quei paesi dove la lotta al fumo non ha mai davvero preso piede per scarsa volontà della politica. Ad aiutarci a capire come sono andate le cose ci vengono in aiuto le visualizzazioni interattive realizzate dall’Institute for Health Metrics and Evaluation, un centro di ricerca sui numeri e la valutazione di temi legati alla salute che ha sede all’Università di Washington. I dati a disposizione riguardano il periodo 1980 – 2012 e, fanno sapere direttamente sul loro sito, si basano sui numeri forniti direttamente dagli istituti di salute pubblica nazionali.

Leggi tutto su Wired.it

Come comprimere i dati (ispirandosi all’arte)

Si tratta di un nuovo algoritmo che promette una compressione (e una qualità dell’immagine) superiore al formato jpeg

Si tratta di un nuovo algoritmo che promette una compressione (e una qualità dell’immagine) superiore al formato jpeg 

Se oramai viviamo in un mondo di big data, sarà anche il caso che gli algoritmi di compressione dei dati siano più efficienti. Vero che la banda larga consente di trasferirne quantità consistenti in tempi inimmaginabili ai tempi del doppino telefonico (o dei floppy disk), ma risparmiare in dimensione sui file che ci scambiamo senza perdere in qualità aiuta sicuramente a renderepiù veloci gli scambi e occupare meno spazi nelle nostre librerie digitali, soprattutto sul fronte dello streaming e del campionamento in tempo reale. È il pensiero che deve aver attraversato Bahram Jalali e Mohammad Asghari, due ricercatori della Henry Samueli School of Engineering and Applied Sciencedell’UCLA quando hanno messo a punto il loro nuovo metodo di compressione dei dati.

La nuova tecnica si basa su di un concetto, l’anamorfismo, che deriva dalla grafica artistica e che è utilizzato dal XVI secolo. Come si può vedere da innumerevoli esempi online, nelle grafiche anamorfiche l’illusione della terza dimensione è creata a partire dalla particolare struttura disegnata solamente su due. Un po’ come avviene per le scritte pubblicitarie sui manti erbosi degli stadi di pallone.

Nella tecnologia di compressione dati, basandosi sulle tecniche matematiche che derivano dalle trasformazioni di Fourier, il segnale viene distorto in modo analogo, ma risparmiando preziosi byte. “L’immagine“, ha commentato nella nota stampa Asghari, “viene distorta in modo selettivo e un maggior numero di pixel viene concentrato sulle caratteristiche più nitide“. Ovvero si concentra maggiore informazione su quelle parti dell’immagine che sono indispensabili per ricostruire, per così dire, la tridimensionalità.

Secondo Jalali e Asghari, la loro tecnica è più efficace degli algoritmi per jpeg che utilizziamo attualmente sia sul piano del risparmio di spazio, sia nella conservazione della qualitàdell’immagine. Nelle loro ricerche sui segnali usati in ambito medico, nel 2012 erano riusciti a realizzare strumenti capaci di individuare le cellule cancerogene con una sensibilità di una su un milione. Il problema era l’immensa quantità di dati che veniva generata. Cosa di meglio, quindi, che cercare di comprimere quei dati e renderli gestibili e più facilmente trasmissibili?

Trasparenza, ecco i voti delle università italiane

Quattro atenei su dieci non passano il test della Bussola della Trasparenza. I peggiori sono i privati e i piccoli. Tra i grandi il Politecnico di Milano e Pisa non se la cavano bene

Quanto sono trasparenti i nostri atenei? Il Decreto legislativo numero 33 del 14 marzo dello scorso anno si occupa del “riordino della disciplina riguardante gli obblighi di pubblicità, trasparenza e diffusione delle informazioni da parte delle pubbliche amministrazioni”. In pratica, sancisce quali informazioni e documenti riguardanti ogni singola PA è obbligata a pubblicare sul proprio sito. È un primo passo per rendere meno opaco l’operato della pubblica amministrazione che, per definizione, viene finanziato dal denaro della collettività. Si tratta solamente dell’ultimo tassello di una storia che ha radici più profonde e che per sua stessa natura sta all’incrocio con un altro grande tema: gli open data. L’obbligo di legge investe tutte le PA e il sito dellaBussola della Trasparenza, messo in piedi dallo stesso Ministero della Pubblica Amministrazione, le suddivide in 18 diverse categorie: dagli “enti territoriali” alle “aziende sanitarie”, passando per “comunità montane” ed “enti parco”. Non mancano ovviamente gli atenei. Secondo il monitoraggio della Bussola della Trasparenza, da cui abbiamo ricavato i dati che vi mostriamo, tra le 66 università analizzate (abbiamo tolto la Scuola Normale e la Scuola Sant’Anna, che rappresentano un caso particolare) ben 39 rispondono positivamente a tutti i 65 indicatori. Gli atenei che si possono vedere nel grafico in verde, invece, sono tutti quelli che sono carenti per questo o quel parametro. Salta subito all’occhiola coda della classifica, con 7 atenei che sono negativi sotto tutti gli indicatori, cui aggiungeremmo anche l’Università “Magna Grecia” che ha solamente due parametri positivi. Va precisato chesi tratta di enti privati e come tali non vincolati alla trasparenza.C’è poi un gruppetto esiguo (Piemonte Orientale, Salerno, Pisa, Politecnico Milano) che si attesta su performance mediocri, tutte le altre sono positive per più dell’80% degli indicatori.

Leggi tutto su Wired.it

Google non ha il senso dell’umorismo (ma premia la cura dei contenuti)

Foto CC/Flickr di Antonio Manfredonio / Manfris
 

“La seconda pagina di Google è il miglior posto dove nascondere un cadavere, perché non ci guarderà mai nessuno”: con un pizzico di humor nero ci addentriamo nel mondo dei motori di ricercaPensatech (@Pensatech) ci racconta cosa sono, l’evoluzione del Re dei motori, Google, e qualche consiglio per farsi trovare meglio.

Barbara Sgarzi (@BarbaraSgarzi), esperta di digital marketing e social media, ci spiega che Google non ha il senso dell’umorismo, quindi meglio titoli semplici e chiari, senza giochi di parole. E’ importante “il tocco umano“, non lasciatevi tentare dalle applicazioni che pubblicano in contemporanea su diversi social network, pensate a cosa state facendo e a chi vi rivolgete.

Secondo Massimo Carraro (@Maxthemonkey), copywriter e fondatore di Monkey Business, la cosa più importante è la cura dei contenuti, che paga anche sul lungo periodo. Nel web sono cadute le barriere tra siti di informazione, aziendali, di intrattenimento, i contenuti si cercano ovunque, l’importante è la chiarezza su cosa si veicola.

Riascolta la puntata andata in onda venerdì 10 gennaio 2014 su Radio Città del Capo:

Cumulus – I Never Meant It To Be Like This

C’è stato un momento a fine anni Novanta in cui anche insospettabili cultori del grunge e del rock che avevano dominato Videomusic e MTV in quel decennio, oltre che le classifiche di vendita, si lasciarono tentare da alcune canzoni pop dolci come sogni proibiti. Erano due canzoni daheavy rotation che avevano fatto innamorare anche i cuori più crudi, con una miscela di sugardream praticamente perfetta: Kiss Me e There She Goes. Chi fossero questi Sixpence None The Richer non lo sapevamo e poco importava che i più informati sostenessero che si trattasse di una band christian rock. Sapevamo bene però che quando Leigh Nash ci chiedeva di baciarla, non avremmo potuto rifiutare. Avremmo poi scoperto che There She Goes era una cover dei La’s, ma questa è un’altra storia.

La stessa sensazione, oltre sedici anni dopo (il debutto dei Sixpence usciva nel 1997) e con una certa (?) maturità in più, ci arriva con le canzoni di questo esordio dei Cumulus, band dell’area di Seattle che si è fatta un nome nella scena locale come supporting band dai nomi più blasonati come Wild Flag e Gold Leaves. La voce sensualmente eterea di Alexandra Niedzialkowski è sostenuta egregiamente da Lance Umble alla chitarra e Leah Julius alla basso, per una miscela jangle/dream/sugar-pop che è perfetta come un fiocco di neve. Nessuna deroga ai must del genere, ma la grazia di dieci quadretti che si incollano all’orecchio e non vogliono più andar via. A qualcuno tutto questo darà la sensazione di sentirsi (o voler essere) più giovane di quanto non sia in realtà.

Da Sentireascoltare.com

Un cuore spaziale

Inizia la sperimentazione su pazienti umani del cuore artificiale permanente, che dovrebbe assicurare una durata maggiore di qualsiasi altro impianto mai visto finora.

Unire la conoscenza biologica e anatomica del cuore umano con la tecnologia sviluppata per i satelliti spaziali. In estrema sintesi è questa la ricetta per la realizzazione del cuore artificiale pensato per essere impiantato e portato dai pazienti sul lungo periodo. Tra i progetti di questo tipo è il più avanzato e lo ha sviluppato un’azienda francese, Carmat, spin off del gigante del settore aerospaziale Astrium, con il sostegno del governo francese. Ci sono voluti 15 anni di ricerche e sperimentazioni sotto lo spirito-guida di Alain Carpentier, chirurgo francese noto come il padre delle attuali tecniche chirurgiche per gli interventi sulle valvole cardiache.

Carmat ha realizzato il primo cuore completo all’inizio del 2013, ma la novità che sta facendo il giro del mondo è che dopo Slovenia, Polonia e Arabia Saudita, anche la Francia ha ottenuto ha già ottenuto l’approvazione per iniziare la sperimentazione su pazienti umani. Saranno così 4 i cuori artificiali che verranno impiantati nel prossimo futuro su altrettanti pazienti per la sperimentazione sugli esseri umani.

A fare ulteriormente parlare del progetto è l’impiego delle stesse tecnologie utilizzate da Astrium per costruire i satelliti che ha mandato in orbita. Il cuore artificiale ha dentro di sé un vero e proprio computer, capace di monitorare il funzionamento della macchina grazie a una serie di sensori. Lo stesso a quanto avviene per i satelliti, ma in uno spazio 100 volte inferiore. Per renderlo il più biocompatibile possibile si è scelto di usare direttamente un pericardio (la membrana che circonda il cuore) di origine animale (mucca): in questo modo si riduce al minimo il contatto tra i materiali sintetici e il corpo del ricevente. Anche le valvole cardiache, derivate dalle ricerche di Carpentier, sono di origine biologica.

Altro aspetto fondamentale derivato dall’esperienza tecnologica di Astrium è l’affidabilità. Sperimentazioni con cuori artificiali permanenti sono già state condotte negli ultimi anni, ma la tecnologia di Carmat promette di far registrare una sicurezza sul lungo termine del tutto nuova. Gli sviluppatori del cuore artificiale può contrarsi 35 milioni di volte all’anno per almeno 5 anni senza perdere un colpo, un po’ come deve avvenire per gli oggetti artificiali in orbita geostazionaria a 36mila chilometri dalla Terra, dove intervenire per riparazioni e correzioni ha costi elevati e, talvolta, non è possibile.

La storia dei cuori artificiali è parallela a quella dei trapianti. Il primo trapianto fu eseguito in Sud Africa, dall’equipe di Christiaan Barnard nel 1967. L’operazione fu un successo, ma il trapiantato sopravvisse solamente 18 giorni. Le cose andarono meglio nel 1968, con il secondo paziente di Barnard, che visse 19 mesi dopo il trapianto. In Italia il primo trapianto di cuore venne eseguito a Padova da Vincenzo Gallucci nel 1985. Fin dagli anni Cinquanta la medicina ha lavorato per sviluppare un cuore artificiale. Un sogno che ha prodotto macchine estremamente utili, ma che sono utilizzabili solamente per brevi periodo. Uno dei problemi più grossi, oltre all’affidabilità, è solitamente che i cuori artificiali prevedono una pompa esterna al corpo del paziente, fatto che oltre a rendere scomoda la vita del paziente, lo espone al rischio di infezioni.

Da Wired.it del 3 gennaio 2014

 

Gli antibiotici favoriscono l’obesità?

Gli Stati Usa con più alta percentuale di obesi sono quelli dove si prescrivono più antibiotici. Ma i ricercatori sono prudenti.

“È ancora presto per dirlo”: avvertono gli stessi ricercatori che hanno lavorato alla ricerca. Ma la coincidenza è talmente singolare, che fa pensare e parlare di sè. Ci riferiamo a una possibile connessione tra l’uso di antibiotici e l’obesità. A raccontare la vicenda è il magazine Usa Mother Jones che ha messo i dati dei Centers for Disease Control in una mappa e ha notato che gli stati americani con il più alto tasso di obesità sono anche quelli dove vengono prescritti più antibiotici. Lo raccontano bene le due mappe che hanno realizzato. La prima mostra le prescrizioni di antibiotici normalizzate 1000 abitanti:

La seconda mappa mostra in tinte blu sempre più scure quali sono gli stati con il più alto tasso di obesità nella popolazione:

La coincidenza è quasi perfetta e ha stupito molto anche Lauri Hicks, la ricercatrice dei CDC che ha condotto lo studio scientificoalla base del racconto di Mother Jones. Ci si aspetteva una prescrizione di antibiotici più frequente in stati con una popolazione particolarmete in là con gli anni, come per esempio la Florida. Non è così. A essere maggiori consumatori di antbiotici sono gli stati con una popolazione tendenzialmente più povera: la stessa che è più esposta al rischio di obesità e sovrappeso.

Lo studio non significa che ci sia necessariamente un rapporto di causa-effetto tra la somministrazione di antibiotici e l’obesità. La spiegazione di questa correlazione potrebbe trovarsi nella condizione economica: chi ha meno possibilità è contemporaneamente più esposto a scelte alimentari meno salutari e a un rischio di infezioni batteriche più elevato. Gli scienziati dei CDC assicurano che continueranno a studiare il fenomeno.

La relazione tra povertà e obesità non è certo una novità. All’inizio del 2013, per esempio, se ne è discusso sui media inglesi, per una polemica nata dalle parole del Ministro della Salute Anna Soubry. Il Guardian ha voluto scavare nella relazione tra obesità e povertà, scoprendo che i dati danno ragione al ministro. Nel Regno Unito la fascia economicamente più debole ha un tasso di obesità tra il 25% e il 30%, mentre nella fascia più benestante non si supera il 22%.