Il simbolo dell’uguale: l’innovazione “pratica” di Robert Recorde

460 anni fa un medico e matematico gallese introduce un simbolo di grande successo che usiamo ancora oggi: ‘=’

Lavorare per lo Stato, prestando i propri servizi alla sua burocrazia e ai suoi apparati (oggi diremmo la sua “pubblica amministrazione”) può dare origine a lotte per il potere, talvolta anche estremamente violente. Una situazione in cui si è trovato Robert Recorde, medico e matematico in Inghilterra nel periodo Tudor (1485 – 1603), cioè mentre si stanno gettando le basi di una nazione moderna, economicamente avanzata e pronta a esplorare commercialmente e militarmente i quattro angoli della Terra. Recorde non è una figura molto conosciuta, ma ha introdotto nella grafia matematica un segno, ‘=’, che è diventato uno standard internazionale e che tutti utilizziamo ancora abbondantemente.

 

Chi era Robert Recorde?

A differenza di altri personaggi della storia del pensiero e della scienza, del giovane Robert Recorde si sa davvero poco. È nato nel 1510 in Galles, che proprio in questo periodo entra definitivamente a far parte dei possedimenti inglesi e perde lo status di principato autonomo, da una famiglia di cui l’edizione del 1911 dell’Enciclopedia Britannica ricorda solamente che era “rispettabile”. Nel 1525, a soli 15 anni, è a Oxford, dove si laurea nel 1531. Probabilmente vi insegna qualche anno, ma poco dopo è a Cambridge, dove ottiene una licenza di medico nel 1545. Si trasferisce immediatamente a Londra, con l’idea di esercitare la professione. È nella capitale che la sua strada si incrocia con quella dell’apparato statale inglese.

[continua a leggere su Aula di Scienze Zanichelli]

Che cosa sono i numeri?

Nel suo libro “Numeri. Raccontare la matematica”, Umberto Bottazzini raccoglie numerose storie sui numeri e su come la matematica sia stata una possibilità e una sfida per il pensiero umano

numeri_bottazziniDati due gruppi di oggetti, riuscire a riconoscere a colpo d’occhio quale sia più numeroso ha sicuramente avuto un impatto sulla storia umana fin dalla preistoria. Basta sostituire la parola ‘oggetti’ con ‘predatori feroci’ o ‘cose commestibili’ e se ne può immediatamente intuire l’utilità pratica. Un salto di livello, per così dire, è stata però l’invenzione di modi per fare di conto: quanti sacchi di cerali ho immagazzinato? Quante pecore compongono il mio gregge? Nella storia della ragioneria, se così possiamo dire, la nostra specie ha saputo inventare metodi tra i più stravaganti per assolvere al compito, cercando di limitare le fregature e gli errori. Un sistema particolarmente efficace, per quanto apparentemente rudimentale, è stato utilizzato dal Tesoro Britannico fino a un paio di secoli fa. Su di un bastoncino di legno venivano praticati degli intagli trasversali che indicavano la quantità di denaro che il prestatore consegnava al funzionario, acquistando così buoni del tesoro. Il bastoncino veniva quindi diviso a metà per il lungo: una metà rimaneva all’ufficio del Tesoro, l’altra consegnata al sottoscrittore, quale sorta di titolo al portatore. Ma tutte queste storie dei metodi che abbiamo sviluppato per contare che cosa ci dicono di che cosa siano i numeri?

Parte da qui Umberto Bottazzini, storico della matematica dell’Università Statale di Milano, per “raccontare la matematica“, come recita il sottotitolo del suo ultimo libro, in finale al Premio Galileo 2016. Il problema principale, che studi di psicologia cognitiva e biologia – segnatamente quelli condotti dal laboratorio di Giorgio Vallortigara a Trento – hanno cominciato a chiarire, è se i numeri, e tutta la matematica, esistano di per sé o si tratti di un’invenzione umana. Un po’ pragmatismo contro platonismo, per semplificare: i numeri e la matematica sono strumenti razionali utili a risolvere (inizialmente e non solo) problemi pratici oppure idee astratte che esistono indipendentemente da noi?

Gli esperimenti mostrano che è possibile insegnare a contare ad alcune specie animali non umane, ma che nessuna ha sviluppato la capacità di risolvere una semplice sottrazione o una semplice addizione. Come dire: hanno la capacità di associare un’etichetta numerica a un gruppo di oggetti (che rappresenta una certa ‘numerosità‘), ma non riescono a comprendere che 3 = 2 + 1, cioè che ogni numero naturale si può ottenere sommando uno al numero precedente.

Da qui, la questione si fa più complicata, ma non si pensi che Numeri sia una pedante storia della matematica che ripercorra in modo diacronico e progressivo lo svolgersi dei fatti. Non siamo di fronte a una collana di scoperte e avanzamenti concatenati l’uno all’altro. Il libro di Bottazzini è una raccolta di storie sui numeri e sulle scoperte (o invenzioni?) della matematica che raccontano come la ragione umana abbia contemporaneamente cercato di soddisfare due esigenze. Da una parte quella pragmatica di risolvere problemi della vita quotidiana, dall’altra soddisfare la curiosità di domande del tipo: “e se la penso così o colà?”. Il risultato è una delle grandi avventure del pensiero umano, scientifico e non, che si è progressivamente intrecciato con la storia dell’umanità stessa, raccontandoci incidentalmente anche come siamo fatti noi esseri umani.

 

da Oggiscienza.it

Ada Lovelace e il primo algoritmo

Il computer e l’informatica ancora non esistevano, eppure duecento anni fa nasceva una mente brillante che avrebbe progettato quello che di fatto è il primo software della storia

Non c’è motivo perché la gente si tenga in casa un computer.

È una di quelle frasi che fanno un certo effetto quando si mette a fuoco chi l’ha pronunciata. E a farlo non è stato uno qualsiasi, ma un personaggio che di computer se ne intendeva. Il suo nome era Kenneth Olsen e nel 1957 ha fondato, con il collega Harlan Anderson, uno dei gruppi americani dell’industria dell’elettronica, la Digital Equipment Corporation (DEC), che ha finito per essere una costola di colossi come Compaq e poi Hewlett-Packard. Nel 1977, quando pronuncia quella frase, Olsen pensa ai computer in produzione allora, così diversi dai personal computer di oggi o di solo una decina di anni più tardi. Chi se li sarebbe potuti permettere? Ma già nel 1992, quindi nella preistoria digitale, lui stesso ha già capito come sarebbe andata a finire e dice che “la gente si stuferà di gestire un personal computer e vorrà invece un terminale, magari con le finestre”.

Due frasi che da sole racchiudono buona parte della storia del computer, dalla sua immissione sul mercato dopo la Seconda Guerra mondiale fino ai giorni nostri. Da una parte l’incredibile trasformazione della componente fisica, l’hardware, che ha permesso al computer di essere davvero un oggetto per le masse. Dall’altra il ruolo centrale che ha il modo in cui chi lo usa riesce a dargli le istruzioni: il sistema operativo e, in generale, tutto il software. L’Olsen del 1977 sembra non riuscire a prevedere il nostro mondo attuale, con computer in ogni dove che ci assistono in infiniti modi diversi: nel lavoro, nelle comunicazioni, nell’intrattenimento, nell’archiviazione dei nostri ricordi, nel modo in cui esploriamo, misuriamo e conosciamo il mondo. Eppure questa rivoluzione della società era già iniziata oltre un secolo prima di quel momento, a metà dell’Ottocento, quando la  figlia di un poeta ha scritto il primo algoritmo informatico della storia. Il suo nome è Ada Lovelace ed è nata proprio duecento anni fa a Londra.

 

Chi era Ada Lovelace?

Augusta Ada King, contessa di Lovelace, nasce a Londra il 10 dicembre del 1815, figlia di George Gordon Byron, uno dei più famosi poeti e scrittori inglesi. In realtà, quel padre donnaiolo e dalle mani bucate (spende tutta la propria eredità di Lord nell’arco di un anno), lo vede per l’ultima volta quando ha solamente un mese e lui se ne parte per uno dei suoi viaggi. Ada rimane con la madre Anne Isabella, baronessa di Wentworth, che nonostante la partenza non proprio fortunata, riesce a garantire alla figlie un’ottima educazione, non solo sul fronte delle materie che si ritenevano adeguate a un membro di sesso femminile dell’aristocrazia inglese, ma anche in astronomia, ottica e, in generale, in tutti i campi della matematica. Inutile dire che saranno sforzi ben ripagati.

Ada_Lovelace_Chalon_portrait

Ritratto  (dettaglio) di Ada Lovelace di Alfred Edward Chalon del 1840 e conservato al Science Museum di Londra (Immagine: Wikimedia Commons)

A diciassette anni, a una festa incontra Charles Babbage. È un noto scienziato dell’epoca e sta lavorando da tempo a un progetto per la costruzione del primo computer meccanico della storia. Lo chiama Macchina Analitica e una volta completata sarebbe stata in grado di eseguire una grande varietà di compiti generici, proprio come fa oggi un computer. Ha già alle spalle la costruzione del prototipo della Macchina Differenziale, anch’essa completamente meccanica, che permette di risolvere le funzioni polinomiali e che gli ha permesso di non passare totalmente per un pazzo visionario. Ma la Macchina Analitica è ancora lontana: ci sono molti problemi, suprattutto matematici, che devono essere risolti. L’incontro con Ada Lovelace è la chiave. Le sue doti e la sua intelligenza lo affascinano (la soprannominerà l’«incantatrice dei numeri») e le trova stimolanti per i suoi progetti. Forse se ne innamora anche, ma quello che ne risulta è inizialmente una corrispondenza intellettuale profonda e proficua.

 

Che cosa ha scoperto?

La Macchina Analitica, in realtà, non vede mai la luce. Ci sono problemi finanziari che bloccano il progetto di Charles Babbage, ma il progetto e il personaggio sono famosi e fanno parlare di sè in tutt’Europa. Tanto che Luigi Malerba, uno scienziato italiano, anzi piemontese per essere precisi, nel 1842 pubblica un articolo sul progetto della macchina. Lo scrive in francese e Charles Babbage chiede a Ada Lovelace di tradurlo in inglese. La Lovelace, però, non si limita a una traduzione letteraria, ma aggiunge note di suo pugno che diventano più corpose dell’articolo originale, trasformandolo in una ricerca e una riflessione completamente originale.

Babbage_Difference_Engine_(Being_utilised)

Modello della Macchina Analitica conservato al Science Museum di Londra (Immagine: Wikimedia Commons)

Ci sono diversi aspetti interessanti e sorprendenti in quell’articolo. Il primo è la chiara consapevolezza che l’autrice dimostra della necessità di un sistema per la programmazione della Macchina Analitica: bisognava darle le istruzioni per i compiti che doveva eseguire. Nelle sue note fornisce anche un esempio concreto di che cosa intenda e scrive la serie di comandi necessari perché la Macchina Analitica possa calcolare i numeri di Bernoulli, una serie numerica molto importante per la risoluzione di diversi problemi. Ada Lovelace ha scritto il primo algoritmo informatico della storia, la prima serie di istruzioni che indicano a partire da certi dati in ingresso quali siano le istruzioni che il calcolatore deve effettuare. Tutto questo pensando di utilizzare le schede perforate impiegate per immettere dati e istruzioni nella sua macchina.

punchcards

Schede perforate del tipo utilizzato per le macchine di Babbage (Immagine: catherinecronin via Flickr)

 

Qual è la sua eredità scientifica?

Un altro aspetto importante della sua traduzione dell’articolo di Menabrea è la profonda consapevolezza dell’importanza che la Macchina Analitica e i suoi successori avrebbe potuto giocare nel campo della scienza. Scrive: «Un nuovo, vasto e un potente linguaggio è stato sviluppato perché in futuro sia usato per l’analisi, in modo da poter raccoglierne le verità per più una velocità e più una precisione applicazione agli scopi dell’umanità di quanto i mezzi oggi a disposizione abbiano reso possibile». Rapide risoluzioni di problemi e veloce travaso dei risultati nella sfera applicativa: questo lo scopo principale per il quale la programmazione della Macchina dovrà trovare adeguato sviluppo.

La sua consapevolezza delle potenzialità della Macchina e dell’informatica, sebbene sia una disciplina che nascerà solamente un secolo più tardi, non si limitano all’idea che il calcolo automatizzato avrebbe accelerato la risoluzione di problemi matematici. La Lovelace capisce che se opportunamente programmata la Macchina avrebbe potuto manipolare qualsiasi tipo di dati, arrivando a preconizzare la possibilità che potesse essere utilizzata per comporre musica, produrre grafici e altro. In un solo “articolo”, per così dire, Ada Lovelace “inventa” il primo algoritmo gettando le basi della programmazione informatica e prefigura una storia delle sue applicazioni che ha cominciato a svilupparsi solamente cinquant’anni fa.

 

Deviazione: George Boole

Questa storia dovrebbe concludersi con il boom dell’informatica della seconda metà del Novecento, di cui la Lovelace e Babbage sono stati degli autentici pionieri. Ma prima di arrivarci, dobbiamo prendere una piccola deviazione, spostandoci da Londra a Cork, in Irlanda. E per la precisione al numero 5 di Grenville Place, in un piccolo ma confortevole cottage dove vive George Boole. Alla scrivania posizionata di fronte alla finestra principale del piano terra di quella casa scrive un libro fondamentale per questa storia: An Investigation of the Laws of Thought (Indagine sulle leggi del pensiero) pubblicato nel 1854. Matematico sopraffino, si era fatto conoscere una quindicina di anni prima con un paio di articoli scientifici sui metodi per la risoluzione delle equazioni differenziali.

PSM_V17_D740_George_Boole

George Boole ritratto per le pagine del Popular Science Monthly

L’Indagine, però, si occupa del rapporto che esiste tra matematica e logica. In particolare, dimostra come le proposizioni logiche possono essere espresse da equazioni matematiche e come la loro manipolazione algebrica offra un metodo per la deduzione logica. Boole dimostra che è possibile ridurre a un simbolo (p, q o qualsiasi altro) delle proposizioni e assegnare loro un valore di verità, 0 o 1. E che è possibile conoscere il risultato di qualsiasi possibile combinazione tra i valori di verità delle proposizioni indipendentemente dal loro contenuto, ma esclusivamente basandosi sulle regole che governano il comportamento degli operatori logici.

In pratica, Boole ha fornito lo strumento logico-matematico necessario perché l’idea di Ada Lovelace che la Macchina Analitica possa trattare qualsiasi tipo di dati si realizzi. Ma è una connessione che rimane nell’ambito delle suggestioni, perché Ada Lovelace e George Boole non si incontrano. Il matematico muore nel 1864, a soli 49 anni, per causa di una polmonite, non prima di essere diventato un membro della Royal Society, la più prestigiosa istituzione scientifica dell’epoca, e aver gettato le basi per la ricerca scientifica di almeno due generazioni di matematici e filosofi. La Lovelace si spegne ancora più giovane, a 36 anni, alla stessa età di quel padre che non ha mai davvero conosciuto, per un cancro all’utero. Nati nello stesso anno, hanno vissuto due vite parallele, lasciando aperto uno dei grandi “cosa sarebbe successo se…” della storia del pensiero scientifico.

 

George Boole, Ada Lovelace e il personal computer di oggi

La storia della scienza e della tecnologia attribuisce a un matematico americani l’onore di essere il vero e proprio fondatore della disciplina informatica. Il suo nome è Claude Shannon (1916 – 2001) e nel 1937, con la sua tesi di laurea, dimostra che l’applicazione della logica booleana alla costruzione dei circuiti elettrici permette di costruire qualsiasi relazione numerica: da una parte vero e falso, zero e uno, i valori di verità della logica booleana; dall’altra aperto e chiuso, i due stati che possono assumere i relay. Dopo la Seconda Guerra mondiale, i primi veri e propri computer vedono la luce. E con essi nascono anche le grandi aziende, come la Digital Equipment di Ken Olsen. Negli anni successivi, e fino ai giorni nostri, la storia dell’informatica non ha fatto altro che confermare l’intuizione di Ada Lovelace sulla flessibilità e le svariate possibilità di utilizzo delle macchine per il calcolo automatico.

 

[Da Aula di Scienze]

Il contagio delle malattie? Con la matematica si può impedirlo

Usare modelli matematici applicati allo studio delle epidemie non è una novità. È successo per l’epidemia di colera ad Haiti, dove vaccinare era molto difficile dato che le persone senza casa erano migliaia. E questi modelli hanno già mostrato di essere molto efficaci quando l’Europa fu colpita dalla «suina».

Leggi il resto: http://www.linkiesta.it/matematica-epidemie#ixzz2JGwo7MHp

Romanzo matematico. Intervista a Mirko Degli Esposti

 

 

Il resto su LeScienze di novembre