venerdì 27 giugno 2014

Quando la matematica incontra il calcio...


Un incontro forse troppo complicato quello tra la matematica e lo sport più seguito al
mondo, ma non impossibile.
Il calcio è stato da sempre considerato uno sport aleatorio ed imprevedibile in cui
basterebbe un tiro azzeccato in porta per rovesciare le sorti della partita, ciò
nonostante definirlo in questo modo è riduttivo, si tratta piuttosto di una questione di
approccio giusto.
Se la statistica descrittiva con le sue distribuzioni non è sufficientemente accurata, come
per esempio quelle dei bookmakers che stabiliscono le quote basandosi sulla famosa
distribuzione di Poisson che tiene conto solo di due parametri ( la media dei gol fatti e
subiti ) e quindi è eccessivamente superficiale come previsione e garantisce solo il 60%
di accuratezza.Una vera è propria risposta viene da due ricercatori di matematica Lopez
Pena e Hugo Touchette dell'Università di Londra da sempre appasionati di calcio noti per
aver applicato per primi al calcio quella che è la teoria dei grafi, che viene impiegata
principalmente per analizzare le reti sociali, e con la quale Lopez Pena si è spinto fino
a prevedere il successo degli spagnoli agli europei 2010.
Un grafo è un insieme di nodi ( i giocatori ) ed archi che li collegano insieme ( passaggi
) già in questo modo si possono quantificare alcuni aspetti riguardanti la squadra come
per esempio la coesione oppure l'edge connectivity che rappresenta il numero minimo di
archi da togliere per poter spezzare il gioco della squadra. Questo metodo potrebbe già essere
un utile strumento per i giornalisti e per gli allenatori per rendere più precise le loro
valutazioni.


Nanotech: un nuovo modo di concepire la tecnologia


Vi siete mai chiesti fino a dove la tecnologia potesse arrivare, ebbene, è una domanda a cui è difficile rispondere, data la sua evoluzione irregolare con cui investe diversi campi, come quello nanometrico di cui vi parlerò oggi. La nanotecnologia rappresenta una vera e propria rivoluzione del concetto stesso della tecnologia che è stata per la prima volta documentata nel 1959 dal grande fisico ed ingegnere Richard Faraday nel suo discorso intitolato " There's plenty of room at the bottom" in cui espose tutte le potenzialità di questo settore ma anche i rischi derivanti dalla sua ampia applicazione.
Questa tecnologia è nota perché sfrutta particelle artificiali nell'ordine del nanometro (ovvero un miliardesimo del metro), per darvi un idea pratica se noi immaginassimo di ingrandire una particella nanometrica fino a farle avere la dimensione di un euro, la moneta dell'euro di conseguenza dovrebbe avere la dimensione di Milano. Ma ciò che la rende indubbiamente interessante sono la vasta gamma delle sue applicazioni: dalla biomedicina al industriale, dall'ingegneria genetica alla neuroscienza per poi spaziare su tanti altri ambiti di ricerca. Avendo un impatto gigantesco su quasi tutti i settori che noi oggi conosciamo e in particolare sulla società è opportuno che essa venga sottoposta a rigide regolamentazioni perché come noi purtroppo sappiamo oltre a garantire grandi vantaggi ci espone ad altrettanti rischi, ad esempio l'impiego in campo militare di questa tecnologia avrebbe effetti disastrosi.
Una delle caratteristiche principali di questa tecnologia è la capacità da parte di nanoparicelle di auto-replicarsi e di stabilire velocemente legami chimici tra loro attraverso un complesso processo di riconoscimento molecolare impostoli dal computer ed è forse questa caratteristica che la rende cosi efficiente ed ampiamente utilizzata in particolare nel campo medico per la cura dei tumori e di alcuni sindromi contro cui la medicina tradizionale risulta totalmente inefficace, infatti la cura di tali malattie non può avvenire dall'esterno ma solo dall'interno in quanto si tratta di patologie sistemiche ed autoreplicanti e dunque per poterle debellare bisogna utilizzare lo stesso meccanismo ma opportunamente regolamentato.