DSC_0054 1.jpgDSC_0059.jpgDSC_0082.jpgDSC_0058.jpgDSC_0152.jpgDSC_0188.jpgDSC_0202.jpgDSC_0189.jpgDSC_0057.jpgDSC_0084 2.jpgDSC_0044 1.jpg

Analytics

L’elaborazione e l’analisi statistica di dati strutturati non è una particolare novità, innumerevoli sono i settori ed i contesti applicativi in campo industriale, medico, scientifico, finanziario nei quali è diffusa. Parlando però di Big Data sorgono problematiche che non sempre e non necessariamente sono affrontate nei contesti tradizionali (ad esempio la Business Intelligence). Talvolta è necessario esplorare tali dati con una velocità che non è consentita dai normali database relazionali. Inoltre, come riportato in “The age of Big Data”, tratto dal NY Times, la parte analitica inizia a fare uso di concetti piuttosto avanzati: “In prima linea si collocano le tecniche di Intelligenza Artificiale, come l’Elaborazione del Linguaggio Naturale, il Riconoscimento di Pattern e l’Apprendimento Automatico”.
I dataset da elaborare possono essere numerosi e parecchio eterogenei tra loro, i dati grezzi possono aver bisogno di importanti interventi di pulizia e raffinamento ed i modelli predittivi da generare possono essere molto complessi. Uno dei sistemi più consigliati è Hadoop, una tecnologia open source che permette di distribuire i carichi di lavoro dell’analisi dei dati tra più computer, a fine di suddividere la difficoltà dell’elaborazione e produrre i risultati in maniera più rapida. In questo modo si va a produrre una nuova piattaforma, che potrebbe essere denominata “analytics-as-a-service”, che facilità le attività di utilizzo, analisi e sperimentazione dei flussi di dati eterogenei (strutturati o meno che siano). A questo punto, per far parlare i dati, occorre che entri in campo una nuova figura, quella del Data Scientist.
E’ da poco che nel panorama scientifico internazionale si è delineata questa nuova figura di scienziato caratterizzata dalla capacità di analizzare problemi di tipo numerico o testuale, quantitativi o qualitativi, utilizzando trasversalmente gli strumenti messi a disposizione sia in ambito statistico (quindi algoritmi di data mining, di machine learning, pattern recognition e classificazione) che informatico (MySql, PHP, Python, Javascript...). Gli strumenti d’elezione per tali figure professionali sono software come R,  MapReduce, Hadoop. A tutto questo si accompagna una responsabilità divulgativa nuova, tale per cui chi analizza i dati non è più chiamato solo a “studiare” il sistema in oggetto e a ricavare l’informazione contenuta in tali dati, ma anche a rappresentare i risultati ottenuti in modo esplicativo, possibilmente attraverso infografiche dinamiche (Data Visualization) chiaro e facilmente fruibili, anche da chi non è addetto al settore analitico o applicativo specifico.
In questo senso è importante generare una figura, o meglio, un team di persone, in grado di gestire quelle che nel report di IDC sono indicate come le tre caratteristiche principali dei Big Data: i dati, l’analitica ad essi applicata e la presentazione dei risultati generati.
I contesti applicativi in cui è previsto un forte incremento dell’impiego delle metodologie finora descritte sono:

  • la sanità ed i dispositivi biomedicali: lo studio delle biometriche non vitali, la misura dell’efficacia degli interventi farmacologici, la correlazione dell’attività dell’individuo con il suo stato di salute, la previsione del sopraggiungere di patologie;
  • la sensoristica: il rilevamento dell’inquinamento, del rumore, dei parametri meteo, effettuati con dispositivi economici ma diffusi nell’ambiente, in grado di generare grandi quantità di dati, analizzabili in real-time, direttamente sui dispositivi stessi, che potrebbero essere impiegati in sistemi di sorveglianza ambientale e di emergenza;
  • punti vendita di grandi catene: lo studio del comportamento dei consumatori, delle loro preferenze, dei loro percorsi preferiti all’interno della struttura, il tutto correlato con parametri a contorno quali il traffico, il meteo, la situazione congiunturale e politica;
  • l’intrattenimento ed i social media: lo studio basato sul comportamento delle masse o di corposi gruppi di individui può essere la chiave vincente per individuare in tempo utile la “next big thing”, o addirittura predire il vincitore delle prossime elezioni, basandosi sulle informazioni liberamente disponibili negli spazi social.
"m. calderisi @ chemiometria.it", used under a Attribution-NonCommercial-ShareAlike license
joomla template by a4joomla
Privacy Policy