Non spaventatevi. Il tema sembra complesso, ma cercheremo di semplificarlo.
Per questo ci siamo rivolti a Kiratech, realtà aziendale veronese specializzata nei Big Data composta da 15 persone, che quest’anno festeggia il decimo anno di attività con alle spalle due importanti riconoscimenti internazionali.
Nel 2013 il premio Prelert Partner EMEA (Europe Middle East Africa, ovvero da un punto di vista informatico tutto il mondo tranne che Stati Uniti) e proprio in questi giorni il riconoscimento da parte di Juniper come miglior partner tecnologico europeo.
L’attività lavorativa sui Big Data prevede competenze tecniche, risorse, fiuto e intuizione nel capire che direzione sta prendendo il mercato per poi andare a presentare con coraggio queste innovazioni ad aziende che non ne hanno ancora sentito parlare. Questo è il lavoro, tra gli altri, di Kiratech. Ne abbiamo parlato con Marco Bizzantino, Chief Technical Officer di Kiratech.
Dott. Bizzantino, prima di affrontare il tema potrebbe presentare Kiratech per capire in che modo è collegata all’ambito Big Data?
Kiratech nasce come System & Cloud Integrator, quindi con una base prettamente sistemistica, legata all’infrastruttura informatica.
Nel corso del tempo abbiamo cambiato il nostro business cominciando a partecipare a svariate conferenze internazionali con l’obiettivo di fare scouting di nuovi prodotti e tecnologie cercando di capire quali potrebbero interessare il mercato italiano da cui proviene il 90% del nostro fatturato. La nostra proposta si divide in tre aree: infrastruttura classica e Cloud, Security, nuove tecnologie legate ad analisi e Big Data.
Dal 2009 abbiamo iniziato ad occuparci di tecnologie Big Data. Siamo stati il secondo partner tecnologico italiano di un software chiamato Splunk e il primo partner di Prelert. Siamo stati invitati a parlare di questa esperienza in una conferenza internazionale a Las Vegas pochi mesi fa.
Parliamo quindi di Big Data. Cosa sono?
Partiamo dal problema: le aziende si trovavano ad avere molti dati da gestire! Big Data è semplicemente un modo, una metodologia, per prendere questi dati, aggregarli e trasformarli in informazioni. Le aziende, con questa enorme mole di dati, possono estrapolare valore aggiunto correlando le informazioni a disposizione in tempo reale.
Cosa si può mettere in relazione?
Qualsiasi tipo di dato: dati business, dati applicativi associati a dati derivanti da un social network. Non c’è limite. A questo punto si verifica però un secondo problema: si è passati dall’avere tanti dati e zero informazioni all’avere troppe informazioni. La necessità diventa quella di avere strumenti che consentano di correlare particolari che sfuggirebbero, difficili da ottenere. L’obiettivo di questi strumenti è fornire l’informazione più rilevante nel minor tempo possibile, penalizzando le informazioni ripetitive e sovrabbondanti.
Come si riesce poi a rendere fruibili queste informazioni?
Anni fa si era iniziato con le infografiche, metodo di rappresentazione grafico di concetti. Adesso si parla di “Data Visualization” e la soluzione che proponiamo in tal senso si chiama Tableau. Però possiamo affermare che se 5 anni fa solo aziende medio-grandi potevano permettersi soluzioni di analisi di Big Data, oggi il mercato si è snellito parecchio e anche le PMI possono accedervi con costi abbordabili.
Quali sono le posizioni lavorative che si potrebbero aprire in futuro e su cosa dovrebbero puntare i giovani nella scelta del proprio percorso accademico?
Non esiste ancora in Italia, o almeno non come negli altri paesi, un corso di studio in “Data Scientist”, che formi una persona all’utilizzo dei Big Data. Possiamo però vedere quali caratteristiche deve possedere questo professionista: capacità di analisi, sviluppo con linguaggi informatici di alto livello (Java, Python, Ruby) e solide conoscenze matematiche e statistiche. Il linguaggio di programmazione consigliato in questo settore è “R” che viene già insegnato nelle università. Con queste competenze usciti dall’Italia si trova lavoro in pochissimo tempo.