Economy | Free Software

Sempre più big, sempre più fast

Parrottino (Sportler): "Nel commercio online è necessario riuscire a gestire quantità di dati sempre maggiori con tempi rapidi"
Hinweis: Dies ist ein Partner-Artikel und spiegelt nicht notwendigerweise die Meinung der SALTO-Redaktion wider.

Quantità di dati sempre più ingenti e necessità di ridurre i tempi di elaborazione. Come fare? “From big data to fast data” è il titolo dell’intervento di Neves Parrottino, responsabile del settore IT di Sportler, che alla SFScon ha fatto il punto della situazione.

“Il tema è centrale. Fino a poco tempo fa c’erano delle banche da cui estrapolare i dati, eventualmente trasferibili in altre banche, c’era un percorso standardizzato: dal database si passava all’etl jobs e poi ai cube. I problemi sono iniziati quando la mole di dati è divenuta troppo grande - spiega Parrottino - quando si parla di 12, 14, anche 16 ore di lavoro è ovvio che non sono più in grado di mantenere i miei dati consistenti perché non sono più attuali, si sono aggiunti nuovi dati nel frattempo e di conseguenza attingere da queste banche dati non è più sostenibile. Da ormai diversi anni, ad esempio, l’industria automobilistica raccoglie dati attraverso la sensorica: i dati temporanei sono talmente tanti che non si possono più memorizzare, si parla di operazioni temporanee, e si è sviluppata una  tecnica per memorizzare che diventa sempre più complessa. Da questa esigenza - prosegue Parrottino - si è abbandonato l’utilizzo delle banche dati tradizionali, a favore di quelle “no sql", che per memorizzare non usano più tabelle ma documenti strutturati appositamente. Tramite queste tecniche abbiamo la possibilità di lavorare in maniera più semplice, non c’è uno schema classico e questo ci consente di essere più flessibili”. 

Da dove arrivano tutti questi dati strutturati e non strutturati? “Buona parte del traffico è generato dai siti di e - commerce. Anche Sportler ha uno shop online e ci siamo posti il problema di come utilizzare la massa di dati in nostro possesso: abbiamo utilizzato i cookies, volevamo capire i  comportamenti dei clienti; abbiamo studiato le loro interazioni con i social network, ad esempio chiedendoci “condividono i nostri eventi? mettono like ai nostri status?”. Purtroppo, nonostante tutto, siamo troppo lenti, non riusciamo a capire a tempo debito le preferenze e le informazioni sui nostri utenti, non siamo in grado di fare una valutazione ottimale. È qui che parliamo di “fast data” - aggiunge Parrottino - nel momento in cui posso avere informazioni automatizzate e posso farle rientrare nel mio sistema, ossia ho un set aumentato di consistenza, con una memorizzazione intelligente, posso di conseguenza utilizzare dati in maniera molto più rapida. È quello che fa Google, ad esempio: il motore di ricerca prende i dati social degli utenti, se si visita un sito due o tre volte la pubblicità viene adattata ai prodotti che il sistema pensa potrebbero interessarmi. C’è un forte aspetto commerciale: il concetto di fast data viene utilizzato soprattuto per operazioni di pricing dinamico”. 

Quanto è sensibile il management a queste problematiche? “Generalmente c’è buona comprensione di quello che stiamo facendo e delle nostre esigenze. Gli aspetti sono due: sulla parte riguardante il commercio c’è un’altissima attenzione, soprattutto per la soddisfazione del cliente, e lì gli investimenti sono alti. C’è un po’ meno comprensione sulla lentezza di certi processi, le aziende chiedono performance rapide e bisogna investire di più su analisi ad hoc giornaliere per poter dare velocemente il risultato a chi deve prendere certe decisioni”.