Approfondimenti e idee

Per ottenere valore dai Big Data bisogna prima gettare le giuste fondamenta

Per tutte le aziende è oggi fondamentale ricavare un valore effettivo dai dati. Tuttavia, prima di sottoporre i dati a operazioni di mining per l'acquisizione di utili informazioni sul business, è necessario potervi accedere in modo rapido, sicuro e preciso da tutte le origini disponibili. Come? Con un'infrastruttura di base in grado di integrare più origini dati e di trasferire i carichi di lavoro oltre i confini del cloud e delle strutture on-premise.

Che cosa sono i Big Data?

I Big Data vengono definiti comunemente in base a tre caratteristiche, note come le 3 V: volumi ingenti di dati in vari formati non standard, elaborati ad alta velocità.

Big Data: un tesoro nascosto

Dall'analisi dei Big Data, inclusi i dati meno trasparenti che spesso vengono trascurati, è possibile trarre informazioni preziose per ottimizzare il business. Con queste informazioni le organizzazioni riducono i costi, aumentano l'efficienza operativa e trovano nuovi metodi per incentivare i profitti. Le informazioni desunte dai Big Data possono quindi aumentare i ricavi, poiché contribuiscono a prevenire problemi onerosi, anziché costringere a risolverli, e sono in grado di prevedere le esigenze e i comportamenti dei clienti, anziché limitarsi a formulare ipotesi.

I numeri non mentono

Il percorso per ottimizzare l'uso dei Big Data è irto di ostacoli, ma è bene intraprenderlo il prima possibile con un programma robusto alle spalle, dal momento che in futuro si prevede un aumento esponenziale di questi dati.

Three ways for CIOs to handle big data, Scott Koegler, The Enterpriser's Project Leggi l'articolo

Casi d'uso relativi ai Big Data

Big Data: come vengono utilizzati dalle imprese di successo

I Big Data pongono nuove sfide per l'IT

Il mining dei Big Data è un'attività complessa ma remunerativa. Le origini dati sono affidabili? Disponi di una versione corroborata? La capacità di storage è adeguata? Lo storage basato sull'hardware isola i dati e ne ostacola l'individuazione, l'accesso e la gestione? L'architettura è in grado di adattarsi costantemente all'evoluzione delle tecnologie dei dati? Stai utilizzando al meglio il cloud? I dati sono protetti?

Rethinking data integration [PDF]

Nell'ambito dei Big Data, l'infrastruttura di base è di importanza decisiva

L'obiettivo finale è ottenere informazioni utili dai dati. Per poter sfruttare i Big Data, però, è necessario gettare le basi adeguate per una raccolta di dati comprensibili, affidabili e tempestivi. Una infrastruttura di base, quindi, che consenta di:

  • Integrare facilmente le tecnologie tradizionali per la gestione dei dati (ad esempio, i database e i data warehouse) con le ultime innovazioni (come Hadoop e Spark).
  • Adeguarsi ai cambiamenti di un contesto assai competitivo, alle tecnologie emergenti e alla volatilità in termini di scala delle attività aziendali.
  • Prepararsi al futuro risolvendo oggi le sfide più grandi poste dai Big Data.
  • Evitare di rimanere vincolati a un solo approccio o allo stack di un fornitore, dal momento che le tecnologie per la gestione dei Big Data sono ancora nelle prime fasi di sviluppo.

Per quanto si investa nei software di analisi, non è mai possibile compensare la scelta sbagliata di una infrastruttura di base.

Le cinque caratteristiche fondamentali di un'implementazione efficace dei Big Data

Elementi di base per un'implementazione efficace di Big Data

  • Platform-as-a-Service (PaaS)

    Accelera lo sviluppo delle app, elabora i dati in tempo reale e integra agevolmente sistemi diversi per creare soluzioni modulari che promuovono la crescita della tua azienda.

    Ulteriori informazioni
  • Infrastructure-as-a-Service

    Implementa e gestisci fornitori di servizi, strumenti e componenti dell'architettura IT attraverso piattaforme e stack tecnologici diversi in base a un approccio coerente e unificato.

    Ulteriori informazioni
  • Middleware, integrazione e automazione

    L'esigenza di informazioni e attività di analisi dà luogo non soltanto a nuove origini dati, ma anche a una potenziale proliferazione. Per ovviare al problema è necessario creare un'origine dati singola e virtualizzata e definire una modalità intuitiva per il collegamento delle risorse interne ed esterne. L'elaborazione dei dati e di altri carichi di lavoro impegnativi richiede un livello di interazione e integrazione semplificato.

    Ulteriori informazioni
  • Storage

    Scegli il tipo migliore di storage per ogni carico di lavoro con una piattaforma di storage agile, definita dal software e in grado di integrare storage di file e oggetti, servizi dati Hadoop e analisi in loco.

    Ulteriori informazioni

E tu come puoi partecipare?

Hadoop in OpenStack (progetto Sahara)

Condotto da Red Hat e dai principali partner in materia di Big Data, il progetto Sahara offre un metodo semplice per eseguire il provisioning di un cluster di applicazioni che richiedono un uso intensivo dei dati (Hadoop o Spark) su OpenStack.

Partecipa anche tu

Leggi altre opinioni degli esperti

Blog di Red Hat sui Big Data