Account Accedi
Vai al paragrafo

Cos'è la gestione dei dati?

Copia URL

La gestione dei dati si riferisce al processo di acquisizione, archiviazione e utilizzo dei dati che consente di sapere quali dati sono disponibili, dove si trovano, chi ne è il proprietario, chi può vederli e chi vi può accedere. La gestione dei dati consente alle organizzazioni di eseguire il deployment delle applicazioni e dei sistemi critici in modo sicuro e conveniente e di facilitare le decisioni strategiche.  

La rapida scalabilità e la capacità di adattarsi alle esigenze e ai processi aziendali in continuo cambiamento si basano su una solida strategia di gestione dei dati, che fornisce ai team le informazioni indispensabili per agire in maniera efficiente.

I sistemi di gestione dei dati aiutano le organizzazioni a fornire le informazioni alle persone giuste al momento giusto. Abbinati a implementazioni e controlli adeguati, i flussi di lavoro di gestione dei dati garantiscono le informazioni analitiche necessarie per migliorare il processo decisionale. La gestione dei dati è una misura necessaria per garantire sicurezza, accessibilità e scalabilità delle informazioni critiche per il business. Un valido processo di gestione dei dati deve:

  • Generare e ottimizzare i dati in tutta l'infrastruttura.
  • Prevedere l'archiviazione e la scalabilità dei dati nel cloud e/o on premise.
  • Definire l'alta disponibilità
  • Pianificare il ripristino di emergenza.
  • Proteggere e controllare l'accesso ai dati ovunque e in ogni modo possibile.
  • Verificare e smaltire i dati nel pieno rispetto dei requisiti di conformità
  • Stimolare la creazione di app intelligenti mediante i servizi di dati.

La governance dei dati è un componente critico di ogni soluzione di gestione dei dati. Laddove le procedure di gestione dei dati includono la creazione, la selezione e l'organizzazione in risultati dei dati di un'organizzazione, la governance ne regola l'utilizzo e la sicurezza, in conformità agli standard e alle policy interne dell'organizzazione e a qualsiasi normativa esterna pertinente.

Nella gestione dei dati sono inclusi molti elementi architetturali da prendere in considerazione per definire le esigenze aziendali in termini di dati. Tali elementi trasformano i dati in una risorsa strategica. 

  • Lo storage dei dati è la raccolta e la conservazione di informazioni digitali, ovvero bit e byte che costituiscono applicazioni, protocolli di rete, documenti, supporti, rubriche dei contatti, preferenze degli utenti e molto altro.
  • Nella fase di preparazione, i dati grezzi vengono organizzati per essere poi analizzati, correggendone gli errori e consolidando le diverse sorgenti.
  • I cataloghi dei dati categorizzano i metadati, così da facilitare agli utenti l'individuazione, la comprensione e l'utilizzo dei dati a loro essenziali.
  • I data warehouse forniscono un modello di dati strutturato e progettato per la reportistica. 
  • Gli strumenti di estrazione, trasformazione e caricamento (ETL) estraggono i dati da un database, li convertono in un nuovo formato e li caricano in un data warehouse.
  • Le pipeline di dati trasferiscono ed elaborano in modo automatico e in tempo reale i dati in entrata da un sistema a un altro.
  • I data lake consentono di archiviare set di dati non elaborati di grandi dimensioni e di varia tipologia nel loro formato nativo. Forniscono una visualizzazione non elaborata dei dati. 
  • L'architettura dei dati definisce formalmente il modo in cui i dati verranno raccolti, archiviati, trasportati e utilizzati.
  • La modellazione dei dati delinea le modalità di transito dei dati in un'azienda o in un'applicazione.
  • Una data mesh decentralizza i dati analitici rendendoli più accessibili e disponibili a team e posizioni.
  • Le griglie di dati si avvalgono dell'intera rete di computer di un'organizzazione per eseguire attività complesse. 
  • Una federazione di dati raccoglie i dati da più sorgenti e li organizza affinché possano funzionare insieme.

I sistemi di gestione dei database (DBMS) sono sistemi di conservazione dei dati utilizzati per automatizzare o supervisionare le diverse tipologie di gestione dei dati. Un DBMS relazionale utilizza il linguaggio di programmazione SQL per strutturare e connettere i dati, mentre i database NoSQL risultano più adatti ai dati non strutturati.

Affinché i dati apportino benefici effettivi devono poter essere protetti, elaborati e utilizzati. L'analisi dei dati è un'operazione complessa, ma gratificante. I dati aumentano a un ritmo esponenziale e le aziende devono essere pronte a gestire diverse sfide.  

  • Volume. È facile perdere di vista le informazioni disponibili o la loro posizione, perché i flussi di dati in entrata sono di grandi dimensioni e in formati differenti. 
  • Integrazione dei dati All'aumento della loro complessità corrisponde una maggiore difficoltà nel consolidare in modo efficiente e strategico i dati provenienti da sorgenti diverse.  
  • Silos. Se non sono integrati, i dati non possono operare insieme, il che ne riduce il valore e causa uno spreco di risorse. 
  • Archiviazione ed elaborazione dei dati. Ai team IT spetta il compito di determinare la posizione e le modalità di elaborazione dei dati che consentono di ottenere da questi il massimo valore. 
  • Costi. A prescindere dal fatto che siano gestiti on premise o nel cloud, l'elaborazione e l'archiviazione dei dati implicano dei costi, che vanno attentamente valutati insieme agli obiettivi di business e al valore dei dati. 
  • Conformità. La mancata conformità agli standard di settore e alla normativa sulla privacy dei dati può comportare sanzioni, violazioni della sicurezza, perdita di certificazioni o altri danni aziendali. 
  • Gravità dei dati. I dati hanno la capacità di attirare applicazioni e servizi in funzione della propria massa. Nel tempo, i data set di grandi dimensioni e i componenti che questi attraggono diventano sempre più difficili da spostare. 

I metodi di elaborazione tradizionali sono inadatti a gestire le dimensioni o la complessità dei big data, che devono essere organizzati e amministrati in modo efficiente per sfruttare le informazioni in tempo reale e migliorare i processi aziendali.

Con la classificazione e l'analisi dei big data è possibile individuare in modo rapido le informazioni più importanti, anche se derivano da più sorgenti. Malgrado le difficoltà di integrazione, pulizia e organizzazione dei data set di grandi dimensioni, un'architettura robusta e un'accurata strategia dei dati possono assicurare un'efficiente scalabilità e un'analisi dei dati di qualità, nel pieno rispetto dei requisiti aziendali. I big data richiedono una piattaforma di gestione che supporti l'integrazione e l'automazione.

Le persone, gli strumenti e i processi che controllano e organizzano i dati per tutta la loro durata, dall'origine all'eliminazione, sono gli elementi della gestione del ciclo di vita dei dati (Data Lifecycle Management, DLM) che, tra gli altri, include i processi di acquisizione, memorizzazione, condivisione, archiviazione e distruzione.

Una strategia DLM efficace mantiene le informazioni protette, accurate e accessibili, e permette di rispettare i requisiti normativi come, ad esempio il Regolamento generale sulla protezione dei dati (GDPR). Spesso, le soluzioni DLM automatizzano questi processi separando i dati su più livelli in base alle policy di governance e trasferendo i dati tra i livelli di conseguenza.

Definiamo dati master i dati cruciali per le attività di business di un'azienda, in quanto forniscono la base per le transazioni commerciali e consentono a un'organizzazione di confrontare le informazioni tra i sistemi in modo coerente. Clienti, prodotti e posizioni sono alcuni degli elementi che costituiscono i dati master. 

Il processo di amministrazione di tali dati è definito gestione dei dati master (MDM). Per impedire che i dati critici vengano separati e suddivisi in comparti tra i vari sistemi aziendali, è necessaria una strategia MDM unificata, che contribuisce anche a evitare errori di condivisione poiché costituisce una singola fonte di attendibilità. 

I sistemi MDM devono fornire una panoramica dei diversi flussi dei dati master aziendali, oltre a una visualizzazione dei dati in tempo reale e funzionalità di sicurezza.

Le varie funzioni chiave offerte dalle piattaforme di gestione dei dati includono, tra le altre, l'individuazione e la risoluzione degli errori, la suddivisione delle risorse, l'ottimizzazione dei sistemi per ottenere prestazioni migliori; l'automazione di molte di queste funzioni consente di ridurre i costi e aumentare l'efficienza. Nell'utilizzo di queste piattaforme è importante attuare le procedure consigliate di gestione dei dati. 

  • Valuta i dati disponibili. I team IT, i data scientist e i team esecutivi devono poter comprendere i dati generati e la loro importanza. 
  • Allinea i dati agli obiettivi aziendali. Non conservare i dati che non servono. Riconoscere quali dati incidono effettivamente sulle attività aziendali aiuta a ottimizzare i sistemi, semplificare la manutenzione e individuare i dati più importanti.
  • Ottimizza il database. Occorre verificare che il database sia scalabile e funzionale e in grado di operare con diverse sorgenti di dati. Molti database offrono algoritmi avanzati e adottano tecniche di machine learning e intelligenza artificiale che aiutano a sfruttare meglio i dati e a prendere decisioni più consapevoli. 
  • Mantieni alta la qualità dei dati. I dati devono essere sempre precisi e accurati, con controlli di qualità periodici, dagli aggiornamenti di routine alle correzioni ortografiche e di formattazione. 
  • Applica la governance dei dati e verifica l'accesso degli utenti autorizzati. Fai in modo che team, policy e sistemi siano organizzati in modo da garantire l'integrità dei dati quando vengono utilizzati, archiviati e visualizzati. 
  • Dai priorità a sicurezza e conformità. Per mettere in sicurezza dati e business intelligence è fondamentale offrire formazione ai team e proteggere i sistemi affinché rispettino le normative.  

IDC lo conferma: Red Hat Enterprise Linux è la piattaforma d'elezione per i deployment strategici dei clienti. Caratterizzata da stabilità, sicurezza e alte prestazioni, garantisce coerenza a tutti gli ambienti dell'infrastruttura, che siano on premise, virtualizzati, nel cloud o all'edge. Una posizione centrale per la soluzione di gestione dei dati garantisce l'agilità e la capacità di raggiungere gli obiettivi di trasformazione e innovazione di pari passo alla loro evoluzione.

Red Hat Enterprise Linux è una piattaforma conveniente e basata sulle prestazioni per Microsoft SQL Server che consente di elaborare con rapidità volumi imponenti di dati e di soddisfare le crescenti esigenze operative e di analisi. Costituisce un punto di partenza scalabile e garantisce un'esperienza applicativa coerente in ambienti bare metal, macchine virtuali, container e cloud ibrido. Le capacità di analisi incluse identificano le minacce alla sicurezza, alle prestazioni, alla disponibilità e alla stabilità e forniscono indicazioni per la correzione che consentono di evitare problemi, interruzioni e downtime non programmati. Red Hat Enterprise Linux è la piattaforma di riferimento di Microsoft per SQL Server su Linux; RHEL 8 offre prestazioni superiori per SQL Server. 

Red Hat® OpenShift® Data Science è un servizio cloud gestito per data scientist e sviluppatori di applicazioni intelligenti. Fornisce una sandbox completamente supportata per lo sviluppo, l'addestramento e i test dei modelli di machine learning (ML) in modo rapido nel cloud pubblico prima di distribuirli in produzione. 

Red Hat ha sviluppato Red Hat OpenShift Database Access, un nuovo servizio aggiuntivo che facilita agli amministratori il provisioning e la gestione dell'accesso a diversi servizi di database di terze parti. OpenShift Database Access aiuta gli sviluppatori a connettere le proprie applicazioni ai servizi per database tramite un'esperienza coerente e prevedibile, senza richiedere l'intervento degli amministratori né l'apprendimento dei molteplici requisiti di accesso dei provider di servizio per database.

Keep reading

Articolo

Cos'è la gestione della configurazione?

La gestione della configurazione è il processo utilizzato per mantenere sistemi, server e software in un determinato stato coerente e l'automazione può facilitare questo compito.

Articolo

Cos'è la gestione del ciclo di vita delle applicazioni?

La gestione del ciclo di vita delle applicazioni (ALM) è un approccio che include tutte le persone, gli strumenti e i processi necessari per gestire il ciclo di vita di un'applicazione, dalla sua concezione alla dismissione.

Articolo

Cos'è un SOE?

Un SOE è un ambiente operativo standard o un sistema operativo specifico di un computer e una raccolta di software che i reparti IT definiscono "build standard".

Scopri di più su Red Hat Enterprise Linux

Illustration - mail

Ricevi contenuti simili

Iscriviti a Red Hat Shares, la nostra newsletter gratuita.

Red Hat logo LinkedInYouTubeFacebookTwitter

Prodotti

Strumenti

Provare, acquistare, vendere

Comunica

Informazioni su Red Hat

Red Hat è leader mondiale nella fornitura di soluzioni open source per le aziende, tra cui Linux, Kubernetes, container e soluzioni cloud. Le nostre soluzioni open source, rese sicure per un uso aziendale, consentono di operare su più piattaforme e ambienti, dal datacenter centrale all'edge della rete.

Ricevi la nostra newsletter, Red Hat Shares

Iscriviti subito

Seleziona la tua lingua

© 2022 Red Hat, Inc. Red Hat Summit