Cos'è la sicurezza dell'IA?

Copia URL

La sicurezza dell'IA difende le applicazioni basate sull'intelligenza artificiale dagli attacchi dannosi che mirano a indebolire i carichi di lavoro, manipolare i dati o sottrarre informazioni sensibili. Adatta i principi di riservatezza, integrità e disponibilità al ciclo di vita e agli ecosistemi tecnici dell'IA. 

Scopri le soluzioni per l'IA di Red Hat

I carichi di lavoro dell'IA introducono nuovi ambiti al di fuori della portata della sicurezza IT tradizionale. Questo spiega perché la sicurezza dell'IA è incentrata sulla protezione dei carichi di lavoro dell'IA da abusi e manipolazioni. È un concetto diverso dall'impiego dell'IA come strumento per la sicurezza informatica (protezione dall'uso illegale o non autorizzato dei dati elettronici) e dall'utilizzo sicuro dell'IA (volto a prevenire le conseguenze dannose derivanti dall'utilizzo dell'IA). 

La sicurezza dell'IA ha come scopo l'identificazione delle vulnerabilità e il supporto dell'integrità dei sistemi di IA, che possono così funzionare come previsto e senza interruzioni. Sono inclusi la protezione dei dati di addestramento non manomessi, la provenienza dei modelli e l'isolamento delle unità di elaborazione grafica (GPU) all'interno della piattaforma. È importante ricordare che la maggior parte delle GPU non è progettata pensando alla sicurezza o all'isolamento e può essere un bersaglio facile per gli aggressori.

La maggior parte dei sistemi di sicurezza esistenti deve essere aggiornata per essere in grado di monitorare i carichi di lavoro dell'IA, che rappresentano un nuovo bersaglio. In questo settore in rapida evoluzione, un approccio flessibile consente di proteggere i carichi di lavoro dell'IA e i sistemi su cui vengono eseguiti quando vengono fornite nuove indicazioni.

Per proteggere i sistemi di IA, è importante conoscerli a fondo. Più comprendi la tecnologia di IA che utilizzi, più ti sarà facile proteggerla. 

Come funziona l'IA in contesto aziendale? 


Facciamo un esempio: la tipica configurazione IT è simile a una casa. Presenta alcune vulnerabilità, come porte e finestre, che però possono essere bloccate o chiuse a chiave. Una soluzione di IA è più simile a un condominio su un altro pianeta, con punti di accesso sparsi su decine di piani in decine di galassie. Presenta molti punti di attacco che probabilmente non avevi mai preso in considerazione.

Le soluzioni di IA offrono numerose opportunità sia agli utenti comuni che ai criminali informatici, e fungono sia da utile strumento ma anche da occasione per infrangere la sicurezza. Considerate le sfide legate alla sicurezza dei software tradizionali, la complessità dell'IA richiede strategie di sicurezza specifiche in grado di funzionare con i processi attuali.

Una strategia di sicurezza dell'IA efficace tiene conto di tutte le porte e le finestre, ovvero dei punti di ingresso, colmando le lacune e riducendo i rischi di attacco attraverso la prevenzione attiva. Non solo protegge i dati sensibili dall'esposizione e dall'esfiltrazione, ma protegge dagli attacchi, mantiene la conformità alle policy di sicurezza esplicite e ai framework normativi (come l'Artificial Intelligence Act dell'UE) e offre visibilità e sicurezza sul livello di sicurezza dei sistemi di IA.

Cos'è l'infrastruttura di IA?

4 elementi chiave da considerare per l'implementazione dell'IA

Le competenze degli utenti malintenzionati che attaccano l'IA si fanno ogni giorno più sofisticate. Sebbene questi attacchi siano di diverso tipo, alcuni si verificano più frequentemente di altri. I tipi di attacco più comuni includono:  

  • Attacchi di prompt injection. Gli utenti malintenzionati utilizzano prompt dannosi che manipolano i risultati dell'IA con l'obiettivo di scoprire dati sensibili, avviare azioni indesiderate o aggirare i criteri e i controlli di sicurezza impliciti ed espliciti.
  • Data poisoning. Gli aggressori manipolano i modelli di IA introducendo dati dannosi o malware, che generano output imprecisi, distorti o pericolosi. Queste azioni possono causare interruzioni e produrre risultati non corretti.

I sistemi di IA sono esposti al rischio sia di attacchi dannosi che di guasti operativi. Come qualsiasi sistema distribuito, i modelli possono subire drift e danni se non vengono gestiti in modo adeguato. Quando i modelli vengono addestrati con dati di bassa qualità o non vengono aggiornati con il passare del tempo, i dati possono diventare errati, obsoleti e persino dannosi, con conseguenti imprecisioni e prestazioni scadenti. 

Ascolta l'ultimo podcast Compiler: sicurezza dei dati e IA

Per proteggere il team e le tecnologie che utilizzi, adotta misure di protezione su più livelli: una sola linea di difesa, infatti, probabilmente non sarà sufficiente. Le strategie più comuni includono:

  • Analisi comportamentale. Questo tipo di rilevamento delle minacce è in grado di rilevare anomalie e deviazioni all'interno di una rete. Dopo aver monitorato i set di dati, i modelli e le attività tipiche, riesce a riconoscere il comportamento tipico del sistema di IA. Quando l'analisi rileva un comportamento atipico, come contenuti tendenziosi o, peggio, password pubbliche in formato non crittografato, lancia un avviso.
  • Rilevamento delle minacce. Se un utente malintenzionato sta esaminando un ambiente alla ricerca di punti deboli, le misure di sicurezza del runtime sono in grado di rilevare queste ricerche ripetute e inviare un allarme. Puoi automatizzare e migliorare questa tecnica con l'IA per riconoscere le minacce e attivare prima l'allarme.
  • Intelligence predittiva sulle minacce. Questa tecnologia anticipa gli eventi futuri facendo riferimento ai dati storici per fare previsioni su ciò che accadrà dopo. Ad esempio, se un utente malintenzionato prende di mira i sistemi fintech con un ransomware, l'intelligence predittiva sulle minacce valuta la situazione dell'organizzazione nel caso in cui l'attacco vada a buon fine.
  • Trattamento dei dati ottimizzato. I carichi di lavoro dell'IA contengono miliardi e miliardi di punti dati. La sicurezza dell'IA ha il compito di elaborarli per stabilire se sono a rischio, riservati o disponibili. L'elaborazione avanzata dei dati è in grado di rilevare anomalie e minacce più rapidamente rispetto agli esseri umani o alle tecnologie di elaborazione tradizionali, e ciò consente ai team di agire rapidamente.
  • Analisi del percorso di attacco: questa strategia consente di individuare le potenziali vulnerabilità alle minacce. Ad esempio, capire in che modo una minaccia può penetrare nei sistemi e raggiungere i dati sensibili aiuta a identificare il percorso da cui proviene un attacco e a bloccarlo. 

Garantisci al tuo team un maggiore controllo con l'approccio Model-as-a-Service
 

Ogni fase del ciclo di vita dell'IA presenta vulnerabilità che devono essere protette, come i modelli, i dati e la privacy. Gli elementi di una strategia di sicurezza dell'IA efficace includono:

  • Strumenti di protezione dell'IA: i guardrail permettono ai modelli di IA generativa di filtrare i testi volgari, violenti o che incitano all'odio, i dati personali, le informazioni sulla concorrenza o che violano altri vincoli specifici del dominio.
  • Dati di addestramento protetti: l'affidabilità dei sistemi di IA dipende da quella dei dati su cui sono stati addestrati. Per proteggere l'integrità e gli output del modello, i dati di addestramento originali devono essere protetti da manomissioni o manipolazioni tramite firewall o altre misure di sicurezza.
  • Piattaforma sicura: proteggi la piattaforma su cui vengono eseguiti i carichi di lavoro dell'IA per garantirne l'integrità e l'affidabilità. Se la piattaforma è sicura, gli autori delle minacce avranno più difficoltà a infliggere danni.
  • Sicurezza dei sistemi e della catena di distribuzione: puoi adattare le procedure consigliate per la sicurezza della catena di distribuzione e dei sistemi e utilizzarle per proteggere i carichi di lavoro dell'IA. Come la sicurezza della catena di distribuzione del software tradizionale verifica l'integrità delle librerie open source, la sicurezza della catena di distribuzione dell'IA monitora la provenienza e l'integrità dei dati di addestramento, dei modelli preaddestrati e dei componenti di IA di terze parti.
  • Strategie personalizzate: i carichi di lavoro dell'IA sono unici, quindi spesso richiedono soluzioni di sicurezza specifiche. La strategia di sicurezza deve essere adattata ai carichi di lavoro, ai progetti e ai dati dell'IA. 

Puoi implementare queste procedure consigliate con strumenti e soluzioni comuni che proteggono i tuoi sistemi di IA, tra cui: 

  • Gestione delle identità e degli accessi: questi sistemi controllano chi ha accesso, come e quando ai sistemi e all'infrastruttura dell'IA. Ad esempio, utilizza l'autenticazione a più fattori per proteggere i dati sensibili.
  • Gestione del profilo di sicurezza dell'IA: questi strumenti monitorano i deployment e le operazioni di sicurezza. Forniscono visibilità e informazioni dettagliate su modelli e dati, per consentirti di tenere sotto controllo i sistemi di IA.
  • Processo di convalida dell'output: gli output danneggiati o non convalidati possono creare problemi nei sistemi downstream e persino rivelare dati sensibili. Questo processo ricontrolla gli output del modello prima di inviarli ai passaggi successivi per ulteriori operazioni.

La sicurezza dell'IA può apportare una serie di vantaggi alle strategie aziendali, non ultima la riduzione delle preoccupazioni. La sicurezza dell'IA rafforzerà la tua strategia, dalla semplificazione dell'esecuzione dei carichi di lavoro alla concentrazione del team sulle attività più importanti. I vantaggi includono: 

  • Esposizione e rischi ridotti. La sicurezza dell'IA previene la compromissione dei dati, e può quindi impedire che informazioni sensibili o private finiscano nelle mani sbagliate. Quando gli attacchi vengono fermati prima che causino danni, gli utenti e i sistemi di IA possono continuare a funzionare come previsto.
  • Risparmi in termini di costi. Proteggere meglio i dati sensibili diminuisce le interruzioni e semplifica le operazioni. Neutralizzare o evitare gli attacchi riduce il downtime e consente di dedicare più tempo all'innovazione.
  • Intelligence sulle minacce ottimizzata. Mentre agisce contro le potenziali minacce, la sicurezza dell'IA impara quali sono i rischi più comuni e come funzionano. Con il passare del tempo, acquisisce la capacità di prevenire queste minacce. 

L'IA è una tecnologia relativamente recente, quindi è ancora in fase di perfezionamento. Poiché è in continua evoluzione, la sua protezione richiede un approccio flessibile. Le sfide più comuni che il settore sta affrontando includono: 

  • Evoluzione delle minacce specifiche all'IA. Poiché l'IA è in continua evoluzione, le opportunità di sfruttare le vulnerabilità rendono le applicazioni e i modelli di IA bersagli allettanti per gli utenti malintenzionati. Man mano che l'IA si trasforma e si evolve, cambiano anche i suoi requisiti di sicurezza.
  • Catena di distribuzione del software attendibile. Il ciclo di vita dell'IA è costituito da numerosi elementi, dalle librerie open source alle interfacce di programmazione delle applicazioni (API) di terze parti fino ai modelli preaddestrati. Ognuno di questi elementi è un potenziale punto di accesso per gli aggressori. Le complesse catene di distribuzione dell'IA richiedono un approccio alla sicurezza dell'IA che tenga conto dei vari componenti.
  • Requisiti essenziali di sicurezza dell'IA. La pulizia dei dati per eliminare i bias e il drift dei modelli è fondamentale per garantire che i modelli funzionino come previsto. Per comprendere e ripulire i dati di addestramento dell'IA sono necessarie competenze specifiche che sono nuove nel settore.
  • Integrazione delle misure di sicurezza esistenti. Quando integri nuove tecnologie come l'IA con gli strumenti esistenti, assicurati di utilizzare sistemi che proteggano e rispettino i carichi di lavoro dell'IA e l'infrastruttura di supporto.
  • Lacune in termini di visibilità e governance. Nonostante le iniziative per creare soluzioni di sicurezza e policy per la nuova IA, molti rischi imprevisti non sono stati affrontati in modo proattivo, a volte perché si verificano per la prima volta. Affinché i criteri di sicurezza dell'IA funzionino, è necessario aggiornarli costantemente man mano che emergono nuove best practice.

Acquisisci familiarità con la piattaforma di IA tradizionale

Sebbene i rischi per i dati e la privacy degli utenti siano sempre stati riscontrati, l'IA ne introduce molti altri. Le linee guida principali da seguire quando si utilizza l'IA includono: 

  • Privacy dell'IA. Garantire la privacy dell'IA significa proteggere i dati personali e proprietari dall'uso non autorizzato. Prendi in considerazione misure di sicurezza solide per garantire la sicurezza dei dati privati.
  • Conformità dell'IA. Con l'evoluzione dell'IA, anche la conformità legale e le normative governative cambieranno, creando potenzialmente uno standard di settore in grado di migliorare il modo in cui utilizziamo l'IA. 

Sebbene non rientri nell'ambito della sicurezza dell'IA, l'etica dell'IA può incidere sul rischio complessivo che l'IA rappresenta per un'organizzazione. Gli utenti devono essere a conoscenza degli output dei modelli e di come utilizzarli per incidere sui processi decisionali.

Utilizzare l'IA in modo etico significa rispettare i valori della società, come i diritti umani, l'equità e la trasparenza. Per garantire che i modelli siano in linea con la policy etica dell'IA, verifica le modalità di sviluppo e addestramento dei modelli. Dovrai anche monitorare costantemente gli output in modo che non si discostino dalle policy.

Red Hat® AI è progettato per un'inferenza rapida, flessibile ed efficiente tramite un server basato su vLLM. Collega in modo affidabile i modelli ai dati per unificare la personalizzazione e lo sviluppo di agenti specializzati su un'unica piattaforma. Realizzati su una base open source, i nostri prodotti offrono il pieno controllo dei flussi di lavoro dell'IA, dall'inizio alla fine, su qualsiasi scala. 

Red Hat AI Portfolio include Red Hat AI Enterprise, una piattaforma per il deployment, la gestione e la scalabilità dell'inferenza IA, i flussi di lavoro Agentic AI e le applicazioni basate sull'IA su qualsiasi infrastruttura.

Scopri Red Hat AI

Blog

Artificial Intelligence (AI)

See how our platforms free customers to run AI workloads and models anywhere

Adotta l'IA con Red Hat: Consulenza, formazione e supporto per ogni fase del percorso

Scopri l'offerta unica di soluzioni di IA di Red Hat La gamma completa di soluzioni di IA proposta da Red Hat aiuta le aziende a distribuire l'IA in maniera efficace per raggiungere gli obiettivi aziendali e IT prefissati.

Continua a leggere

What is sovereign AI?

Per "IA sovrana" si intende il possesso della tecnologia di IA, il mantenimento dei dati all’interno della giurisdizione nazionale e la garanzia che i sistemi riflettano valori specifici e requisiti legali.

What is llm-d?

llm-d è un framework open source nativo di Kubernetes che accelera l'inferenza LLM distribuita in modo scalabile.

SLMs vs LLMs: What are small language models?

Un modello linguistico di piccole dimensioni (SLM) è una versione ridotta di un modello linguistico di grandi dimensioni (LLM) che dispone di conoscenze più specializzate, è più veloce da personalizzare e più efficiente da eseguire.

AI/ML: risorse consigliate

Prodotto in evidenza

  • Red Hat AI

    Soluzioni flessibili che accelerano lo sviluppo e il deployment delle soluzioni di IA negli ambienti hybrid cloud.

Articoli correlati