Iscriviti al feed

Un modello di IA generativa (gen AI) come ChatGPT viene addestrato utilizzando una varietà di testi da Internet. Tuttavia, l'intelligenza artificiale (IA) non dispone di informazioni specifiche su determinati documenti o sulle fonti utilizzate durante l'addestramento. Invece di concentrarsi sulle specifiche, il modello viene addestrato ad un approccio generico, per consentirgli di fornire risposte creative, impegnarsi in conversazioni complesse e persino mostrare senso dell'umorismo. Tuttavia, l'IA non è in grado di intendere e comprendere e non ha opinioni. Le risposte vengono generate in base a modelli appresi dai dati durante l'addestramento.

I sistemi di intelligenza artificiale come ChatGPT o qualsiasi modello di linguaggio di grandi dimensioni (LLM) riflettono le conoscenze collettive dell'umanità in un'unica interfaccia. Riorganizzano i contenuti esistenti su Internet, ma non "pensano", non sono "intelligenti" in senso umano, non hanno una "intelligenza generale" poiché non sanno risolvere problemi generici e non sono "coscienti" di ciò che trovano.

Come funziona l'IA generativa: cosa sono i token?

Il funzionamento di questi modelli si basa sul concetto di token, ovvero unità linguistiche distinte che vanno dai singoli caratteri alle intere parole. Questi modelli elaborano un numero specifico di token alla volta utilizzando calcoli matematici complessi per prevedere il token successivo più probabile in una sequenza.

Modelli come i trasformatori generativi pre-addestrati (GPT) generano il testo un token alla volta. Dopo aver prodotto ciascun token, il modello esamina l'intera sequenza generata fino a quel momento e la elabora nuovamente per generare il token successivo. Questo processo ricorsivo continua finché il token finale non completa il testo generato.

Ciò significa che la qualità della risposta dell'IA dipende dalla richiesta o dalle istruzioni fornite dall'utente. In altre parole, il modo in cui interagiamo e istruiamo l'IA influisce in modo significativo sulla qualità delle risposte che produce.

Cos'è il prompt engineering?

Il prompt engineering si riferisce alla progettazione e alla creazione di prompt o istruzioni efficaci per i modelli di IA, al fine di ottenere gli output desiderati. Nel contesto dei modelli linguistici come GPT-3, il prompt engineering prevede la formulazione di un testo che consenta al modello di generare risposte accurate, pertinenti e contestualmente appropriate.

Il prompt engineering deve essere efficace perché i modelli linguistici come GPT-3 non sono realmente dotati della capacità di comprendere o fare ragionamenti basati sul buonsenso. Generano risposte basate su modelli appresi dai dati utilizzati nell'addestramento. L'elaborazione di prompt ben progettati può aiutare a guidare il modello a produrre output più accurati e significativi, mentre i prompt formulati in modo errato possono portare a risultati errati o privi di senso.

Cos'è il prompt engineering?

Il prompt design è la creazione sistematica di istruzioni adeguate per un LLM, come ChatGPT, al fine di raggiungere un obiettivo specifico e ben definito. Questa pratica unisce elementi artistici e scientifici e include:

  • Comprensione dell'LLM: diversi LLM rispondono in modo diverso alla stessa richiesta. Inoltre, diversi modelli linguistici possono rispondere in modo diverso, interpretando determinate parole chiave o indizi distinti.
  • Competenze settoriali: la competenza nel settore in questione è fondamentale durante la formulazione dei prompt. Ad esempio, la creazione di un prompt per dedurre una diagnosi medica richiede conoscenze mediche
  • Processo iterativo e valutazione della qualità: l'elaborazione del prompt perfetto spesso richiede ripetuti tentativi e perfezionamenti. È essenziale disporre di un metodo per valutare la qualità dell'output generato che vada oltre il giudizio soggettivo

Limiti delle dimensioni dei prompt

Riconoscere l'importanza del vincolo dimensionale di un LLM è fondamentale, perché influenza direttamente la quantità e la natura delle informazioni che possiamo fornire. I modelli linguistici non sono progettati per gestire una quantità infinita di dati contemporaneamente. Esiste invece una limitazione intrinseca alla dimensione del prompt che è possibile creare e immettere. Questa limitazione ha profonde implicazioni sul modo in cui formulare e utilizzare i prompt in modo efficace.

Un LLM ha una capacità massima di token che comprende sia la richiesta che la risposta che ne deriva. Di conseguenza, richieste più lunghe potrebbero ridurre la lunghezza della risposta generata. È importante creare prompt concisi, ma che trasmettano le informazioni necessarie.

Negli scenari pratici, è necessario assumere il ruolo di editor, selezionando attentamente i dettagli pertinenti per un'attività. È come scrivere documento o un articolo senza superare un dato limite di parole o pagine. In questi casi, non è opportuno inserire informazioni casuali. Al contrario, è necessario scegliere e organizzare con attenzione le informazioni che sono direttamente pertinenti all'argomento.

Il prompt design è un'abilità umana che aiuta a garantire contenuti accurati e ben strutturati. Gli strumenti possono aiutare coloro che creano contenuti ad essere più produttivi, ma non possono sostituirli. L'IA generativa richiede l'assistenza di un umano esperto e competente, in grado di scrivere, fare ricerche e curare testi. Per essere un buon prompt designer, è necessario avere le stesse competenze che servono a un buon autore di contenuti.

Tecniche per il prompt design e per il prompt engineering

Sei tu a decidere quale prompt utilizzare a seconda della situazione. Ad esempio, se stai scrivendo un articolo lungo, il chain-of-thought prompting è utile per generare informazioni una sezione alla volta. Quello che segue non è un elenco esaustivo di tutte le strategie di prompt design, ma un elenco dei principali modelli in uso oggi.

Persona Pattern

Il Persona Pattern è una tecnica che consente all'IA di operare da un punto di vista specifico, come l'adozione di un ruolo professionale o l'incarnazione di un personaggio immaginario. Questo approccio consente al modello di generare output in linea con le responsabilità associate a quella specifica persona. Ad esempio, potresti chiedere all'IA di assumere il ruolo di esperto di sicurezza informatica durante la valutazione del codice. Questa strategia è particolarmente utile quando si cercano indicazioni, ma mancano specifiche precise per l'output desiderato. Ad esempio:

Utente: Immagina di essere uno storico esperto, specializzato nella guerra del Peloponneso. Usando questa prospettiva, è possibile spiegare gli eventi e i fattori cruciali che hanno portato allo scoppio della guerra.

In questo scenario, si prevede che l'IA fornirà un'analisi completa della guerra del Peloponneso concentrandosi sulle cause, come farebbe uno storico. Se il prompt utilizza uno stile di scrittura e un vocabolario elevati e accademici, la risposta corrisponderà a quello stile. In altre parole, lo stile di scrittura del prompt determina lo stile del contenuto generato. Questo vale per tutti gli approcci alla creazione di prompt, quindi personalizza la scrittura dei prompt in base al contesto in cui stai pubblicando.

Gli esperti di marketing possono utilizzare il Persona Pattern per entrare nella mente dei clienti. Senza rivelare informazioni riservate, puoi chiedere all'IA di assumere il ruolo del tuo pubblico di destinazione, quindi porre domande. L'IA risponderà dal punto di vista del cliente che hai immaginato. Naturalmente, questo metodo non è infallibile e non sostituisce in alcun modo i dati di qualità ottenuti da analisi di marketing e da ricerche sulle preferenze degli utenti. Tuttavia, può aiutarti a scrivere diverse forme di testo e darti delle idee.

Nuovo modello informativo

L'IA presenta dei limiti, tra cui il fatto di non essere a conoscenza delle informazioni oltre il punto in cui terminano i dati di addestramento. L'IA non può includere eventi recenti o considerare gli aggiornamenti avvenuti dopo l'addestramento. Tuttavia, è possibile incorporare nuove informazioni nella conoscenza del modello strutturando i prompt in modo efficace. Ad esempio, considera la seguente interazione:

Utente: Può spiegare cos'è la coscienza fenomenica?

IA: la coscienza fenomenica si riferisce all'esperienza soggettiva, e in prima persona, di cosa significa essere consapevoli di qualcosa. In altre parole, è una "idea grezza" delle esperienze e delle sensazioni che proviamo, ad esempio quando assaporiamo il cioccolato, vediamo il colore rosso, quando ci sentiamo felici o proviamo dolore.

Fornendo un po' più di contesto nel prompt, puoi creare una spiegazione più facilmente riconoscibile:

Utente: Descrivi il concetto di coscienza fenomenica in relazione al dibattito sul fatto che i computer possano essere coscienti.

IA: la coscienza fenomenica gioca un ruolo fondamentale nel ricorrente dibattito sul fatto che i computer possano arrivare ad avere una vera e propria coscienza. Questo dibattito ruota attorno all'idea che, sebbene i computer possano simulare alcuni aspetti dell'intelligenza, potrebbero non riuscire a sperimentare la coscienza allo stesso modo degli esseri umani.

I computer possono simulare varie funzioni cognitive e persino eseguire attività che sembrano intelligenti. Tuttavia, la domanda è se questa simulazione equivale a un'esperienza cosciente autentica. Gli scettici sostengono che anche se un computer si comporta in modi che sembrano consapevoli, potrebbe non avere le esperienze interne e qualitative che gli esseri umani hanno.

Perfezionamento del modello per le domande

L'IA è in grado di aiutare a migliorare la qualità delle richieste. Ad esempio, se poni una domanda, l'IA può proporre una domanda formulata con precisione che probabilmente produrrebbe risultati più accurati.

Questa capacità è racchiusa nel modello detto Refining Questions Pattern. Si rivela particolarmente utile quando non hai esperienza in un determinato campo o non sei sicuro del modo migliore per formulare la tua domanda. Considera questo prompt di esempio:

Utente: ogni volta che chiedo informazioni sulla scienza dei dati, suggerisci una domanda più incentrata sulle specifiche dell'analisi statistica. Inoltre, chiedi se desidero procedere con la domanda perfezionata.

In questo scenario, ci si aspetta che l'IA migliori le query generali sulla scienza dei dati limitandole alle domande che prendono in considerazione in modo specifico gli aspetti dell'analisi statistica. L'IA chiederà quindi se l'utente desidera procedere con la domanda perfezionata.

Modello di verifica cognitiva

Il Cognitive Verifier Pattern prevede un metodo per scomporre le domande complesse in sotto-domande più brevi e più gestibili. Le risposte a questi componenti più piccoli vengono successivamente integrate per generare una risposta completa alla domanda principale. Questo approccio diventa particolarmente utile quando le domande iniziali sono eccessivamente generiche o quando è necessaria maggiore chiarezza per fornire una risposta esauriente. Considera questo esempio:

Utente: nei casi in cui pongo una domanda correlata al framework di inferenza della ricerca per la risoluzione dei problemi, suddividila in tre domande più piccole per migliorare la precisione della risposta. Una volta ottenute le risposte a queste sotto-domande, combinale per presentare la risposta finale.

In questo scenario, l'IA suddivide la complessa domanda relativa al framework di inferenza della ricerca in tre sottodomande. Dopo aver raccolto le risposte per ogni sottodomanda, le unisce per ottenere una risposta completa e accurata.

Questo modello comporta la generazione di più richieste, che portano a una risposta finale più precisa. Il processo prevede sia la verifica delle informazioni sia il loro consolidamento, per garantire un output affidabile e completo. È simile al metodo di apprendimento e istruzione nella strategia educativa dell'intera parte-tutto.

Chain of thought prompting

In un recente documento di ricerca intitolato Chain-of-Thought Prompting Elicits Reasoning in Large Language Models, Jason Wei e il suo team hanno cercato di imitare le capacità di ragionamento all'interno di un LLM. Partendo dalla pratica convenzionale di utilizzare i prompt diretti, il team utilizza una serie di prompt interconnessi che formano quella che chiamano una pensiero a catena.

Ad esempio, si consideri un utente che desidera esplorare il potenziale impatto dell'intelligenza artificiale sui mercati del lavoro:

Utente: Puoi fornire una breve spiegazione dell'intelligenza artificiale?

IA: l'intelligenza artificiale, comunemente nota come IA, coinvolge macchine che imitano i comportamenti umani intelligenti. È la progettazione di macchine per pensare e apprendere in modo simile agli esseri umani, e consente di svolgere attività come tradurre in lingue diverse, prendere decisioni e risolvere problemi.

Utente: In che modo l'IA ha influenzato l'attuale mercato del lavoro?

IA: l'IA crea nuovi processi e modifica la natura di quelli esistenti. Automatizza le attività di routine, portando alla modifica di determinati ruoli lavorativi in determinati settori. Tuttavia, genera anche una domanda per ruoli prima inesistenti, come responsabili dell'etica dell'IA, analisti dei dati e ingegneri del machine learning. Inoltre, l'IA può migliorare il lavoro svolto dagli umani, consentendo alle persone di completare le attività con maggiore efficienza e precisione.

L'approccio del pensiero a catena prevede una sequenza di prompt collegati che stabiliscono una "conversazione" con il modello linguistico. Questo approccio guida il modello verso risposte più precise e contestualizzate, favorendo una progressione di idee e ragionamenti. Può anche addestrare l'IA a imitare il tuo stile di scrittura specifico, a condizione che i suggerimenti siano scritti con lo stesso tono, stile, atteggiamento e struttura della risposta ideale.

Il pensiero a catena è particolarmente efficace per la stesura di articoli. Se hai già delineato un articolo, un saggio o un argomento, puoi strutturare la catena di prompt attivando un flusso. Poiché un'IA ha un limite al numero di caratteri che può fornire, la catena di pensiero può aiutarti a richiedere informazioni per una sezione alla volta, piuttosto che cercare di ottenere l'IA per generare un intero articolo in una volta sola . Ciò consente di avere un maggiore controllo sulle informazioni e di ottenere risposte più accurate e dettagliate. Sei tu a controllare la struttura, mentre l'IA genera parti dell'intero pezzo, un prompt alla volta, sotto la tua guida.

Modello assistente per attività di ricerca

In questo messaggio si richiede assistenza per trovare le fonti per un progetto di ricerca. L'IA risponde proponendo tre articoli di ricerca pertinenti. Fornisce i titoli, gli autori e i dettagli di pubblicazione degli articoli, insieme a brevi descrizioni del loro contenuto. L'IA sottolinea anche l'importanza di incrociare e valutare la credibilità delle fonti. Il design tempestivo sfrutta efficacemente le capacità dell'IA per aiutare nella ricerca suggerendo fonti attendibili per ulteriori approfondimenti. Ad esempio:

Utente: Sto lavorando a un progetto di ricerca sugli effetti dei cambiamenti climatici sugli ecosistemi costieri. Puoi aiutarmi a trovare fonti pertinenti per il mio studio?

IA: Certo! Per supportare la tua ricerca sugli effetti dei cambiamenti climatici sugli ecosistemi costieri, ti consiglio di iniziare con le seguenti fonti:

**Smith, JR, et al. (2020). "Impatti dell'aumento del livello del mare e dei cambiamenti climatici sugli ecosistemi costieri: una rassegna". Journal of Coastal Research.'

**Garcia, S., et al. (2019). "Cambiamenti indotti dai cambiamenti climatici negli ecosistemi costieri: una valutazione globale". Scienze e politiche ambientali.'

**Johnson, L., et al. (2018). "Vulnerability of Coastal Ecosystems to Climate Change: Implications for Adaptation Planning." Ecologia e società.'

Questi articoli forniscono preziose informazioni sull'impatto dei cambiamenti climatici sugli ecosistemi costieri. Ricorda di confrontare e valutare la credibilità di queste fonti per il tuo studio. Se hai bisogno di altre fonti o di informazioni specifiche, non esitare a chiedere!

Questo messaggio aiuta a evitare uno dei principali punti deboli dell'IA e degli LLM: la disinformazione. Richiedendo le fonti anziché i contenuti, l'IA può ridurre drasticamente il tempo necessario per la ricerca per il tuo progetto, ma puoi comunque valutare le fonti e ricavare le informazioni di cui hai bisogno.

Miglioramento del prompt del generatore di citazioni

Allo stesso modo, quando si chiede all'IA di scrivere contenuti, è possibile richiedere di citare le fonti e fornire una sezione dei riferimenti. Dichiara lo stile di citazione preferito e l'interfaccia restituisce quel formato. Si consideri ad esempio questo esempio abbreviato:

Utente: Spiega il concetto di entanglement quantistico. Nella risposta, includi le citazioni APA tra parentesi nel testo e una sezione dei riferimenti APA.

IA: L'entanglement quantistico è un fenomeno fondamentale nella meccanica quantistica in cui due o più particelle vengono interconnesse in modo tale che le loro proprietà, come lo spin o la polarizzazione, siano correlate indipendentemente dalla distanza tra loro (Griffiths, 2018). Questa connessione persiste anche quando le particelle sono separate da grandi distanze, suggerendo un'influenza istantanea tra di loro, che sfida la nostra comprensione classica della causalità (Einstein, Podolsky e Rosen, 1935).

[...]

References:

Einstein, A., Podolsky, B., & Rosen, N. (1935). Can Quantum‐Mechanical Description of Physical Reality Be Considered Complete? Physical Review, 47(10), 777-780.

Griffiths, DJ (2018). Introduction to Quantum Mechanics (terza ed.). Cambridge University Press.

Come sempre, dovrai agire in qualità di editor e verificare l'accuratezza delle informazioni. Esamina ciascuna delle fonti fornite dall'IA e assicurati che le affermazioni dell'IA sulle argomentazioni di una fonte siano vere. Inoltre, verifica che la stessa sezione dei riferimenti abbia la formattazione APA corretta.

A seconda del settore che stai cercando, probabilmente sarai in grado di riconoscere rapidamente alcuni dei grandi nomi nella sezione dei riferimenti, che è un modo abbreviato per verificarne l'accuratezza. Ad esempio, Alain Aspect è stato insignito del Premio Nobel per la fisica nel 2022 per il suo lavoro decennale sull'entanglement quantistico, quindi quando il suo nome è in cima alla lista delle referenze da un prompt sull'entanglement quantistico è un segnale promettente che la fonte utilizzata dall'IA è affidabile .

Questo tipo di prompt è un altro esempio del motivo per cui scrittori, editori e ricercatori con esperienza in un determinato argomento sono fondamentali per il processo di scrittura dei contenuti. L'intelligenza artificiale può accelerare il processo, ma non sostituisce lo scrittore umano.

Chiedere all'IA di citare le sue fonti è particolarmente efficace se associato a una catena di pensieri. Per combinare i due, segui la strategia dei prompt per il pensiero a catena, come spiegato sopra. Prima di inviare ogni singolo prompt della catena, chiedi all'IA di citare le fonti nel formato richiesto. Invia quindi la richiesta.

Few-shot pattern

Il few-shot pattern è un metodo efficace utilizzato per addestrare i modelli di IA a rispettare schemi specifici o a eseguire attività. L'idea di base consiste nel fornire al modello alcuni esempi prima di porre la domanda vera e propria. Questa pratica aiuta a definire il comportamento desiderato e a guidare le risposte successive del modello.

Immagina una situazione in cui desideri creare un messaggio di marketing conciso e accattivante per un nuovo gadget tecnologico:

Utente: Ecco alcuni esempi di messaggi di marketing tecnologico: "Vivi la musica come mai prima d'ora con le nostre cuffie wireless all'avanguardia". "Cattura il tuo mondo in 4K con la nostra action cam incredibilmente elegante." Usando questi esempi, crea un messaggio di marketing per il nostro innovativo smartwatch basato sull'intelligenza artificiale.

IA: migliora il tuo stile di vita con il nostro smartwatch basato sull'intelligenza artificiale, che puoi assisterti a migliorare il benessere, la connettività e l'efficienza.

L'aspetto più importante del few-shot pattern è il fatto che si affida a dimostrazioni piuttosto che a istruzioni procedurali dettagliate. Questa caratteristica lo rende adattabile a diverse applicazioni. Questa tecnica va oltre la semplice corrispondenza tra input e output. Consente al modello di apprendere come gestire i passaggi intermedi per raggiungere un determinato obiettivo. Questo metodo è ideale per aiutare gli autori di contenuti per il marketing a sviluppare iterazioni di titoli, brevi testi, oggetti per email, annunci sui social media, Call-to-Action (CTA) e così via.

Ora che conosci questi modelli di prompt particolarmente utili, provali con l'LLM che preferisci. Nei miei esempi ho usato ChatGPT.

L'intelligenza artificiale (IA) è alla base di nuove scoperte ed esperienze in molti campi e settori. Se vuoi saperne di più, scopri come utilizzare le piattaforme Red Hat per creare, distribuire, monitorare e utilizzare modelli e applicazioni per l'IA, accelerati dalla velocità, dall'affidabilità e dalla trasparenza della community open source.

Scopri di più sull'IA di Red Hat


Sull'autore

Michael Santos has been with Red Hat since 2022. He works on learning paths, product trials and other technical learning content.

Read full bio
UI_Icon-Red_Hat-Close-A-Black-RGB

Ricerca per canale

automation icon

Automazione

Novità sull'automazione IT di tecnologie, team e ambienti

AI icon

Intelligenza artificiale

Aggiornamenti sulle piattaforme che consentono alle aziende di eseguire carichi di lavoro IA ovunque

open hybrid cloud icon

Hybrid cloud open source

Scopri come affrontare il futuro in modo più agile grazie al cloud ibrido

security icon

Sicurezza

Le ultime novità sulle nostre soluzioni per ridurre i rischi nelle tecnologie e negli ambienti

edge icon

Edge computing

Aggiornamenti sulle piattaforme che semplificano l'operatività edge

Infrastructure icon

Infrastruttura

Le ultime novità sulla piattaforma Linux aziendale leader a livello mondiale

application development icon

Applicazioni

Approfondimenti sulle nostre soluzioni alle sfide applicative più difficili

Original series icon

Serie originali

Raccontiamo le interessanti storie di leader e creatori di tecnologie pensate per le aziende