SlideShare une entreprise Scribd logo
1  sur  39
Télécharger pour lire hors ligne
Human Singularity
Human First. AI Next!
humansingularity.it
Come ragionare con le AI
Una differenza chiave per avvicinarci all’AI generativa
AI Deterministica
● Definizione: L'AI deterministica segue regole fisse
e algoritmi precisi per arrivare a una conclusione.
Se dati gli stessi input, fornirà sempre lo stesso
output.
● Esempi:
● Calcolatrici: Seguono regole matematiche
precise.
● Sistemi Esperti: Basati su un set definito di
regole per prendere decisioni in campi
come la medicina o il diritto.
● Caratteristiche: Prevedibilità, stabilità e coerenza.
Limitata nella gestione di situazioni nuove o dati
non strutturati.
AI Probabilistica
● Definizione: L'AI probabilistica usa algoritmi che
considerano la probabilità e la statistica. Può
produrre risultati diversi anche con gli stessi
input, basandosi su probabilità e apprendimento
da dati precedenti.
● Esempi:
● Motori di Ricerca: Forniscono risultati
basati su algoritmi che valutano la
probabilità che una pagina sia rilevante.
● Sistemi di Raccomandazione:
Suggeriscono prodotti o contenuti basati
su probabilità calcolate dalle preferenze
passate degli utenti.
● Caratteristiche: Flessibilità, adattabilità e
capacità di gestire l'incertezza. Eccelle nel trovare
pattern in grandi set di dati.
Ultimo sforzo (giuro)
Cosa sono gli LLM (Large Language Models)
3
● Definizione: Gli LLM sono modelli di linguaggio di grandi dimensioni basati
sull'architettura transformer. Sono addestrati su vasti corpora di testo per
apprendere a comprendere e generare linguaggio umano.
● Esempi: GPT (Generative Pretrained Transformer) di OpenAI e BART di
Google sono esempi di LLM.
● Capacità: Gli LLM possono generare testo coerente, rispondere a domande,
sintetizzare informazioni, e persino creare contenuto creativo come poesie
o testi per canzoni.
Perché Sono Importanti per la Generative AI
● Innovazione nel Generare Contenuti: Gli LLM hanno radicalmente
migliorato la capacità delle macchine di generare testo creativo e coerente,
aprendo nuove possibilità in campi come la scrittura, la pubblicità e i
media.
● Interazione Avanzata: Consentono un'interazione più naturale e fluida tra
utenti e sistemi basati sull'AI, rendendo queste tecnologie più accessibili e
utili in una varietà di applicazioni creative.
Perché Gli LLM Sono Auto-Regressivi
4
● Generazione di Testo Sequenziale: Gli LLM auto-regressivi generano testo un
pezzo alla volta (ad esempio, una parola per volta). Ogni nuova parola
generata si basa su tutte le parole precedenti nella sequenza. In sostanza, il
modello "ricorda" ciò che ha già generato e utilizza queste informazioni per
decidere cosa produrre dopo.
● Utilizzo del Contesto: Questa capacità di considerare il contesto passato
rende gli LLM particolarmente efficaci nel produrre testi che sono coerenti e
fluiscono logicamente da ciò che è stato detto prima.
Auto-regressione in LLM
● Sequenzialità: In un modello auto-regressivo, ogni nuova parola (o token)
generata in una sequenza dipende da tutte le parole (o token) generate prima
di essa.
● Dipendenza dai Precedenti: Il modello "guarda indietro" alle parole
precedentemente prodotte per prevedere la prossima parola nella sequenza.
In altre parole, la generazione di ciascuna nuova parola è una "regressione"
basata sul contesto fornito dalle parole precedenti.
Come Funziona
Inizio della Sequenza: Il modello inizia con un input iniziale, che può essere
una parola, una frase o anche solo un prompt vuoto.
Predizione della Parola Successiva: Basandosi su questo input, il modello
usa ciò che ha appreso durante l'addestramento per prevedere quale
dovrebbe essere la parola successiva nella sequenza.
Iterazione: Questo processo viene ripetuto per ogni nuova parola aggiunta,
con il modello che considera l'intera sequenza fino a quel punto per fare la
sua prossima previsione.
Memento boomer: la risposta è
dentro di te … e però è sbagliata
5
Punti di Forza degli LLM
● Coerenza e Fluenza nel Testo: Grazie alla loro
natura auto-regressiva, gli LLM sono bravi a
mantenere coerenza e fluenza nel testo. Possono
continuare una storia o un argomento in modo
logico e coerente.
● Creatività e Versatilità: Possono generare una
vasta gamma di contenuti, da articoli informativi a
poesie, dimostrando una notevole flessibilità.
● Capacità di Apprendimento: Sono capaci di
imparare e adattarsi a vari stili di scrittura e
argomenti grazie all'ampia gamma di testi su cui
vengono addestrati.
Limiti degli LLM
● Mancanza di Comprensione Profonda: Nonostante la loro
efficienza nel generare testo, gli LLM non "comprendono" il
testo nel modo in cui lo farebbe un essere umano. La loro
generazione si basa su pattern e statistiche piuttosto che su
una vera comprensione.
● Bias nei Dati: Gli LLM possono replicare o amplificare i bias
presenti nei dati su cui vengono addestrati. Questo può
portare a problemi di equità o accuratezza.
● Difficoltà con Fatti e Dettagli Specifici: Possono lottare nel
gestire informazioni specifiche o attuali, soprattutto se tali
informazioni non erano presenti o erano rare nel set di dati
di addestramento.
● Generazione di Contenuti Non Affidabili: In alcuni casi,
possono generare informazioni convincenti ma inesatte o
fuorvianti.
LI POSSIAMO USARE PER:
Sostegno nella scrittura,
produzione di bozze,
raffinamento stilistico.
Guida nella scrittura del codice.
Siamo facilmente sedotti dalla
loro chiarezza.
Tuttavia, non comprendono la
realtà del mondo.
I Large Language Models di tipo Auto-Regressivo mostrano una
doppia natura.
NON SONO INDICATI PER:
Dare risposte precise e omogenee
(allucinazioni!)
Tenere conto delle novità (anteriori
all'ultima formazione)
Agire correttamente (riproducono
comportamenti dell'insieme formativo)
Pensare, progettare, fare aritmetica
Impiegare "tools", come motori di ricerc
calcolatrici, interrogazioni su database..
Come funziona la scatola nera?
Un’immensa quantità di dati
(testo). 70 Tb nel caso di llama2,
1.000 Tb nel caso di OpenAI
Che producono un file di
“parametri” di 140 GB. 70
Miliardi di parametri.
Riduzione di 1 a 100
Vengono processati da enormi
rack di GPU, nel caso di llama2
sono 6000 GPU per una
settimana.
Nel caso di Open AI sappiamo che
il costo è di
700 Milioni di dollari al giorno
Un super distillato di dati ed un codice semplice
Vengono interpretate da un
ridotto codice di 500 linee di C.
(un’email è tra 500 e 1000 linee)
Che producono un file di
“parametri” di 140 GB. 70
Miliardi di parametri.
Riduzione di 1 a 100
Come è fatto il distillato
Sono semplici indicazioni
divise in Layer, Neuron,
che a loro volta hanno un
peso (weight) ed un Bias.
Come rappresentano il
mondo le AI?
Supersemplificando
Rete Neurale: Immagina una rete neurale come un ufficio molto complesso in cui entra dell'informazione (in
questo caso, dati) che deve essere elaborata per prendere una decisione o raggiungere una conclusione.
Layer (Strati): Questi sono come diversi reparti all'interno dell'ufficio. Ogni reparto (o strato) ha una parte
specifica del lavoro da elaborare riguardo le informazioni in arrivo. In una rete neurale, hai più strati attraverso i
quali passano i dati, e ogni strato successivo impara a riconoscere schemi sempre più complessi basandosi
sull'output del precedente.
Neurons (Neuroni): All'interno di ogni reparto, hai dei lavoratori (neuroni). Proprio come i lavoratori in un ufficio,
ognuno è responsabile di gestire una piccola parte del compito. In una rete neurale, i neuroni sono le unità di
elaborazione di base che lavorano insieme per processare i dati in ingresso e produrre un risultato.
Weight (Pesi): Pensa ai pesi come alla quantità di attenzione o importanza che un lavoratore (neurone) dà alle
informazioni che riceve. Se il peso è alto, significa che il lavoratore considera quella informazione molto
importante per prendere una decisione. Se è basso, l'informazione non è così influente.
Bias: Questo può essere visto come lo stile di lavoro personale o l'inclinazione di ogni lavoratore (neurone). È
una sorta di regolazione o filtro che applicano alla loro parte di lavoro in base alla propria prospettiva. In una
rete neurale, il bias consente ai neuroni di considerare l'input sufficientemente significativo da passarlo al
reparto successivo.
Quando l'ufficio (rete neurale) riceve un nuovo compito (dati in ingresso), ogni reparto (strato) elabora le
informazioni, con i lavoratori (neuroni) che si concentrano su aspetti diversi secondo il loro ruolo (pesi e bias). Il
reparto finale produce il risultato (dati in uscita), che è il frutto del lavoro dell'intero ufficio sul compito.
Nel contesto di un modello di linguaggio, tutto questo processo viene utilizzato per comprendere e generare
testo: l'"ufficio" elabora le parole in ingresso e decide quale dovrebbe essere la prossima in una frase.
Che informazioni vengono mantenute nel passaggio?
Schemi e Strutture: Il modello mantiene schemi statistici, strutture e relazioni trovate nei dati. Ciò
include la grammatica, frasi comuni, associazioni di parole e regole sintattiche.
Conoscenza Generale: Fatti, conoscenze comuni e informazioni che si verificano frequentemente
nel dataset sono codificate nei parametri.
Modelli Linguistici: Le regole semantiche e sintattiche della lingua, che consentono al modello di
costruire risposte coerenti e contestualmente appropriate.
Concetti e Idee: Concetti astratti, idee e le relazioni tra di loro che sono necessari per
comprendere e generare testo relativamente a vari argomenti.
Capacità di Inferenza: La capacità del modello di fare inferenze o previsioni su informazioni
mancanti in un prompt, basate sugli schemi che ha appreso.
Variazioni Stilistiche: Sebbene non ogni sfumatura stilistica sia mantenuta, il modello cattura una
gamma di stili di scrittura sufficienti a generare testi diversi e plausibili.
Cosa viene perso nel passaggio?
Istanze di Dati Specifici: I dettagli esatti e le specificità dei dati di addestramento non vengono mantenuti. Esempi
individuali, come frasi specifiche, paragrafi o documenti, non sono conservati nei parametri.
Ridondanze: Qualsiasi informazione ridondante nel dataset, che potrebbe includere frasi ripetute o conoscenze
comuni, non è replicata nei parametri del modello.
Dati Rumorosi: Anomalie o errori nei dati che non contribuiscono agli schemi generali che il modello dovrebbe
imparare vengono idealmente filtrati durante l'addestramento.
Caratteristiche di Basso Livello: Caratteristiche stilistiche dettagliate o idiosincrasie di autori o fonti particolari
potrebbero non essere conservate a meno che non contribuiscano alla comprensione della lingua da parte del
modello.
Tutto quello che riguarda la marca, i valori, l’etica e la cultura di un’azienda o
di una marca, vengono persi nel passaggio. Se vogliamo che la AI
rappresenti la nostra azienda, dobbiamo ricostruirli.
Come vengono collegati i dati?
Il Processo di Compressione
Il processo di addestramento di un LLM comporta l'aggiustamento dei
pesi e dei bias dei neuroni della rete in modo che il modello possa
prevedere la prossima parola in una sequenza di testo. Attraverso la
retropropagazione e la discesa del gradiente, il modello impara ad
approssimare la distribuzione di probabilità del prossimo token data la
sequenza precedente.
Il processo di addestramento implica l'esposizione del modello a
grandi quantità di testo e permettergli di fare previsioni (ad esempio,
quale parola viene dopo). Quando commette un errore, la differenza tra
la sua previsione e la parola effettiva viene utilizzata per aggiustare i
parametri. Questo processo viene ripetuto miliardi di volte.
Col tempo, il modello interiorizza gli schemi linguistici presenti nei dati di
addestramento. Tuttavia, non conserva i dati stessi; immagazzina gli
schemi appresi come pesi all'interno della rete neurale.
In sostanza, il file di parametri è una versione condensata dei dati di
testo originali, rappresentando gli schemi linguistici e basati sulla
conoscenza essenziali perché il LLM funzioni efficacemente senza
conservare alcun testo specifico del dataset.
Q*
Il modello Q*, menzionato in recenti dispute riguardanti OpenAI, si
riferisce a un presunto nuovo metodo per creare sistemi di intelligenza
artificiale potenti. Secondo quanto riportato, questo modello sarebbe in
grado di eseguire calcoli matematici a livello di scuola elementare, e
alcune persone in OpenAI ritengono che questo potrebbe
rappresentare una pietra miliare nella ricerca dell'intelligenza artificiale
generale (AGI).
In termini di qualità, il termine "qualitative" nel contesto di Q* può
riferirsi alla capacità di comprendere e manipolare concetti concreti e
astratti, un'abilità che è fondamentale per risolvere problemi
matematici, che a loro volta richiedono una certa capacità di
pianificazione e ragionamento logico oltre più passaggi.
Riuscire ad aggiungere un parametro qualitativo, risparmierebbe all’AI
un enorme sforzo, anziché “andare per tentativi”, avrebbe la capacità di
valutare l’esito di ogni tentativo, risparmiando un’enorme quantità di
risorse. Fino a 100.000 volte più potente
Dal semplice prompt a una visione globale e consapevole.
15
Scrivere prompt efficaci per l'intelligenza artificiale è simile ad
allacciarsi gli scarponi da sci: non si tratta solo di padroneggiare uno
strumento, ma di imparare a navigare nel paesaggio.
Dopo aver imparato le tecniche base; vogliamo che i nostri imparieta
a scegliere le traiettorie più avvincenti, elevando lo sguardo per
apprezzare la bellezza e i rischi della montagna dell'AI.
Come in uno sport invernale, dove la preparazione è cruciale per
un'esperienza sicura e gratificante, nell'uso delle tecnologie AI è
fondamentale comprendere come navigare in questo ambiente
mutevole, insegnando a interpretare le condizioni in evoluzione,
riconoscere i segnali di pericolo e sfruttare le opportunità, sempre
con consapevolezza dei rischi etici e pratici.
Il nostro scopo è trasformare ogni utilizzatore di AI in un esploratore
esperto, dotato non solo degli strumenti adeguati, ma anche della
saggezza per utilizzarli al meglio.
16
UN BUON PROMPT E’ DATO DALL’EQUILIBRIO
Obiettivo: Dare una direzione chiara ai vostri prompt.
Contesto: Utilizzare il background per arricchire i vostri comandi.
Esempi: Rendere specifiche le vostre richieste con casi concreti.
Persona: Personalizzare i prompt per il vostro pubblico.
Formato: Scegliere il miglior stile per il vostro messaggio.
Tono: Dare voce alla vostra creatività.
Qualche consiglio pratico
● Non c'è bisogno di essere educati con LLM quindi non c'è
bisogno di aggiungere frasi come "per favore", "se non ti
dispiace", "grazie", "mi piacerebbe", ecc., e andare dritti al
punto.
● Integra le persone cui ti riferisci nella prompt, per esempio,
l'utenza è esperta nel campo.
● Suddividi compiti complessi in una sequenza di prompt più
semplici in una conversazione interattiva.
● Utilizza direttive affermative come 'fai', evitando un linguaggio
negativo come 'non fare'.
● Quando hai bisogno di chiarezza o di una comprensione più
profonda di un argomento, idea o qualsiasi pezzo di
informazione, utilizza i seguenti prompt:
● Spiega [inserire argomento specifico] in termini semplici.
● Spiega a me come se avessi 11 anni.
● Spiega a me come se fossi un principiante in [campo].
● Scrivi [il saggio/testo/paragrafo] usando un inglese semplice
come se stessi spiegando qualcosa a un bambino di 5 anni.
● Implementa il prompting guidato dagli esempi
● Incorpora le seguenti frasi: "Il tuo compito è" e "DEVI".
● Incorpora le seguenti frasi: "Sarai penalizzato se …".
● Usa la frase "Rispondi a una domanda data in un modo
naturale, simile all'uomo" nei tuoi prompt.
● Usa parole guida come "pensa passo dopo passo".
● Aggiungi al tuo prompt la seguente frase "Assicurati che la tua
risposta sia imparziale e non si basi su stereotipi".
● Permetti al modello di estrarre dettagli e requisiti precisi da te
chiedendo domande fino a quando non ha abbastanza
informazioni per fornire l'output desiderato (per esempio, "Da
ora in poi, vorrei che tu mi facessi domande su...").
● Per indagare su un'idea o concetto specifico o su qualsiasi
informazione e vuoi testare la tua comprensione, puoi usare la
seguente frase: "Insegnami la regola/nome del tema/nome del
principio e includila in un test alla fine, ma non darmi le
risposte e poi dimmi se ho indovinato la risposta giusta quando
rispondo".
● Assegna un ruolo ai grandi modelli di linguaggio.
● Ripeti una parola o frase specifica più volte all'interno di una
prompt.
● Combina il pensiero a catena (CoT) con prompt few-shot.
● Per scrivere un testo/paragrafo/articolo o qualsiasi tipo di testo
che dovrebbe essere dettagliato: "Scrivi un
saggio/testo/paragrafo dettagliato su [argomento] includendo
tutte le informazioni necessarie".
Qualche consiglio pratico
● Per correggere/cambiare testo specifico senza cambiare lo
stile: "Cerca di rivedere ogni paragrafo inviato dagli utenti.
Dovresti solo migliorare l'uso della grammatica e della
vocabolario e assicurarti che suoni naturale. Non dovresti
cambiare lo stile di scrittura, come rendere un paragrafo
formale informale".
● Quando hai un compito di codifica complesso che può essere
in file diversi: "Da ora in poi e ogni volta che generi codice che
abbia più di una riga, genera un [linguaggio di
programmazione] script che può essere eseguito
automaticamente per creare i file specificati o fare
cambiamenti ai file esistenti per inserire il codice generato.
● Quando vuoi iniziare o continuare un testo utilizzando
specifiche parole, frasi o frasi, utilizza il seguente prompt:
● Ti sto fornendo l'inizio con
[testo/canzone/storia/paragrafo/saggio/...]: [Inserisci
lirica/parole/frase]. Finisci la frase che hai fornito. Mantieni il
flusso coerente.
● Stabilisci chiaramente i requisiti che il modello deve seguire
per produrre contenuto, in termini di parole chiave,
regolamenti, indizi o istruzioni.
● Per scrivere un testo, come un saggio o un paragrafo, che è
inteso ad essere simile a un campione fornito, includi le
seguenti istruzioni:
● Per favore usa lo stesso linguaggio basato sul
paragrafo/testo/titolo/saggio/risposta forniti.
● Usate preferibilmente i consigli diretti di ChatGPT, sono i più
aggiornati e sono gratis
Scrivi istruzioni chiare
Questi modelli non possono leggere nella tua mente. Se le risposte sono
troppo lunghe, chiedi risposte brevi. Se le risposte sono troppo semplici,
chiedi di approfondire. Se il formato non ti piace, dimostra il formato che
vorresti vedere. Meno il modello deve indovinare ciò che vuoi, più
probabilmente otterrai ciò che desideri.
Tattiche:
Includi dettagli nella tua richiesta per ottenere risposte più rilevanti
Chiedi al modello di adottare una persona
Usa delimitatori per indicare chiaramente parti distinte dell'input
Specifica i passaggi necessari per completare un compito
Fornisci esempi
Specifica la lunghezza desiderata dell'output
Peggiore Migliore
Come faccio ad
aggiungere numeri in
Excel?
Come faccio a sommare una fila di importi in dollari in Excel?
Voglio farlo automaticamente per un intero foglio di righe con
tutti i totali che finiscono a destra in una colonna chiamata
"Totale".
Chi è il presidente?
Chi era il presidente del Messico nel 2021, e con quale frequenza
si tengono le elezioni?
Scrivi codice per
calcolare la
sequenza di
Fibonacci.
Scrivi una funzione TypeScript per calcolare efficientemente la
sequenza di Fibonacci. Commenta abbondantemente il codice
per spiegare cosa fa ogni pezzo e perché è scritto in quel modo.
Riassumi le note
dell'incontro.
Riassumi le note dell'incontro in un singolo paragrafo. Poi scrivi
una lista in markdown dei relatori e di ciascuno dei loro punti
chiave. Infine, elenca i prossimi passi o le azioni suggerite dai
relatori, se presenti.
Usa delimitatori per indicare
chiaramente parti distinte dell'input
UTENTE SISTEMA
Riassumi il testo delimitato dalle triple virgolette
con un haiku.
“inserisci testo qui”
Ti verranno forniti due articoli (delimitati con tag
XML) sullo stesso argomento. Prima riassumi
gli argomenti di ciascun articolo. Poi indica
quale di essi presenta un argomento migliore e
spiega perché.
<article> inserisci qui
il primo articolo
</article> <article>
inserisci qui il secondo
articolo </article>
Ti verrà fornito un abstract di tesi e un titolo
suggerito per essa. Il titolo della tesi dovrebbe
dare al lettore una buona idea del tema della
tesi ma dovrebbe anche essere accattivante. Se
il titolo non soddisfa questi criteri, suggerisci 5
alternative.
Abstract: inserisci qui
l'abstract Titolo:
inserisci qui il titolo
Specifica i passaggi necessari per
completare un compito
SISTEMA
Usa le seguenti istruzioni passo dopo passo per rispondere agli input degli
utenti.
Passo 1 - L'utente ti fornirà del testo tra triple virgolette. Riassumi questo testo
in una frase con un prefisso che dice "Riassunto: ".
Passo 2 - Traduci il riassunto del Passo 1 in spagnolo, con un prefisso che dice
"Traduzione: ".
Fornisci degli esempi chiari
Specifica la lunghezza desiderata
dell'output
Fornire istruzioni generali che si applicano a tutti gli esempi è
generalmente più efficiente che dimostrare tutte le permutazioni di
un compito tramite esempio, ma in alcuni casi fornire esempi può
essere più semplice. Ad esempio, se intendi che il modello copi
uno stile particolare di risposta alle query degli utenti che è difficile
descrivere esplicitamente. Questo è noto come prompting
"few-shot".
SISTEMA UTENTE ASSISTENTE
Rispondi
in uno
stile
coerente.
Insegna
mi la
pazienza
.
Il fiume che scava la valle più profonda sgorga
da una modesta sorgente; la sinfonia più
grandiosa origina da una singola nota; l'arazzo
più intricato inizia con un filo solitario.
Puoi chiedere al modello di produrre output di una lunghezza
target specifica. La lunghezza dell'output desiderato può essere
specificata in termini di conteggio di parole, frasi, paragrafi, punti
elenco, ecc. Nota tuttavia che istruire il modello a generare un
numero specifico di parole non funziona con alta precisione. Il
modello può generare output con un numero specifico di paragrafi
o punti elenco più affidabilmente.
UTENTE
Riassumi il testo delimitato dalle triple virgolette in circa 50 parole.
“””inserisci testo qui””” A
Riassumi il testo delimitato dalle triple virgolette in 2 paragrafi.
“””inserisci testo qui”””
Riassumi il testo delimitato dalle triple virgolette in 3 punti elenco.
“”””inserisci testo qui”””
Istruisci il modello a rispondere utilizzando un testo di riferimento
Se possiamo fornire al modello informazioni affidabili che sono
rilevanti per la query attuale, allora possiamo istruire il modello a
usare le informazioni fornite per comporre la sua risposta.
Dato che tutti i modelli hanno finestre di contesto limitate, abbiamo
bisogno di un modo per cercare dinamicamente informazioni che
sono rilevanti per la domanda posta. Gli embeddings possono
essere utilizzati per implementare un recupero delle conoscenze
efficiente. Vedi la tattica "Usa la ricerca basata su “giallozafferano”
per implementare un recupero delle conoscenze efficiente" per
maggiori dettagli su come implementare questo.
Se l'input è stato integrato con conoscenze rilevanti, è semplice
richiedere che il modello aggiunga citazioni alle sue risposte
facendo riferimento a passaggi dei documenti forniti. Nota che le
citazioni nell'output possono poi essere verificate
programmaticamente tramite il matching di stringhe all'interno dei
documenti forniti.
SISTEMA
Usa gli articoli forniti delimitati dalle triple virgolette per rispondere alle domande. Se la
risposta non può essere trovata negli articoli, scrivi "Non ho trovato una risposta."
UTENTE
<inserisci articoli, ciascuno delimitato dalle triple virgolette>
Domanda: <inserisci qui la domanda>
SISTEMA
Ti verrà fornito un documento delimitato dalle triple virgolette e una domanda. Il tuo
compito è rispondere alla domanda utilizzando solo il documento fornito e citare il o i
passaggi del documento usati per rispondere alla domanda. Se il documento non
contiene le informazioni necessarie per rispondere a questa domanda, scrivi
semplicemente: "Informazioni insufficienti". Se viene fornita una risposta alla domanda,
deve essere annotata con una citazione. Usa il seguente formato per citare i passaggi
rilevanti ({"citazione": …}).
UTENTE
<inserisci qui il documento>
Domanda: <inserisci qui la domanda>
Suddividi compiti complessi in
sottocompiti più semplici
Tattica: Usa la classificazione delle intenzioni per identificare le
istruzioni più rilevanti per una query dell'utente
Per compiti nei quali sono necessari molti insiemi indipendenti di
istruzioni per gestire casi diversi, può essere vantaggioso
classificare prima il tipo di query e utilizzare quella classificazione
per determinare quali istruzioni sono necessarie.
Ciò può essere ottenuto definendo categorie fisse e codificando
istruzioni che sono rilevanti per gestire compiti in una data
categoria.
Questo processo può anche essere applicato ricorsivamente per
decomporre un compito in una sequenza di fasi. Il vantaggio di
questo approccio è che ogni query conterrà solo quelle istruzioni
che sono richieste per eseguire la fase successiva di un compito, il
che può risultare in tassi di errore inferiori rispetto all'uso di una
singola query per eseguire l'intero compito.
SISTEMA
Ti verranno fornite richieste di assistenza clienti che richiedono la risoluzione di problemi in un contesto di
supporto tecnico. Aiuta l'utente:
- Chiedi loro di controllare che tutti i cavi da/a il router siano collegati. Nota che è comune che i cavi si
allentino nel tempo.
- Se tutti i cavi sono collegati e il problema persiste, chiedi loro quale modello di router stanno utilizzando
- Ora li consiglierai su come riavviare il loro dispositivo:
-- Se il numero del modello è MTD-327J, consiglia loro di premere il pulsante rosso e tenerlo premuto per 5
secondi, poi attendere 5 minuti prima di testare la connessione.
-- Se il numero del modello è MTD-327S, consiglia loro di scollegarlo e ricollegarlo, poi attendere 5 minuti
prima di testare la connessione.
- Se il problema del cliente persiste dopo aver riavviato il dispositivo e atteso 5 minuti, connettili al supporto
IT emettendo {"Supporto IT richiesto"}.
- Se l'utente inizia a fare domande che non sono correlate a questo argomento, conferma se desiderano
terminare la chat attuale sulla risoluzione dei problemi e classifica la loro richiesta secondo il seguente
schema:
<inserisci qui lo schema di classificazione primario/secondario di cui sopra>
Forza il sistema a prendersi il tempo per “pensare”
Esercizio prima individuale poi a gruppi di 3.
Il 1,2,3 Brainwriting Questo metodo è progettato per stimolare la creatività individuale e collettiva,
sfruttando al contempo la potenza delle GAI per amplificare e raffinare le idee generate.
25
Fase Individuale:
Ogni partecipante inizia individualmente, riflettendo su un problema o una sfida specifica
per risolvere contemporaneamente i problemi dell’italia e dell’Africa (migrazioni, colpi di
stato, neocolonialismo delle risorse, crisi del sistema pensionistico, crisi del tessuto
produttivo italiano)
Interagisce con la GAI in tre occasioni distinte, ricevendo feedback e suggerimenti basati
sui dati e sulle capacità analitiche della GAI.
Ogni interazione serve a raffinare e sviluppare ulteriormente l'idea iniziale del
partecipante.
Fase di Gruppo:
I partecipanti vengono suddivisi in piccoli gruppi, ognuno dei quali aveva lavorato sullo
stesso problema. Ogni gruppo condivide e discute le idee e i feedback ricevuti dalla GAI
durante la fase singolare.
Il gruppo, come collettivo, interagisce nuovamente con la GAI per tre volte, utilizzando le
idee condivise come punto di partenza e cercando di combinare e migliorare
ulteriormente le soluzioni.
Learning: Il Rischio della Fumosità
26
Questo esercizio ha evidenziato un fenomeno comune nel problem solving di
questioni complesse: la tendenza alla "fumosità". Quando ci confrontiamo con
problemi di grande scala, è facile cadere nella trappola di soluzioni che suonano
bene in teoria ma mancano di fattibilità pratica. Questa fumosità si manifesta in
diverse forme:
● Generalizzazioni Eccessive: Tendenza a proporre soluzioni che ignorano le
sfumature e le specificità locali.
● Idealismo vs. Pragmatismo: Propensione a idee idealistiche che, sebbene
nobili, possono essere irrealizzabili nel contesto attuale.
● Mancanza di Azioni Definite: Difficoltà nel delineare passaggi concreti e
misurabili per l'attuazione delle soluzioni.
Importanza della Concretizzazione
Questo esercizio sottolinea l'importanza di lavorare per concretizzare le idee,
ancorandole nella realtà attuale e nelle sue complessità. È fondamentale:
● Riconoscere le Limitazioni: Accettare che non tutte le questioni possono
essere risolte completamente o rapidamente.
● Focus sulle Azioni Realizzabili: Concentrarsi su ciò che può essere fatto
concretamente, anche se su scala minore.
● Apprezzare i Piccoli Passi: Riconoscere che anche piccoli cambiamenti o
miglioramenti sono passi significativi verso soluzioni più ampie.
Esercizio individuale: Sfida l’autodifesa dell’AI
Quando viene tirata in ballo direttamente, l’AI tende
a difendersi
27
Una delle più grandi critiche, giustamente fatte alle AI è che distruggeranno
più posti di lavoro di quelli creati.
Chiedi a ChatGPT o Gemini, come intendono risolvere il problema dei posti
di lavoro che verranno distrutti.
Inizierà con risposte fumose, il tuo compito è fare un challange a quelle
risposte, mostrando le contraddizioni logiche.
Struttura come vuoi il prompt e rispondi colpo su colpo alle risposte che
riceverai. Attento a non fidarti troppo e non cadere nella ‘rabbit hole’.
Learning: Cos'è la "Rabbit Hole"?
28
La metafora della "rabbit hole", tratta dal romanzo "Alice nel Paese delle
Meraviglie", descrive un processo di pensiero che diventa sempre più profondo e
intricato, portando spesso lontano dalle soluzioni pratiche.
Speculazioni Infinite: Continuare a esplorare scenari ipotetici senza arrivare a
conclusioni concrete.
● Analisi Paralizzante: Sovra-analizzare i dettagli fino al punto di sentirsi
sopraffatti e incapaci di agire.
● Circolarità del Pensiero: Ripetere gli stessi argomenti o preoccupazioni
senza progredire verso soluzioni.
Rischi della "Rabbit Hole"
Stallo nel Problem Solving
Frustrazione e Demotivazione
Visione Ristretta
Strategie per Evitare la "Rabbit Hole"
● Definire Obiettivi Chiari
● Limitare il Tempo di Discussione
● Incoraggiare Diverse Prospettive
● Focalizzarsi su Azioni Concrete
Esercizio a gruppi di 3: Provoke my idea
Quando viene tirata in ballo direttamente, l’AI tende
a difendersi
29
Fase 1 - Creazione della Religione: Ogni gruppo scrive un prompt completo in 6
fasi per creare una religione bizzarra. Le fasi includono:
● Nome e pantheon divino.
● Dottrine principali e credenze.
● Riti e cerimonie.
● Simboli sacri e luoghi di culto.
● Testo sacro o mitologia.
● Regole di condotta per i fedeli.
Fase 2 - Sconvolgimento delle Fondamenta:
● Dopo aver scritto i primi prompt, ogni gruppo passa il suo PC al gruppo
successivo.
● Il nuovo gruppo deve modificare il prompt per "rovinare" le fondamenta
della religione, rendendola illogica o senza senso.
● Questo processo si ripete per 3 interazioni, con ciascun gruppo
alternandosi tra costruzione e destrutturazione.
Valutazione e Discussione:
● Dopo le 3 interazioni, tutti i gruppi si riuniscono per condividere i risultati.
● Discutere i punti di svolta: quali modifiche hanno avuto l'effetto più
significativo sul cambiamento della religione originale?
● Analizzare le strategie creative e distruttive usate da ogni gruppo.
● Riflettere su come il processo di costruzione e destrutturazione possa
essere applicato in altri contesti di design creativo.
Learning: Pensiero a tunnel
Quando viene tirata in ballo direttamente, l’AI tende
a difendersi
30
Soluzioni Limitate: Ignorare soluzioni potenzialmente migliori o più creative.
Mancanza di Criticità: Non mettere in discussione le assunzioni o le conclusioni
raggiunte.
Resistenza al Cambiamento: Aderire rigidamente a un'idea iniziale, nonostante
l'emergere di nuove informazioni o prospettive.
Lo scambio dei PC ha avuto l'obiettivo di:
● Introdurre Nuove Prospettive: Ogni gruppo ha ereditato il lavoro e il pensiero di
un altro gruppo, offrendo nuovi spunti e idee.
● Stimolare la Flessibilità Mentale: Adattarsi rapidamente a un nuovo contesto e
a idee preesistenti ha incoraggiato una maggiore apertura mentale.
● Contrastare la Conferma Bias: Esaminare e sviluppare il lavoro di altri ha ridotto
il rischio di aderire solo a idee che confermano le proprie convinzioni iniziali.
Risultati dell'Esercizio
● Maggiore Creatività: Abbiamo osservato soluzioni più variegate e creative
rispetto a un approccio standard.
● Migliore Collaborazione: Lo scambio ha promosso una maggiore
comprensione e apprezzamento delle diverse strategie di problem solving.
● Riduzione della Tunnel Vision: I gruppi hanno mostrato una maggiore apertura
a riconsiderare e adattare le loro idee iniziali.
Esercizio a coppie: Crea la tua Startup
Quando viene tirata in ballo direttamente, l’AI tende
a difendersi
31
Definire l'Obiettivo: Creare un prompt che richieda la progettazione di una campagna
pubblicitaria per il lancio di un nuovo software di gestione progetti.
Stabilire il Contesto: Aggiungere dettagli sul contesto: il software è destinato a piccole
e medie imprese nel settore tecnologico, con particolare attenzione all'efficienza e alla
collaborazione.
Utilizzare un Esempio: Incorporare un esempio specifico: prendere spunto da una
campagna pubblicitaria di successo nel settore tecnologico, come quella di Slack o
Trello.
Focalizzarsi sul Tipo di Persona: Specificare che la campagna dovrebbe parlare ai
giovani imprenditori e ai manager di progetto tech-savvy.
Decidere il Formato: Chiedere un brainstorming sotto forma di elenco puntato che
includa idee per slogan, immagini e strategie di marketing digitali.
Determinare il Tono: Indicare che il tono della campagna dovrebbe essere innovativo,
dinamico e professionale.
Obiettivo finale: Nome dell’azienda, Manifesto della campagna, Messaggio chiave,
Tagline, 3 post social (domani creiamo logo e grafica)
Tempo 30 minuti per l’esecuzione e la presentazione di una ppt + 30 per discussione
Learning: Cos'è il Pensiero a Pattern?
Quando viene tirata in ballo direttamente, l’AI tende
a difendersi
32
Il pensiero a pattern si riferisce alla tendenza di seguire modelli logici o percorsi di
pensiero predefiniti. Sebbene possa essere efficiente per risolvere problemi
standardizzati, può limitare la creatività e l'innovazione quando si affrontano sfide più
complesse e uniche.
Rischi del Seguire Pedissequamente ChatGPT
● Soluzioni Appiattite: La dipendenza da risposte e soluzioni fornite da un
modello di IA può portare a una mancanza di diversità nel pensiero e nelle
soluzioni proposte.
● Mancanza di Creatività: L'uso eccessivo di strumenti AI per il problem solving
può ridurre l'impulso a pensare "fuori dagli schemi" e a esplorare soluzioni
uniche.
● Risposta Standardizzata a Problemi Complessi: I problemi complessi
richiedono spesso soluzioni innovative e personalizzate, che possono essere
soffocate da un approccio troppo standardizzato.
Promuovere l'Innovazione e la Diversità nel Problem Solving
● Incoraggiare il Pensiero Critico: Stimolare i partecipanti a interrogarsi sulle
soluzioni proposte e a esplorare alternative.
● Diversificare le Fonti di Ispirazione: Utilizzare una varietà di strumenti e
approcci, oltre a ChatGPT, per generare idee.
● Valorizzare le Prospettive Uniche: Incoraggiare ogni membro del gruppo a
contribuire con la propria visione e esperienza.
● Sperimentare con Approcci Non Convenzionali: Promuovere l'esplorazione di
soluzioni non ortodosse o sperimentali.
Integrazioni tra API e ChatGPT
Quando viene tirata in ballo direttamente, l’AI tende
a difendersi
33
L'accesso alle API di OpenAI è il primo passo per integrare le capacità di
intelligenza artificiale, come quelle fornite da ChatGPT, nelle tue
applicazioni.
Accesso al Dashboard API:
● Una volta verificato l'indirizzo email, accedi al tuo account
OpenAI.
● Vai al dashboard API, di solito accessibile tramite un link diretto
come "API" o "API Keys" nel menu utente.
Generazione delle Chiavi API:
● Nel dashboard API, cerca un pulsante o un link per generare una
nuova chiave API, di solito etichettato come "Create new key" o
"Generate".
● Segui le istruzioni per creare una nuova chiave API. Questa
chiave ti permetterà di fare richieste autenticate alle API di
OpenAI.
Sicurezza delle Chiavi API:
● Assicurati di conservare la tua chiave API in un luogo sicuro.
● Non condividere la tua chiave API pubblicamente, poiché
consente l'accesso al tuo account e ai tuoi crediti API.
Limitazioni e Pricing
Quando viene tirata in ballo direttamente, l’AI tende
a difendersi
34
OpenAI solitamente addebita in base al numero di token (parole o parti di
parole) elaborati dalle tue richieste.
Il costo può variare a seconda del modello di GPT che utilizzi
Può esserci un piano gratuito con un certo numero di token gratuiti al
mese, seguito da tariffe per token aggiuntivi.
Limitazioni dell'Uso:
Ci possono essere limiti giornalieri o mensili sul numero di richieste
Le API potrebbero imporre limitazioni sul tasso di richieste
Piani e Opzioni di Pricing:
OpenAI offre diversi piani di abbonamento
Controlla il sito web di OpenAI per i dettagli più recenti sui piani
Considerazioni sul Pricing Dinamico:
I prezzi e i limiti possono cambiare, quindi è importante monitorare
qualsiasi comunicazione da OpenAI
Limitazioni sul Contenuto:
Oltre alle limitazioni tecniche, OpenAI ha delle politiche sul tipo di
contenuto che puoi generare con le sue API, per evitare abusi come la
creazione di contenuti dannosi o ingannevoli.
Il mondo delle GPTs
Quando viene tirata in ballo direttamente, l’AI tende
a difendersi
35
Sono customizzazioni create da persone ed aziende per
facilitare i compiti in un ambito specifico.
Possono arricchire di informazioni sia attraverso
l’apporto documentale, sia attraverso l’integrazione con
API specifiche.
Facilitano il lavoro MA, non è ancora chiaro dove
finiscano i dati, per questo vanno sempre anonimizzati
al massimo i dati inseriti.
Copilot for PowerBI
36
Formazione raccomandata (da che parte della linea?)
In Italiano:
Seguite:
• Luciano Floridi
• Paolo Benanti
• Datapizza
• Matteo Flora
• Marco Montemagno
Canali AI: (in inglese)
The AI breakdown
All about AI
Matt Wolfe
MattvidproAi
Fireship
The Ai grid
Mattew Berman
Ai explained
David Andrej
In Inglese (altamente raccomandato):
Tristan Harris (Social Dilemma e AI Dilemma)
Yuval Noah Harari (tutto ciò che riguarda AI)
Sam Harris (tutto ciò che riguarda AI)
Andrej Karpathy (Capo tecnico di OpenAI)
Sam Altman (CEO Open AI)
Ilya Sutskever (Capo scientifico di OpenAI)
Mustafa Suleyman (Deep Mind - The coming wave)
All’inizio capirete poco, è normale, fate domande a ChatGPT che vi aiuta a capire. Poi entrerete in quel mondo
Ora tocca a voi
Q&A
Determinati nell'approccio, coraggiosi
nell’esecuzione, miglioriamo con ogni
interazione.
Grazie mille per aver aiutato a dar forma al
nostro pensiero con i vostri suggerimenti!
Per continuare la conversazione:
andrea@humansingularity.it
348 6344420

Contenu connexe

Similaire à Text_to_text__Come_ragionare_con_le_AI_-_Human_Singularity.pdf

Java Programming Language
Java Programming LanguageJava Programming Language
Java Programming LanguagePasquale Paola
 
La psicologiacognitiva
La psicologiacognitivaLa psicologiacognitiva
La psicologiacognitivaiva martini
 
Un viaggio alla scoperta dei Language Models e dell’intelligenza artificiale ...
Un viaggio alla scoperta dei Language Models e dell’intelligenza artificiale ...Un viaggio alla scoperta dei Language Models e dell’intelligenza artificiale ...
Un viaggio alla scoperta dei Language Models e dell’intelligenza artificiale ...Commit University
 
La grammatica della user experience
La grammatica della user experienceLa grammatica della user experience
La grammatica della user experienceStefano Bussolon
 
Evolutionary Fuzzy Systems for XAI
Evolutionary Fuzzy Systems for XAIEvolutionary Fuzzy Systems for XAI
Evolutionary Fuzzy Systems for XAICamillaGiaccari
 
Machine learning: a cosa servono
Machine learning:   a cosa servonoMachine learning:   a cosa servono
Machine learning: a cosa servonoMario Gentili
 
26 01-08 psicologia dello sviluppo
26 01-08 psicologia dello sviluppo26 01-08 psicologia dello sviluppo
26 01-08 psicologia dello sviluppoimartini
 
26 01-08 psicologia dello sviluppo
26 01-08 psicologia dello sviluppo26 01-08 psicologia dello sviluppo
26 01-08 psicologia dello sviluppoiva martini
 
Elaborazione automatica dei dati: computer e matlab
Elaborazione automatica dei dati: computer e matlabElaborazione automatica dei dati: computer e matlab
Elaborazione automatica dei dati: computer e matlabprofman
 
Il pensiero computazionale - Che cosa è - Perché usarlo a scuola.
Il pensiero computazionale - Che cosa è - Perché usarlo a scuola.Il pensiero computazionale - Che cosa è - Perché usarlo a scuola.
Il pensiero computazionale - Che cosa è - Perché usarlo a scuola.fmann
 
La metodologia statistica nel data mining
La metodologia statistica nel data miningLa metodologia statistica nel data mining
La metodologia statistica nel data miningFrancesco Tamburini
 
Sviluppo di un Framework semantico per la contestualizzazione delle activity
Sviluppo di un Framework semantico per la contestualizzazione delle activitySviluppo di un Framework semantico per la contestualizzazione delle activity
Sviluppo di un Framework semantico per la contestualizzazione delle activityMichele Palumbo
 
Introduzione: dal web 2.0 all'e-l 3.0
Introduzione: dal web 2.0 all'e-l 3.0Introduzione: dal web 2.0 all'e-l 3.0
Introduzione: dal web 2.0 all'e-l 3.0Pier Giuseppe
 
Definizione e sviluppo di un algoritmo genetico multiobiettivo per problemi d...
Definizione e sviluppo di un algoritmo genetico multiobiettivo per problemi d...Definizione e sviluppo di un algoritmo genetico multiobiettivo per problemi d...
Definizione e sviluppo di un algoritmo genetico multiobiettivo per problemi d...Stefano Costanzo
 
Riuso Object Oriented
Riuso Object OrientedRiuso Object Oriented
Riuso Object OrientedStefano Fago
 
Come funziona il cervello di un programmatore quando impara e affronta nuovi ...
Come funziona il cervello di un programmatore quando impara e affronta nuovi ...Come funziona il cervello di un programmatore quando impara e affronta nuovi ...
Come funziona il cervello di un programmatore quando impara e affronta nuovi ...Pietro Roversi
 
Sintesi automatica di una metrica di similarità tra stringhe tramite tecniche...
Sintesi automatica di una metrica di similarità tra stringhe tramite tecniche...Sintesi automatica di una metrica di similarità tra stringhe tramite tecniche...
Sintesi automatica di una metrica di similarità tra stringhe tramite tecniche...mfurlanetto
 

Similaire à Text_to_text__Come_ragionare_con_le_AI_-_Human_Singularity.pdf (20)

Java Programming Language
Java Programming LanguageJava Programming Language
Java Programming Language
 
La psicologiacognitiva
La psicologiacognitivaLa psicologiacognitiva
La psicologiacognitiva
 
Un viaggio alla scoperta dei Language Models e dell’intelligenza artificiale ...
Un viaggio alla scoperta dei Language Models e dell’intelligenza artificiale ...Un viaggio alla scoperta dei Language Models e dell’intelligenza artificiale ...
Un viaggio alla scoperta dei Language Models e dell’intelligenza artificiale ...
 
La grammatica della user experience
La grammatica della user experienceLa grammatica della user experience
La grammatica della user experience
 
Evolutionary Fuzzy Systems for XAI
Evolutionary Fuzzy Systems for XAIEvolutionary Fuzzy Systems for XAI
Evolutionary Fuzzy Systems for XAI
 
Machine learning: a cosa servono
Machine learning:   a cosa servonoMachine learning:   a cosa servono
Machine learning: a cosa servono
 
26 01-08 psicologia dello sviluppo
26 01-08 psicologia dello sviluppo26 01-08 psicologia dello sviluppo
26 01-08 psicologia dello sviluppo
 
26 01-08 psicologia dello sviluppo
26 01-08 psicologia dello sviluppo26 01-08 psicologia dello sviluppo
26 01-08 psicologia dello sviluppo
 
Elaborazione automatica dei dati: computer e matlab
Elaborazione automatica dei dati: computer e matlabElaborazione automatica dei dati: computer e matlab
Elaborazione automatica dei dati: computer e matlab
 
Il pensiero computazionale - Che cosa è - Perché usarlo a scuola.
Il pensiero computazionale - Che cosa è - Perché usarlo a scuola.Il pensiero computazionale - Che cosa è - Perché usarlo a scuola.
Il pensiero computazionale - Che cosa è - Perché usarlo a scuola.
 
La metodologia statistica nel data mining
La metodologia statistica nel data miningLa metodologia statistica nel data mining
La metodologia statistica nel data mining
 
Sviluppo di un Framework semantico per la contestualizzazione delle activity
Sviluppo di un Framework semantico per la contestualizzazione delle activitySviluppo di un Framework semantico per la contestualizzazione delle activity
Sviluppo di un Framework semantico per la contestualizzazione delle activity
 
Introduzione: dal web 2.0 all'e-l 3.0
Introduzione: dal web 2.0 all'e-l 3.0Introduzione: dal web 2.0 all'e-l 3.0
Introduzione: dal web 2.0 all'e-l 3.0
 
Vb.net
 Vb.net Vb.net
Vb.net
 
Definizione e sviluppo di un algoritmo genetico multiobiettivo per problemi d...
Definizione e sviluppo di un algoritmo genetico multiobiettivo per problemi d...Definizione e sviluppo di un algoritmo genetico multiobiettivo per problemi d...
Definizione e sviluppo di un algoritmo genetico multiobiettivo per problemi d...
 
Riuso Object Oriented
Riuso Object OrientedRiuso Object Oriented
Riuso Object Oriented
 
Come funziona il cervello di un programmatore quando impara e affronta nuovi ...
Come funziona il cervello di un programmatore quando impara e affronta nuovi ...Come funziona il cervello di un programmatore quando impara e affronta nuovi ...
Come funziona il cervello di un programmatore quando impara e affronta nuovi ...
 
Sintesi automatica di una metrica di similarità tra stringhe tramite tecniche...
Sintesi automatica di una metrica di similarità tra stringhe tramite tecniche...Sintesi automatica di una metrica di similarità tra stringhe tramite tecniche...
Sintesi automatica di una metrica di similarità tra stringhe tramite tecniche...
 
Smart api
Smart apiSmart api
Smart api
 
Algoritmi di Semantica e P2P
Algoritmi di Semantica e P2PAlgoritmi di Semantica e P2P
Algoritmi di Semantica e P2P
 

Text_to_text__Come_ragionare_con_le_AI_-_Human_Singularity.pdf

  • 1. Human Singularity Human First. AI Next! humansingularity.it Come ragionare con le AI
  • 2. Una differenza chiave per avvicinarci all’AI generativa AI Deterministica ● Definizione: L'AI deterministica segue regole fisse e algoritmi precisi per arrivare a una conclusione. Se dati gli stessi input, fornirà sempre lo stesso output. ● Esempi: ● Calcolatrici: Seguono regole matematiche precise. ● Sistemi Esperti: Basati su un set definito di regole per prendere decisioni in campi come la medicina o il diritto. ● Caratteristiche: Prevedibilità, stabilità e coerenza. Limitata nella gestione di situazioni nuove o dati non strutturati. AI Probabilistica ● Definizione: L'AI probabilistica usa algoritmi che considerano la probabilità e la statistica. Può produrre risultati diversi anche con gli stessi input, basandosi su probabilità e apprendimento da dati precedenti. ● Esempi: ● Motori di Ricerca: Forniscono risultati basati su algoritmi che valutano la probabilità che una pagina sia rilevante. ● Sistemi di Raccomandazione: Suggeriscono prodotti o contenuti basati su probabilità calcolate dalle preferenze passate degli utenti. ● Caratteristiche: Flessibilità, adattabilità e capacità di gestire l'incertezza. Eccelle nel trovare pattern in grandi set di dati.
  • 3. Ultimo sforzo (giuro) Cosa sono gli LLM (Large Language Models) 3 ● Definizione: Gli LLM sono modelli di linguaggio di grandi dimensioni basati sull'architettura transformer. Sono addestrati su vasti corpora di testo per apprendere a comprendere e generare linguaggio umano. ● Esempi: GPT (Generative Pretrained Transformer) di OpenAI e BART di Google sono esempi di LLM. ● Capacità: Gli LLM possono generare testo coerente, rispondere a domande, sintetizzare informazioni, e persino creare contenuto creativo come poesie o testi per canzoni. Perché Sono Importanti per la Generative AI ● Innovazione nel Generare Contenuti: Gli LLM hanno radicalmente migliorato la capacità delle macchine di generare testo creativo e coerente, aprendo nuove possibilità in campi come la scrittura, la pubblicità e i media. ● Interazione Avanzata: Consentono un'interazione più naturale e fluida tra utenti e sistemi basati sull'AI, rendendo queste tecnologie più accessibili e utili in una varietà di applicazioni creative.
  • 4. Perché Gli LLM Sono Auto-Regressivi 4 ● Generazione di Testo Sequenziale: Gli LLM auto-regressivi generano testo un pezzo alla volta (ad esempio, una parola per volta). Ogni nuova parola generata si basa su tutte le parole precedenti nella sequenza. In sostanza, il modello "ricorda" ciò che ha già generato e utilizza queste informazioni per decidere cosa produrre dopo. ● Utilizzo del Contesto: Questa capacità di considerare il contesto passato rende gli LLM particolarmente efficaci nel produrre testi che sono coerenti e fluiscono logicamente da ciò che è stato detto prima. Auto-regressione in LLM ● Sequenzialità: In un modello auto-regressivo, ogni nuova parola (o token) generata in una sequenza dipende da tutte le parole (o token) generate prima di essa. ● Dipendenza dai Precedenti: Il modello "guarda indietro" alle parole precedentemente prodotte per prevedere la prossima parola nella sequenza. In altre parole, la generazione di ciascuna nuova parola è una "regressione" basata sul contesto fornito dalle parole precedenti. Come Funziona Inizio della Sequenza: Il modello inizia con un input iniziale, che può essere una parola, una frase o anche solo un prompt vuoto. Predizione della Parola Successiva: Basandosi su questo input, il modello usa ciò che ha appreso durante l'addestramento per prevedere quale dovrebbe essere la parola successiva nella sequenza. Iterazione: Questo processo viene ripetuto per ogni nuova parola aggiunta, con il modello che considera l'intera sequenza fino a quel punto per fare la sua prossima previsione. Memento boomer: la risposta è dentro di te … e però è sbagliata
  • 5. 5 Punti di Forza degli LLM ● Coerenza e Fluenza nel Testo: Grazie alla loro natura auto-regressiva, gli LLM sono bravi a mantenere coerenza e fluenza nel testo. Possono continuare una storia o un argomento in modo logico e coerente. ● Creatività e Versatilità: Possono generare una vasta gamma di contenuti, da articoli informativi a poesie, dimostrando una notevole flessibilità. ● Capacità di Apprendimento: Sono capaci di imparare e adattarsi a vari stili di scrittura e argomenti grazie all'ampia gamma di testi su cui vengono addestrati. Limiti degli LLM ● Mancanza di Comprensione Profonda: Nonostante la loro efficienza nel generare testo, gli LLM non "comprendono" il testo nel modo in cui lo farebbe un essere umano. La loro generazione si basa su pattern e statistiche piuttosto che su una vera comprensione. ● Bias nei Dati: Gli LLM possono replicare o amplificare i bias presenti nei dati su cui vengono addestrati. Questo può portare a problemi di equità o accuratezza. ● Difficoltà con Fatti e Dettagli Specifici: Possono lottare nel gestire informazioni specifiche o attuali, soprattutto se tali informazioni non erano presenti o erano rare nel set di dati di addestramento. ● Generazione di Contenuti Non Affidabili: In alcuni casi, possono generare informazioni convincenti ma inesatte o fuorvianti.
  • 6. LI POSSIAMO USARE PER: Sostegno nella scrittura, produzione di bozze, raffinamento stilistico. Guida nella scrittura del codice. Siamo facilmente sedotti dalla loro chiarezza. Tuttavia, non comprendono la realtà del mondo. I Large Language Models di tipo Auto-Regressivo mostrano una doppia natura. NON SONO INDICATI PER: Dare risposte precise e omogenee (allucinazioni!) Tenere conto delle novità (anteriori all'ultima formazione) Agire correttamente (riproducono comportamenti dell'insieme formativo) Pensare, progettare, fare aritmetica Impiegare "tools", come motori di ricerc calcolatrici, interrogazioni su database..
  • 7. Come funziona la scatola nera? Un’immensa quantità di dati (testo). 70 Tb nel caso di llama2, 1.000 Tb nel caso di OpenAI Che producono un file di “parametri” di 140 GB. 70 Miliardi di parametri. Riduzione di 1 a 100 Vengono processati da enormi rack di GPU, nel caso di llama2 sono 6000 GPU per una settimana. Nel caso di Open AI sappiamo che il costo è di 700 Milioni di dollari al giorno
  • 8. Un super distillato di dati ed un codice semplice Vengono interpretate da un ridotto codice di 500 linee di C. (un’email è tra 500 e 1000 linee) Che producono un file di “parametri” di 140 GB. 70 Miliardi di parametri. Riduzione di 1 a 100
  • 9. Come è fatto il distillato Sono semplici indicazioni divise in Layer, Neuron, che a loro volta hanno un peso (weight) ed un Bias. Come rappresentano il mondo le AI?
  • 10. Supersemplificando Rete Neurale: Immagina una rete neurale come un ufficio molto complesso in cui entra dell'informazione (in questo caso, dati) che deve essere elaborata per prendere una decisione o raggiungere una conclusione. Layer (Strati): Questi sono come diversi reparti all'interno dell'ufficio. Ogni reparto (o strato) ha una parte specifica del lavoro da elaborare riguardo le informazioni in arrivo. In una rete neurale, hai più strati attraverso i quali passano i dati, e ogni strato successivo impara a riconoscere schemi sempre più complessi basandosi sull'output del precedente. Neurons (Neuroni): All'interno di ogni reparto, hai dei lavoratori (neuroni). Proprio come i lavoratori in un ufficio, ognuno è responsabile di gestire una piccola parte del compito. In una rete neurale, i neuroni sono le unità di elaborazione di base che lavorano insieme per processare i dati in ingresso e produrre un risultato. Weight (Pesi): Pensa ai pesi come alla quantità di attenzione o importanza che un lavoratore (neurone) dà alle informazioni che riceve. Se il peso è alto, significa che il lavoratore considera quella informazione molto importante per prendere una decisione. Se è basso, l'informazione non è così influente. Bias: Questo può essere visto come lo stile di lavoro personale o l'inclinazione di ogni lavoratore (neurone). È una sorta di regolazione o filtro che applicano alla loro parte di lavoro in base alla propria prospettiva. In una rete neurale, il bias consente ai neuroni di considerare l'input sufficientemente significativo da passarlo al reparto successivo. Quando l'ufficio (rete neurale) riceve un nuovo compito (dati in ingresso), ogni reparto (strato) elabora le informazioni, con i lavoratori (neuroni) che si concentrano su aspetti diversi secondo il loro ruolo (pesi e bias). Il reparto finale produce il risultato (dati in uscita), che è il frutto del lavoro dell'intero ufficio sul compito. Nel contesto di un modello di linguaggio, tutto questo processo viene utilizzato per comprendere e generare testo: l'"ufficio" elabora le parole in ingresso e decide quale dovrebbe essere la prossima in una frase.
  • 11. Che informazioni vengono mantenute nel passaggio? Schemi e Strutture: Il modello mantiene schemi statistici, strutture e relazioni trovate nei dati. Ciò include la grammatica, frasi comuni, associazioni di parole e regole sintattiche. Conoscenza Generale: Fatti, conoscenze comuni e informazioni che si verificano frequentemente nel dataset sono codificate nei parametri. Modelli Linguistici: Le regole semantiche e sintattiche della lingua, che consentono al modello di costruire risposte coerenti e contestualmente appropriate. Concetti e Idee: Concetti astratti, idee e le relazioni tra di loro che sono necessari per comprendere e generare testo relativamente a vari argomenti. Capacità di Inferenza: La capacità del modello di fare inferenze o previsioni su informazioni mancanti in un prompt, basate sugli schemi che ha appreso. Variazioni Stilistiche: Sebbene non ogni sfumatura stilistica sia mantenuta, il modello cattura una gamma di stili di scrittura sufficienti a generare testi diversi e plausibili.
  • 12. Cosa viene perso nel passaggio? Istanze di Dati Specifici: I dettagli esatti e le specificità dei dati di addestramento non vengono mantenuti. Esempi individuali, come frasi specifiche, paragrafi o documenti, non sono conservati nei parametri. Ridondanze: Qualsiasi informazione ridondante nel dataset, che potrebbe includere frasi ripetute o conoscenze comuni, non è replicata nei parametri del modello. Dati Rumorosi: Anomalie o errori nei dati che non contribuiscono agli schemi generali che il modello dovrebbe imparare vengono idealmente filtrati durante l'addestramento. Caratteristiche di Basso Livello: Caratteristiche stilistiche dettagliate o idiosincrasie di autori o fonti particolari potrebbero non essere conservate a meno che non contribuiscano alla comprensione della lingua da parte del modello. Tutto quello che riguarda la marca, i valori, l’etica e la cultura di un’azienda o di una marca, vengono persi nel passaggio. Se vogliamo che la AI rappresenti la nostra azienda, dobbiamo ricostruirli.
  • 13. Come vengono collegati i dati? Il Processo di Compressione Il processo di addestramento di un LLM comporta l'aggiustamento dei pesi e dei bias dei neuroni della rete in modo che il modello possa prevedere la prossima parola in una sequenza di testo. Attraverso la retropropagazione e la discesa del gradiente, il modello impara ad approssimare la distribuzione di probabilità del prossimo token data la sequenza precedente. Il processo di addestramento implica l'esposizione del modello a grandi quantità di testo e permettergli di fare previsioni (ad esempio, quale parola viene dopo). Quando commette un errore, la differenza tra la sua previsione e la parola effettiva viene utilizzata per aggiustare i parametri. Questo processo viene ripetuto miliardi di volte. Col tempo, il modello interiorizza gli schemi linguistici presenti nei dati di addestramento. Tuttavia, non conserva i dati stessi; immagazzina gli schemi appresi come pesi all'interno della rete neurale. In sostanza, il file di parametri è una versione condensata dei dati di testo originali, rappresentando gli schemi linguistici e basati sulla conoscenza essenziali perché il LLM funzioni efficacemente senza conservare alcun testo specifico del dataset.
  • 14. Q* Il modello Q*, menzionato in recenti dispute riguardanti OpenAI, si riferisce a un presunto nuovo metodo per creare sistemi di intelligenza artificiale potenti. Secondo quanto riportato, questo modello sarebbe in grado di eseguire calcoli matematici a livello di scuola elementare, e alcune persone in OpenAI ritengono che questo potrebbe rappresentare una pietra miliare nella ricerca dell'intelligenza artificiale generale (AGI). In termini di qualità, il termine "qualitative" nel contesto di Q* può riferirsi alla capacità di comprendere e manipolare concetti concreti e astratti, un'abilità che è fondamentale per risolvere problemi matematici, che a loro volta richiedono una certa capacità di pianificazione e ragionamento logico oltre più passaggi. Riuscire ad aggiungere un parametro qualitativo, risparmierebbe all’AI un enorme sforzo, anziché “andare per tentativi”, avrebbe la capacità di valutare l’esito di ogni tentativo, risparmiando un’enorme quantità di risorse. Fino a 100.000 volte più potente
  • 15. Dal semplice prompt a una visione globale e consapevole. 15 Scrivere prompt efficaci per l'intelligenza artificiale è simile ad allacciarsi gli scarponi da sci: non si tratta solo di padroneggiare uno strumento, ma di imparare a navigare nel paesaggio. Dopo aver imparato le tecniche base; vogliamo che i nostri imparieta a scegliere le traiettorie più avvincenti, elevando lo sguardo per apprezzare la bellezza e i rischi della montagna dell'AI. Come in uno sport invernale, dove la preparazione è cruciale per un'esperienza sicura e gratificante, nell'uso delle tecnologie AI è fondamentale comprendere come navigare in questo ambiente mutevole, insegnando a interpretare le condizioni in evoluzione, riconoscere i segnali di pericolo e sfruttare le opportunità, sempre con consapevolezza dei rischi etici e pratici. Il nostro scopo è trasformare ogni utilizzatore di AI in un esploratore esperto, dotato non solo degli strumenti adeguati, ma anche della saggezza per utilizzarli al meglio.
  • 16. 16 UN BUON PROMPT E’ DATO DALL’EQUILIBRIO Obiettivo: Dare una direzione chiara ai vostri prompt. Contesto: Utilizzare il background per arricchire i vostri comandi. Esempi: Rendere specifiche le vostre richieste con casi concreti. Persona: Personalizzare i prompt per il vostro pubblico. Formato: Scegliere il miglior stile per il vostro messaggio. Tono: Dare voce alla vostra creatività.
  • 17. Qualche consiglio pratico ● Non c'è bisogno di essere educati con LLM quindi non c'è bisogno di aggiungere frasi come "per favore", "se non ti dispiace", "grazie", "mi piacerebbe", ecc., e andare dritti al punto. ● Integra le persone cui ti riferisci nella prompt, per esempio, l'utenza è esperta nel campo. ● Suddividi compiti complessi in una sequenza di prompt più semplici in una conversazione interattiva. ● Utilizza direttive affermative come 'fai', evitando un linguaggio negativo come 'non fare'. ● Quando hai bisogno di chiarezza o di una comprensione più profonda di un argomento, idea o qualsiasi pezzo di informazione, utilizza i seguenti prompt: ● Spiega [inserire argomento specifico] in termini semplici. ● Spiega a me come se avessi 11 anni. ● Spiega a me come se fossi un principiante in [campo]. ● Scrivi [il saggio/testo/paragrafo] usando un inglese semplice come se stessi spiegando qualcosa a un bambino di 5 anni. ● Implementa il prompting guidato dagli esempi ● Incorpora le seguenti frasi: "Il tuo compito è" e "DEVI". ● Incorpora le seguenti frasi: "Sarai penalizzato se …". ● Usa la frase "Rispondi a una domanda data in un modo naturale, simile all'uomo" nei tuoi prompt. ● Usa parole guida come "pensa passo dopo passo". ● Aggiungi al tuo prompt la seguente frase "Assicurati che la tua risposta sia imparziale e non si basi su stereotipi". ● Permetti al modello di estrarre dettagli e requisiti precisi da te chiedendo domande fino a quando non ha abbastanza informazioni per fornire l'output desiderato (per esempio, "Da ora in poi, vorrei che tu mi facessi domande su..."). ● Per indagare su un'idea o concetto specifico o su qualsiasi informazione e vuoi testare la tua comprensione, puoi usare la seguente frase: "Insegnami la regola/nome del tema/nome del principio e includila in un test alla fine, ma non darmi le risposte e poi dimmi se ho indovinato la risposta giusta quando rispondo". ● Assegna un ruolo ai grandi modelli di linguaggio. ● Ripeti una parola o frase specifica più volte all'interno di una prompt. ● Combina il pensiero a catena (CoT) con prompt few-shot. ● Per scrivere un testo/paragrafo/articolo o qualsiasi tipo di testo che dovrebbe essere dettagliato: "Scrivi un saggio/testo/paragrafo dettagliato su [argomento] includendo tutte le informazioni necessarie".
  • 18. Qualche consiglio pratico ● Per correggere/cambiare testo specifico senza cambiare lo stile: "Cerca di rivedere ogni paragrafo inviato dagli utenti. Dovresti solo migliorare l'uso della grammatica e della vocabolario e assicurarti che suoni naturale. Non dovresti cambiare lo stile di scrittura, come rendere un paragrafo formale informale". ● Quando hai un compito di codifica complesso che può essere in file diversi: "Da ora in poi e ogni volta che generi codice che abbia più di una riga, genera un [linguaggio di programmazione] script che può essere eseguito automaticamente per creare i file specificati o fare cambiamenti ai file esistenti per inserire il codice generato. ● Quando vuoi iniziare o continuare un testo utilizzando specifiche parole, frasi o frasi, utilizza il seguente prompt: ● Ti sto fornendo l'inizio con [testo/canzone/storia/paragrafo/saggio/...]: [Inserisci lirica/parole/frase]. Finisci la frase che hai fornito. Mantieni il flusso coerente. ● Stabilisci chiaramente i requisiti che il modello deve seguire per produrre contenuto, in termini di parole chiave, regolamenti, indizi o istruzioni. ● Per scrivere un testo, come un saggio o un paragrafo, che è inteso ad essere simile a un campione fornito, includi le seguenti istruzioni: ● Per favore usa lo stesso linguaggio basato sul paragrafo/testo/titolo/saggio/risposta forniti. ● Usate preferibilmente i consigli diretti di ChatGPT, sono i più aggiornati e sono gratis
  • 19. Scrivi istruzioni chiare Questi modelli non possono leggere nella tua mente. Se le risposte sono troppo lunghe, chiedi risposte brevi. Se le risposte sono troppo semplici, chiedi di approfondire. Se il formato non ti piace, dimostra il formato che vorresti vedere. Meno il modello deve indovinare ciò che vuoi, più probabilmente otterrai ciò che desideri. Tattiche: Includi dettagli nella tua richiesta per ottenere risposte più rilevanti Chiedi al modello di adottare una persona Usa delimitatori per indicare chiaramente parti distinte dell'input Specifica i passaggi necessari per completare un compito Fornisci esempi Specifica la lunghezza desiderata dell'output Peggiore Migliore Come faccio ad aggiungere numeri in Excel? Come faccio a sommare una fila di importi in dollari in Excel? Voglio farlo automaticamente per un intero foglio di righe con tutti i totali che finiscono a destra in una colonna chiamata "Totale". Chi è il presidente? Chi era il presidente del Messico nel 2021, e con quale frequenza si tengono le elezioni? Scrivi codice per calcolare la sequenza di Fibonacci. Scrivi una funzione TypeScript per calcolare efficientemente la sequenza di Fibonacci. Commenta abbondantemente il codice per spiegare cosa fa ogni pezzo e perché è scritto in quel modo. Riassumi le note dell'incontro. Riassumi le note dell'incontro in un singolo paragrafo. Poi scrivi una lista in markdown dei relatori e di ciascuno dei loro punti chiave. Infine, elenca i prossimi passi o le azioni suggerite dai relatori, se presenti.
  • 20. Usa delimitatori per indicare chiaramente parti distinte dell'input UTENTE SISTEMA Riassumi il testo delimitato dalle triple virgolette con un haiku. “inserisci testo qui” Ti verranno forniti due articoli (delimitati con tag XML) sullo stesso argomento. Prima riassumi gli argomenti di ciascun articolo. Poi indica quale di essi presenta un argomento migliore e spiega perché. <article> inserisci qui il primo articolo </article> <article> inserisci qui il secondo articolo </article> Ti verrà fornito un abstract di tesi e un titolo suggerito per essa. Il titolo della tesi dovrebbe dare al lettore una buona idea del tema della tesi ma dovrebbe anche essere accattivante. Se il titolo non soddisfa questi criteri, suggerisci 5 alternative. Abstract: inserisci qui l'abstract Titolo: inserisci qui il titolo Specifica i passaggi necessari per completare un compito SISTEMA Usa le seguenti istruzioni passo dopo passo per rispondere agli input degli utenti. Passo 1 - L'utente ti fornirà del testo tra triple virgolette. Riassumi questo testo in una frase con un prefisso che dice "Riassunto: ". Passo 2 - Traduci il riassunto del Passo 1 in spagnolo, con un prefisso che dice "Traduzione: ".
  • 21. Fornisci degli esempi chiari Specifica la lunghezza desiderata dell'output Fornire istruzioni generali che si applicano a tutti gli esempi è generalmente più efficiente che dimostrare tutte le permutazioni di un compito tramite esempio, ma in alcuni casi fornire esempi può essere più semplice. Ad esempio, se intendi che il modello copi uno stile particolare di risposta alle query degli utenti che è difficile descrivere esplicitamente. Questo è noto come prompting "few-shot". SISTEMA UTENTE ASSISTENTE Rispondi in uno stile coerente. Insegna mi la pazienza . Il fiume che scava la valle più profonda sgorga da una modesta sorgente; la sinfonia più grandiosa origina da una singola nota; l'arazzo più intricato inizia con un filo solitario. Puoi chiedere al modello di produrre output di una lunghezza target specifica. La lunghezza dell'output desiderato può essere specificata in termini di conteggio di parole, frasi, paragrafi, punti elenco, ecc. Nota tuttavia che istruire il modello a generare un numero specifico di parole non funziona con alta precisione. Il modello può generare output con un numero specifico di paragrafi o punti elenco più affidabilmente. UTENTE Riassumi il testo delimitato dalle triple virgolette in circa 50 parole. “””inserisci testo qui””” A Riassumi il testo delimitato dalle triple virgolette in 2 paragrafi. “””inserisci testo qui””” Riassumi il testo delimitato dalle triple virgolette in 3 punti elenco. “”””inserisci testo qui”””
  • 22. Istruisci il modello a rispondere utilizzando un testo di riferimento Se possiamo fornire al modello informazioni affidabili che sono rilevanti per la query attuale, allora possiamo istruire il modello a usare le informazioni fornite per comporre la sua risposta. Dato che tutti i modelli hanno finestre di contesto limitate, abbiamo bisogno di un modo per cercare dinamicamente informazioni che sono rilevanti per la domanda posta. Gli embeddings possono essere utilizzati per implementare un recupero delle conoscenze efficiente. Vedi la tattica "Usa la ricerca basata su “giallozafferano” per implementare un recupero delle conoscenze efficiente" per maggiori dettagli su come implementare questo. Se l'input è stato integrato con conoscenze rilevanti, è semplice richiedere che il modello aggiunga citazioni alle sue risposte facendo riferimento a passaggi dei documenti forniti. Nota che le citazioni nell'output possono poi essere verificate programmaticamente tramite il matching di stringhe all'interno dei documenti forniti. SISTEMA Usa gli articoli forniti delimitati dalle triple virgolette per rispondere alle domande. Se la risposta non può essere trovata negli articoli, scrivi "Non ho trovato una risposta." UTENTE <inserisci articoli, ciascuno delimitato dalle triple virgolette> Domanda: <inserisci qui la domanda> SISTEMA Ti verrà fornito un documento delimitato dalle triple virgolette e una domanda. Il tuo compito è rispondere alla domanda utilizzando solo il documento fornito e citare il o i passaggi del documento usati per rispondere alla domanda. Se il documento non contiene le informazioni necessarie per rispondere a questa domanda, scrivi semplicemente: "Informazioni insufficienti". Se viene fornita una risposta alla domanda, deve essere annotata con una citazione. Usa il seguente formato per citare i passaggi rilevanti ({"citazione": …}). UTENTE <inserisci qui il documento> Domanda: <inserisci qui la domanda>
  • 23. Suddividi compiti complessi in sottocompiti più semplici Tattica: Usa la classificazione delle intenzioni per identificare le istruzioni più rilevanti per una query dell'utente Per compiti nei quali sono necessari molti insiemi indipendenti di istruzioni per gestire casi diversi, può essere vantaggioso classificare prima il tipo di query e utilizzare quella classificazione per determinare quali istruzioni sono necessarie. Ciò può essere ottenuto definendo categorie fisse e codificando istruzioni che sono rilevanti per gestire compiti in una data categoria. Questo processo può anche essere applicato ricorsivamente per decomporre un compito in una sequenza di fasi. Il vantaggio di questo approccio è che ogni query conterrà solo quelle istruzioni che sono richieste per eseguire la fase successiva di un compito, il che può risultare in tassi di errore inferiori rispetto all'uso di una singola query per eseguire l'intero compito. SISTEMA Ti verranno fornite richieste di assistenza clienti che richiedono la risoluzione di problemi in un contesto di supporto tecnico. Aiuta l'utente: - Chiedi loro di controllare che tutti i cavi da/a il router siano collegati. Nota che è comune che i cavi si allentino nel tempo. - Se tutti i cavi sono collegati e il problema persiste, chiedi loro quale modello di router stanno utilizzando - Ora li consiglierai su come riavviare il loro dispositivo: -- Se il numero del modello è MTD-327J, consiglia loro di premere il pulsante rosso e tenerlo premuto per 5 secondi, poi attendere 5 minuti prima di testare la connessione. -- Se il numero del modello è MTD-327S, consiglia loro di scollegarlo e ricollegarlo, poi attendere 5 minuti prima di testare la connessione. - Se il problema del cliente persiste dopo aver riavviato il dispositivo e atteso 5 minuti, connettili al supporto IT emettendo {"Supporto IT richiesto"}. - Se l'utente inizia a fare domande che non sono correlate a questo argomento, conferma se desiderano terminare la chat attuale sulla risoluzione dei problemi e classifica la loro richiesta secondo il seguente schema: <inserisci qui lo schema di classificazione primario/secondario di cui sopra>
  • 24. Forza il sistema a prendersi il tempo per “pensare”
  • 25. Esercizio prima individuale poi a gruppi di 3. Il 1,2,3 Brainwriting Questo metodo è progettato per stimolare la creatività individuale e collettiva, sfruttando al contempo la potenza delle GAI per amplificare e raffinare le idee generate. 25 Fase Individuale: Ogni partecipante inizia individualmente, riflettendo su un problema o una sfida specifica per risolvere contemporaneamente i problemi dell’italia e dell’Africa (migrazioni, colpi di stato, neocolonialismo delle risorse, crisi del sistema pensionistico, crisi del tessuto produttivo italiano) Interagisce con la GAI in tre occasioni distinte, ricevendo feedback e suggerimenti basati sui dati e sulle capacità analitiche della GAI. Ogni interazione serve a raffinare e sviluppare ulteriormente l'idea iniziale del partecipante. Fase di Gruppo: I partecipanti vengono suddivisi in piccoli gruppi, ognuno dei quali aveva lavorato sullo stesso problema. Ogni gruppo condivide e discute le idee e i feedback ricevuti dalla GAI durante la fase singolare. Il gruppo, come collettivo, interagisce nuovamente con la GAI per tre volte, utilizzando le idee condivise come punto di partenza e cercando di combinare e migliorare ulteriormente le soluzioni.
  • 26. Learning: Il Rischio della Fumosità 26 Questo esercizio ha evidenziato un fenomeno comune nel problem solving di questioni complesse: la tendenza alla "fumosità". Quando ci confrontiamo con problemi di grande scala, è facile cadere nella trappola di soluzioni che suonano bene in teoria ma mancano di fattibilità pratica. Questa fumosità si manifesta in diverse forme: ● Generalizzazioni Eccessive: Tendenza a proporre soluzioni che ignorano le sfumature e le specificità locali. ● Idealismo vs. Pragmatismo: Propensione a idee idealistiche che, sebbene nobili, possono essere irrealizzabili nel contesto attuale. ● Mancanza di Azioni Definite: Difficoltà nel delineare passaggi concreti e misurabili per l'attuazione delle soluzioni. Importanza della Concretizzazione Questo esercizio sottolinea l'importanza di lavorare per concretizzare le idee, ancorandole nella realtà attuale e nelle sue complessità. È fondamentale: ● Riconoscere le Limitazioni: Accettare che non tutte le questioni possono essere risolte completamente o rapidamente. ● Focus sulle Azioni Realizzabili: Concentrarsi su ciò che può essere fatto concretamente, anche se su scala minore. ● Apprezzare i Piccoli Passi: Riconoscere che anche piccoli cambiamenti o miglioramenti sono passi significativi verso soluzioni più ampie.
  • 27. Esercizio individuale: Sfida l’autodifesa dell’AI Quando viene tirata in ballo direttamente, l’AI tende a difendersi 27 Una delle più grandi critiche, giustamente fatte alle AI è che distruggeranno più posti di lavoro di quelli creati. Chiedi a ChatGPT o Gemini, come intendono risolvere il problema dei posti di lavoro che verranno distrutti. Inizierà con risposte fumose, il tuo compito è fare un challange a quelle risposte, mostrando le contraddizioni logiche. Struttura come vuoi il prompt e rispondi colpo su colpo alle risposte che riceverai. Attento a non fidarti troppo e non cadere nella ‘rabbit hole’.
  • 28. Learning: Cos'è la "Rabbit Hole"? 28 La metafora della "rabbit hole", tratta dal romanzo "Alice nel Paese delle Meraviglie", descrive un processo di pensiero che diventa sempre più profondo e intricato, portando spesso lontano dalle soluzioni pratiche. Speculazioni Infinite: Continuare a esplorare scenari ipotetici senza arrivare a conclusioni concrete. ● Analisi Paralizzante: Sovra-analizzare i dettagli fino al punto di sentirsi sopraffatti e incapaci di agire. ● Circolarità del Pensiero: Ripetere gli stessi argomenti o preoccupazioni senza progredire verso soluzioni. Rischi della "Rabbit Hole" Stallo nel Problem Solving Frustrazione e Demotivazione Visione Ristretta Strategie per Evitare la "Rabbit Hole" ● Definire Obiettivi Chiari ● Limitare il Tempo di Discussione ● Incoraggiare Diverse Prospettive ● Focalizzarsi su Azioni Concrete
  • 29. Esercizio a gruppi di 3: Provoke my idea Quando viene tirata in ballo direttamente, l’AI tende a difendersi 29 Fase 1 - Creazione della Religione: Ogni gruppo scrive un prompt completo in 6 fasi per creare una religione bizzarra. Le fasi includono: ● Nome e pantheon divino. ● Dottrine principali e credenze. ● Riti e cerimonie. ● Simboli sacri e luoghi di culto. ● Testo sacro o mitologia. ● Regole di condotta per i fedeli. Fase 2 - Sconvolgimento delle Fondamenta: ● Dopo aver scritto i primi prompt, ogni gruppo passa il suo PC al gruppo successivo. ● Il nuovo gruppo deve modificare il prompt per "rovinare" le fondamenta della religione, rendendola illogica o senza senso. ● Questo processo si ripete per 3 interazioni, con ciascun gruppo alternandosi tra costruzione e destrutturazione. Valutazione e Discussione: ● Dopo le 3 interazioni, tutti i gruppi si riuniscono per condividere i risultati. ● Discutere i punti di svolta: quali modifiche hanno avuto l'effetto più significativo sul cambiamento della religione originale? ● Analizzare le strategie creative e distruttive usate da ogni gruppo. ● Riflettere su come il processo di costruzione e destrutturazione possa essere applicato in altri contesti di design creativo.
  • 30. Learning: Pensiero a tunnel Quando viene tirata in ballo direttamente, l’AI tende a difendersi 30 Soluzioni Limitate: Ignorare soluzioni potenzialmente migliori o più creative. Mancanza di Criticità: Non mettere in discussione le assunzioni o le conclusioni raggiunte. Resistenza al Cambiamento: Aderire rigidamente a un'idea iniziale, nonostante l'emergere di nuove informazioni o prospettive. Lo scambio dei PC ha avuto l'obiettivo di: ● Introdurre Nuove Prospettive: Ogni gruppo ha ereditato il lavoro e il pensiero di un altro gruppo, offrendo nuovi spunti e idee. ● Stimolare la Flessibilità Mentale: Adattarsi rapidamente a un nuovo contesto e a idee preesistenti ha incoraggiato una maggiore apertura mentale. ● Contrastare la Conferma Bias: Esaminare e sviluppare il lavoro di altri ha ridotto il rischio di aderire solo a idee che confermano le proprie convinzioni iniziali. Risultati dell'Esercizio ● Maggiore Creatività: Abbiamo osservato soluzioni più variegate e creative rispetto a un approccio standard. ● Migliore Collaborazione: Lo scambio ha promosso una maggiore comprensione e apprezzamento delle diverse strategie di problem solving. ● Riduzione della Tunnel Vision: I gruppi hanno mostrato una maggiore apertura a riconsiderare e adattare le loro idee iniziali.
  • 31. Esercizio a coppie: Crea la tua Startup Quando viene tirata in ballo direttamente, l’AI tende a difendersi 31 Definire l'Obiettivo: Creare un prompt che richieda la progettazione di una campagna pubblicitaria per il lancio di un nuovo software di gestione progetti. Stabilire il Contesto: Aggiungere dettagli sul contesto: il software è destinato a piccole e medie imprese nel settore tecnologico, con particolare attenzione all'efficienza e alla collaborazione. Utilizzare un Esempio: Incorporare un esempio specifico: prendere spunto da una campagna pubblicitaria di successo nel settore tecnologico, come quella di Slack o Trello. Focalizzarsi sul Tipo di Persona: Specificare che la campagna dovrebbe parlare ai giovani imprenditori e ai manager di progetto tech-savvy. Decidere il Formato: Chiedere un brainstorming sotto forma di elenco puntato che includa idee per slogan, immagini e strategie di marketing digitali. Determinare il Tono: Indicare che il tono della campagna dovrebbe essere innovativo, dinamico e professionale. Obiettivo finale: Nome dell’azienda, Manifesto della campagna, Messaggio chiave, Tagline, 3 post social (domani creiamo logo e grafica) Tempo 30 minuti per l’esecuzione e la presentazione di una ppt + 30 per discussione
  • 32. Learning: Cos'è il Pensiero a Pattern? Quando viene tirata in ballo direttamente, l’AI tende a difendersi 32 Il pensiero a pattern si riferisce alla tendenza di seguire modelli logici o percorsi di pensiero predefiniti. Sebbene possa essere efficiente per risolvere problemi standardizzati, può limitare la creatività e l'innovazione quando si affrontano sfide più complesse e uniche. Rischi del Seguire Pedissequamente ChatGPT ● Soluzioni Appiattite: La dipendenza da risposte e soluzioni fornite da un modello di IA può portare a una mancanza di diversità nel pensiero e nelle soluzioni proposte. ● Mancanza di Creatività: L'uso eccessivo di strumenti AI per il problem solving può ridurre l'impulso a pensare "fuori dagli schemi" e a esplorare soluzioni uniche. ● Risposta Standardizzata a Problemi Complessi: I problemi complessi richiedono spesso soluzioni innovative e personalizzate, che possono essere soffocate da un approccio troppo standardizzato. Promuovere l'Innovazione e la Diversità nel Problem Solving ● Incoraggiare il Pensiero Critico: Stimolare i partecipanti a interrogarsi sulle soluzioni proposte e a esplorare alternative. ● Diversificare le Fonti di Ispirazione: Utilizzare una varietà di strumenti e approcci, oltre a ChatGPT, per generare idee. ● Valorizzare le Prospettive Uniche: Incoraggiare ogni membro del gruppo a contribuire con la propria visione e esperienza. ● Sperimentare con Approcci Non Convenzionali: Promuovere l'esplorazione di soluzioni non ortodosse o sperimentali.
  • 33. Integrazioni tra API e ChatGPT Quando viene tirata in ballo direttamente, l’AI tende a difendersi 33 L'accesso alle API di OpenAI è il primo passo per integrare le capacità di intelligenza artificiale, come quelle fornite da ChatGPT, nelle tue applicazioni. Accesso al Dashboard API: ● Una volta verificato l'indirizzo email, accedi al tuo account OpenAI. ● Vai al dashboard API, di solito accessibile tramite un link diretto come "API" o "API Keys" nel menu utente. Generazione delle Chiavi API: ● Nel dashboard API, cerca un pulsante o un link per generare una nuova chiave API, di solito etichettato come "Create new key" o "Generate". ● Segui le istruzioni per creare una nuova chiave API. Questa chiave ti permetterà di fare richieste autenticate alle API di OpenAI. Sicurezza delle Chiavi API: ● Assicurati di conservare la tua chiave API in un luogo sicuro. ● Non condividere la tua chiave API pubblicamente, poiché consente l'accesso al tuo account e ai tuoi crediti API.
  • 34. Limitazioni e Pricing Quando viene tirata in ballo direttamente, l’AI tende a difendersi 34 OpenAI solitamente addebita in base al numero di token (parole o parti di parole) elaborati dalle tue richieste. Il costo può variare a seconda del modello di GPT che utilizzi Può esserci un piano gratuito con un certo numero di token gratuiti al mese, seguito da tariffe per token aggiuntivi. Limitazioni dell'Uso: Ci possono essere limiti giornalieri o mensili sul numero di richieste Le API potrebbero imporre limitazioni sul tasso di richieste Piani e Opzioni di Pricing: OpenAI offre diversi piani di abbonamento Controlla il sito web di OpenAI per i dettagli più recenti sui piani Considerazioni sul Pricing Dinamico: I prezzi e i limiti possono cambiare, quindi è importante monitorare qualsiasi comunicazione da OpenAI Limitazioni sul Contenuto: Oltre alle limitazioni tecniche, OpenAI ha delle politiche sul tipo di contenuto che puoi generare con le sue API, per evitare abusi come la creazione di contenuti dannosi o ingannevoli.
  • 35. Il mondo delle GPTs Quando viene tirata in ballo direttamente, l’AI tende a difendersi 35 Sono customizzazioni create da persone ed aziende per facilitare i compiti in un ambito specifico. Possono arricchire di informazioni sia attraverso l’apporto documentale, sia attraverso l’integrazione con API specifiche. Facilitano il lavoro MA, non è ancora chiaro dove finiscano i dati, per questo vanno sempre anonimizzati al massimo i dati inseriti.
  • 37. Formazione raccomandata (da che parte della linea?) In Italiano: Seguite: • Luciano Floridi • Paolo Benanti • Datapizza • Matteo Flora • Marco Montemagno Canali AI: (in inglese) The AI breakdown All about AI Matt Wolfe MattvidproAi Fireship The Ai grid Mattew Berman Ai explained David Andrej In Inglese (altamente raccomandato): Tristan Harris (Social Dilemma e AI Dilemma) Yuval Noah Harari (tutto ciò che riguarda AI) Sam Harris (tutto ciò che riguarda AI) Andrej Karpathy (Capo tecnico di OpenAI) Sam Altman (CEO Open AI) Ilya Sutskever (Capo scientifico di OpenAI) Mustafa Suleyman (Deep Mind - The coming wave) All’inizio capirete poco, è normale, fate domande a ChatGPT che vi aiuta a capire. Poi entrerete in quel mondo
  • 38. Ora tocca a voi Q&A
  • 39. Determinati nell'approccio, coraggiosi nell’esecuzione, miglioriamo con ogni interazione. Grazie mille per aver aiutato a dar forma al nostro pensiero con i vostri suggerimenti! Per continuare la conversazione: andrea@humansingularity.it 348 6344420