Speciale
Prompt
Abbiamo imparato a dire "Pronto" rispondendo al telefono ma nessuno ci ha mai spiegato bene perché. Per tutte le cose c'è la conoscenza dell'utente che sa farle funzionare e quella del tecnico che sa come funzionano. Il pilota e il meccanico di Formula Uno conoscono bene l'auto ma la conoscenza che ne hanno non è la medesima; così, in quanto al pianoforte, il concertista e l'accordatore; così, in quanto ai muscoli, il pugile e il massaggiatore. È così anche in quanto al linguaggio e a quelle abitudini espressive che abbiamo acquisito senza chiedercene il senso originario. Diciamo "Pronto", la telefonata comincia usualmente e tanto ci basta, come è giusto.
La regola completa sarebbe domandare "Pronto?" quando qualcuno risponde a una nostra chiamata e chiedere "Pronto, chi parla?" quando rispondiamo a una chiamata altrui. La formula è invalsa all'esordio delle telecomunicazioni, quando le connessioni erano tecnicamente assai precarie e così il chiamante doveva preventivamente accertarsi che il chiamato fosse in grado di parlare. Malgrado la relativa opacità acquisita nel distacco dalle circostanze originarie, questa formula è diventata l'esempio preferito da linguisti e semiologi per chiarire il concetto di "funzione fàtica del linguaggio": non parliamo soltanto per esprimerci, spiegarci, esortare ma anche per controllare di essere effettivamente in contatto con l'interlocutore.
Prompt è la traduzione inglese di "pronto" e per molti significati i due aggettivi coincidono. Non per l'uso telefonico italiano seppure l'inglese prompt ha a sua volta un'accezione relativa alla comunicazione mediata da apparecchi. In inglese la parola è anche un sostantivo con il significato di "suggerimento, imbeccata" (nonché un verbo per "suggerire") e nel più annoso gergo informatico già nominava la richiesta di input da parte della macchina. La prima meraviglia che Alice incontra scendendo nel Paese delle Meraviglie è la bottiglietta con la scritta "Bevimi!": quello è un esempio di prompt, degno di meraviglia (wonder!) perché non è comune che siano gli oggetti a rivolgersi a noi. Almeno all'epoca di Alice era del tutto fuori dall'ordine delle cose.
Dopo molti anni, e progressi ormai impetuosi nel rapporto tra esseri umani e macchine, nell'accezione attualmente più comune il prompt è la richiesta con cui, per il tramite del bot di interfaccia, si richiede a un sistema di Intelligenza Artificiale Generativa che produca quel che si desidera produca. Il modo di formulare questa richiesta è cruciale per il suo buon esito e ha generato un'attività che è un po' una tecnica, un po' una disciplina e un po' un'arte e viene chiamata "prompting" o "prompt engineering" o anche "prompt design". Come spiega Niccolò Monti nel suo recente Prompting. Poetiche e politiche dell'intelligenza artificiale (Tlon, Roma 2025), di fronte all'incremento dimensionale dei dataset necessari perché la macchina faccia la sua parte nell'interazione con gli esseri umani, il prompt non solo consente a chiunque, e a qualsiasi livello di competenza, di interagire con la macchina stessa ma ha l'effetto di migliorare la capacità del sistema di formulare risposte. Un brivido percorre il filosofo della conoscenza che ha sempre speculato sull'importanza euristica della domanda. Ce lo ha insegnato prima di tutti la maieutica di Socrate: per arrivare a conoscere occorre avere in testa la domanda giusta, e Socrate l'aveva sempre. Sapevamo già che è così per il ricercatore, per l'investigatore, per l'intervistatore, persino per l'enigmista. Ma è così anche per le macchine?
Proprio qui sorge la questione che completa la formula telefonica italiana. Bene il prompt: ma si può sapere chi parla? Nelle nove puntate del presente lemmario e in questa decima che lo conclude, la domanda di ricerca è sempre stata quella contenuta nel gioco di parole della testata: "Prompt, chi parla?". Chi ci sta rispondendo dall'altra parte di quell'apparecchio tanto più complesso del buon vecchio telefono? Naturalmente chiedendo "chi" si sta già ipotizzando un tipo di soggettività che appartiene al campo delle persone e non a quello delle cose: un soggetto, e non un oggetto. L'idea che la Rete, innervata dai sistemi AI e stimolata dai nostri prompt, finisca per produrre una propria soggettività serpeggia soprattutto fra gli operatori, come timore o come speranza (l'aveva persino prefigurata Primo Levi in un racconto del 1971, "A fin di bene"). Come proprio Monti ci ricorda, a rendere l'"oggetto tecnico" somigliante a un "soggetto tecnico" è l'esperienza che ne facciamo: un'interfaccia che risponde come in una conversazione e produce effettivamente quel che gli chiediamo assomiglia più a un collaboratore (se non proprio a un supplente) che a una penna stilografica o a un dizionario o anche al software Word o insomma a qualsiasi altro strumento con cui svolgiamo il nostro lavoro.
A pensarci bene quando rispondendo al telefono diciamo "Pronto" (e non colleghiamo più quella che per noi è divenuta una specie di formula rituale all'originaria esigenza di controllare il funzionamento del canale di comunicazione) noi stessi ci comportiamo esattamente come una macchina: mettiamo in campo un automatismo. Come si diceva all'inizio: sappiamo come far funzionare l'interazione ma non sappiamo perché funzioni proprio così. Quante volte parliamo meccanicamente, senza pensare a quello che stiamo dicendo ma semplicemente seguendo una specie di onda, assecondando un moto che pare attraversarci? Non è ipnosi o invasamento. È piuttosto funzionamento rituale di certe interazioni sociali. Incombenze comunicative sbrigate con quella che sarebbe una sorta di mano sinistra cognitiva. Esistono mansioni ripetitive anche nel campo della comunicazione e infatti ci sono sketch umoristici sugli speaker radiofonici, sulle voci dei vecchi radiotaxi... Sketch che funzionano secondo la vecchia ricetta bergsoniana della comicità: l'essere umano che si comporta come una macchina. Ora però non ridiamo della nostra pretesa di vedere nelle macchine un comportamento umano.
La differenza fra linguaggio umano e linguaggio meccanico non è sempre visibile, perché anche gli esseri umani possono esprimersi con parole vuote. Nella psicoanalisi di Jacques Lacan la "parola vuota" è quella "in cui il soggetto sembra parlare invano di qualcuno che, gli somigliasse anche fino a trarre in inganno, mai si unirà all'assunzione del suo desiderio". E già nella conferenza del 1953, considerata l'inizio del suo magistero, lo stesso Lacan paragonava l'interlocuzione umana con il rapporto con la macchina: "Se ora mi pongo davanti all'altro per interrogarlo, nessun apparecchio cibernetico, per quanto ricco possiate immaginarlo, può fare di ciò che è la risposta una reazione". Per "risposta" qui Lacan intende il secondo termine dell'accoppiamento "stimolo / risposta": e lo stimolo, nei termini a noi contemporanei, sarebbe appunto il prompt. Ma allora chi è a parlare, in risposta?

In semiotica il problema di "chi parla?" è affrontato dalla teoria dell'enunciazione. In uno dei modelli più recenti proposti al riguardo, Claudio Paolucci (Parola) osserva che per quanto ognuno sia convinto di parlare in prima persona quel che dice è il prodotto della concatenazione fra ciò che vuole effettivamente dire e regole, norme, usi, stereotipi, enunciazioni precedenti. Questa teoria ha, sia pure di poco, preceduto gli imprevedibili sviluppi dei sistemi generativi, che sembrano far fare alla questione passi in avanti nella medesima direzione indicata da Paolucci. La loro capacità di formulare (per esempio) testi linguistici, senza che si possa dire che stiano "copiandoli", è fondata sulla rielaborazione di enunciazioni precedenti (il dataset) e sulla facoltà di emulare le norme, gli usi, gli stereotipi, le regole di genere non per via di una intenzionalità della macchina ma grazie all'interazione tra macchina e essere umano. La macchina ha dalla sua la sagacia statistica, per cui riproduce, per esempio, il tono giusto da impiegare nell'incipit di un testo, a seconda che si tratti di un articolo di giornale o di un saggio scientifico. Nel suo addestramento non vi è alcun catalogo di norme di genere: non ne ha bisogno perché già dal percorrimento del dataset risulta più probabile un tipo di incipit rispetto a un altro. Ma questa sagacia statistica resterebbe inerte, e inutile, se non ci fosse il prompt umano a chiedere su un dato argomento proprio un articolo di giornale o proprio un saggio scientifico. È vero che uno dei modi migliori per elaborare un prompt efficace consiste nel chiedere alla macchina stessa di formularlo, ma per ordinarglielo occorrerà un altro prompt1, eventualmente ottenibile tramite da un prompt2 e così, volendo, via, in una progressione indefinita che per quanto possa prolungarsi dovrà sempre prevedere un Primo Prompt umano.
È per questo che esperimenti come quelli proposti a più riprese dal quotidiano Il Foglio (quando ha pubblicato prima articoli e poi intere pagine prodotte tramite l'Intelligenza Artificiale Generativa) per essere davvero significativi dovrebbero essere corredati non soltanto dal riferimento all'origine artificiale ma anche dal prompt tramite cui sono stati ottenuti. Altrimenti ChapGPT o comunque il sistema impiegato appare come l'automa degli scacchi, il cosiddetto "Turco meccanico": un'attrazione che negli ultimi decenni del Settecento e nei primi dell'Ottocento vinceva impegnativa sfide di scacchi, ma in realtà era animato nascostamente da un maestro scacchista di bassissima statura, nascosto nei suoi anfratti e dotato di sistemi ottici e magnetici per vedere la scacchiera e interagire. Non c'è proporzione tra le facoltà rispettive dei due apparati meccanici di ChatGPT e del Turco: ma in entrambi i casi quel che emerge è che per lo stupore del pubblico è essenziale dissimulare la parte umana dell'accoppiamento umano/macchina. L'ultimo tocco umano è quello di cancellare le proprie tracce e fare mostra che la macchina funzioni da sé.
Nel caso attuale la macchina non si limita a spostare pezzi su una scacchiera ma emana testi perfettamente dotati di senso e stilisticamente indistinguibili o quasi da testi di diverso tipo e di generazione schiettamente umana. Sta a noi decidere se quelli che produce la macchina siano enunciati e se la sua sia dunque una nuova forma di enunciazione (in un recente articolo Paolucci se ne dice convinto, anzi lo dà per presupposto); o piuttosto se per esserci enunciazione occorre un livello di comprensione semantica che alla macchina è inibito, per il semplice fatto che è una macchina e non è dotata di un organismo multisensoriale e consapevole.
Nel suo Trattato di semiotica generale (Bompiani, 1975) Umberto Eco aveva sorprendentemente incluso tra i modi di produrre segni il riconoscimento: oggi ne possiamo valutare tutta la lungimiranza. Il produttore è l'interprete e questo può apparire come un paradosso. La lepre lascia l'orma, la produce materialmente, certo, ma in realtà la sua non è enunciazione. A produrre l'orma come segno non è la zampa della lepre ma è l'occhio dell'essere umano che la riconosce appunto come orma di lepre e le conferisce il significato pertinente (una lepre è passata di qui), in relazione agli scopi dell'essere umano (cacciatore, animalista, etologo, escursionista curioso).
Fra riconoscimento del segno di un animale selvatico e la produzione di un buon paper universitario da parte di ChatGPT passano millenni di evoluzione e cultura umana, la cultura che oggi ci porta a identificare non soltanto orme nel bosco sotto i nostri occhi ma tracce di gas a produzione organica in un pianeta ad anni luce di distanza dal nostro. Ma in entrambi i casi si tratta sempre di dare senso a qualcosa che "non sa" di averne.
L'interazione con le macchine che produciamo è arrivata al punto che nessuno sa più esattamente come funzionino, possiamo soltanto imparare a farle funzionare. Questo dà una sensazione di raggiunta autonomia, e un'impressione di potenziale intenzionalità, da parte delle macchine stesse e ormai guardiamo a esse con una sorta di sgomento soddisfatto. In effetti la nostra interazione con esse ora può dare risultati impensabili e in ogni ambito si appura il livello di potenza raggiunto. La macchina assembla quel che è stato detto, che quindi può essere ridetto e ha molte probabilità di risultare sensato (se non vero). Lo fa a partire da una base di documentazione e da una capacità sintattica (cioè di concatenazione degli elementi che reperisce per via statistica) senza precedenti. Ma già una teoria transpersonale dell'enunciazione come quella di Paolucci prevedeva un soggetto che alla fine del processo assuma il risultato dell'accoppiamento fra sé e gli usi, le norme, le enunciazioni precedenti depositate nell'enciclopedia (intesa come repertorio delle unità e delle modalità culturali socialmente condiviste; Eco 1984).
I sistemi generativi di Intelligenza Artificiale svolgono una parte del processo di enunciazione e questo cambierà molto nella produzione testuale: anzi, lo sta già facendo. Da qui non si potrà più prescindere. Ma qualsiasi processo di enunciazione prende inizio da uno stimolo intenzionato e si completa soltanto con una supervisione semantica e una presa di responsabilità pragmatica da parte di un soggetto consapevole, dotato di apparato multisensoriale e capace di attribuzione di senso.
Prompt, supervisione e assunzione garantiscono così che in qualsiasi enunciazione materialmente prodotta da un qualsiasi sistema generativo sia sempre presente, e necessariamente, una quota umana.
Riferimenti bibliografici:
Umberto Eco, Trattato di semiotica generale, Bompiani, 1975.
Umberto Eco, Semiotica e filosofia del linguaggio, Einaudi, 1984.
Jacques Lacan, "Funzione e campo della parola e del linguaggio in psicoanalisi", in Scritti, edizione italiana a cura di Giacomo B. Contri, Einaudi, 1974 [ed. orig. 1966].
Luigi Lobaccaro, "Atti d'enunciazione e pratiche incarnate: una prospettiva semiotico-cognitiva", Rivista Italiana di Filosofia del Linguaggio, 2024.
Niccolò Monti, Prompting. Poetiche e politiche dell'intelligenza artificiale, Tlon, 2025.
Claudio Paolucci. Persona. Soggettività nel linguaggio e teoria dell'enunciazione, Bompiani, 2018
Claudio Poloucci, "The myth of meaning: generative AI as language-endowed machines and the machinic essence of the human being" Semiotica, De Gruyter Mouton, 2025.
Edgar Allan Poe, Il giocatore di scacchi di Maelzel (1836)
Prompt, Chi parla? Voci raccolte da Stefano Bartezzaghi, speciale in collaborazione con MAgIA, Magazine Intelligenza Artificiale. Leggi la rivista qui.
Leggi anche:
Stefano Bartezzaghi | Falso
Stefano Bartezzaghi | Mistificazione
Stefano Bartezzaghi | Evidenza
Stefano Bartezzaghi | Voce
Stefano Bartezzaghi | Memoria
Stefano Bartezzaghi | Creatività
Stefano Bartezzaghi | Gioco
