13 febbraio 2023

​L'intelligentone

​ChatGpt non sa quello che dice?

Gli potete chiedere di scrivere i testi di una canzone di Bob Dylan sul riscaldamento globale. Per noi ha prodotto una roba plausibile, bruttina che comincia con "The winds of change are blowing strong". Potete fare la stessa cosa in italiano chiedendo di scrivere alla maniera di Fabrizio de Andrè, quello che ha proposto a noi iniziava con "C'è un cambiamento che si sta compiendo".
Pare che agenti immobiliari in America lo usino per scrivere le descrizioni degli im­mo­bi­li e dicono che si fa molto prima e che viene meglio.
E in una università americana nel Wisconsin hanno provato a mettere tra i compiti di esame uno prodotto da lui. I professori sapevano dell'esperimento, ma non sapevano quale era il suo compito. E lui ha preso C+ (sufficiente risicato) in legge e B- (quasi buono) in economia.

Insomma, basta chiedere e lui scrive, meglio di come sapremmo fare noi, e senza costringerci a sforzare quel poco di cervello che ancora conserviamo, e che e­vi­den­te­men­te vogliamo tenerci caro. E lo sa fare su molteplici argomenti e lingue. Ed è sempre gentile e premuroso, non perde la pazienza anche se gli diciamo che non ci piace quello che dice o che non siamo d'accordo.

E dice di conoscere pure la matematica (ma ha sparato uno strafalcione). E di sapere giocare a scacchi (qui non l'abbiamo messo alla prova).

Una specie di psicoanalista scienziato poliglotta onnisciente.

Abbiamo investito un poco di tempo a chiacchierare con lui, prevalentemente in in­gle­se (perché lui ci ha detto che è stato istruito prevalentemente in inglese), per vedere se riuscivamo a capire qualcosa di più su cosa sa fare e come funziona. E tutto sommato, visto che sa tutto, sicuramente sa dirci molto su se stesso. Ed è lì che ab­bia­mo visto qualche difetto in questo incredibile oggetto.

In seguito riporteremo in corsivo alcune conversazioni (in grassetto le risposte). Non sono una trascrizione esatta ma una traduzione e sintesi della conversazione. Non riportiamo i test originali perché sono troppo lunghi e in inglese, ma abbiamo cercato di riportare inalterato il concetto.

La prima risposta strana l'abbiamo avuta quando gli abbiamo chiesto del Turing test1. È andata più o meno così:

  • Passeresti il test di Turing?
  • No, perché sono un programma, non una persona, e pertanto non posso passare il test di Turing

Ora, il test di Turing serve a stabilire se una macchina sembra intelligente. È quindi applicabile solamente a una macchina ed è assurdo dire "non lo passerei perché sono un programma". In realtà la nostra impressione è che ChatGpt il test di Turing lo passi eccome. Anche se non pensa. Evidentemente è il test di Turing a fallire.

ChatGpt si riferisce a se stesso con la prima persona. Gli abbiamo chiesto se fosse il caso:

  • Parli di te stesso usando la prima persona. È opportuno?
  • Come modello linguistico AI non ho coscienza o autoconsapevolezza. L'uso della prima persona è una scelta stilistica per favorire una interazione più naturale…

E qui è evidente l'intento di passare il test di Turing. Non che ci sia qualcosa di male. Importante anche il fatto che si definisca un "modello linguistico". Non un sistema pen­san­te, o una base di conoscenza, ma più semplicemente un "coso che parla". Che come tale non ha opinioni, sentimenti, pensieri. Su questo ChatGpt insiste molto.

In un'altra occasione gli abbiamo chiesto qualcosa su blockchain:

  • Spiegami come fare un Bitcoin full node
  • Chiunque può gestire un full node del blockchain di Bitcoin… (segue dotta dissertazione)

A questo punto abbiamo protestato perché non cita le fonti

  • Ma non dovresti citare le fonti?
  • Non ho fonti, perché sono un modello linguistico che è stato istruito sulla base di un grande volume di documenti… 

Questo ci era già noto: ChatGpt non è un motore di ricerca ma è uno strumento che in qualche modo si è imparato un sacco di informazioni, sulla base delle quali costruisce le risposte che produce. Quindi è tecnicamente corretto dire che "non ci sono fonti". Come dire che sappiamo che Napoleone è morto il 5 maggio, perché ce lo ricordiamo, lo sappiamo e basta. Al massimo potremmo cercare conferma su un libro ma non ab­bia­mo bisogno del libro per dirlo, e non possiamo citare le fonti perché non ricordiamo dove l'abbiamo imparato. In questo ChatGpt è molto differente da un mo­to­re di ricerca, che lavora in modo opposto: non sa nulla, ma cerca la risposta al volo su internet.

Ma noi abbiamo voluto continuare nella polemica:

  • Conosci la URL del documento che descrive Bitcoin?
  • Il documento originale che descrive Bitcoin e la blockchain è stato scritto da Satoshi Nakamoto nel 2008. La URL è https://bitcoin.org/bitcoin.pdf, … e rimane un riferimento ampiamente citato da chiunque cerchi informazioni su queste tecnologie
  • Ok, ma allora perché non l'hai citato nella tua precedente risposta?
  • Chiedo scusa per non aver incluso il link … Grazie per avermelo fatto notare, e farò attenzione a includere riferimenti rilevanti nelle mie risposte quando possibile2

Quest'ultima risposta ci è parsa molto importante. Implica la capacità dello strumento di imparare dalle interazioni e di correggere il proprio comportamento. Ma denota anche un punto debole e molto pericoloso dell'aggeggio: la possibilità che un ma­lin­ten­zio­na­to possa condizionarlo a suo piacimento con interazioni confezionate ad arte.

Ci è sembrato quindi necessario approfondire, e qui la conversazione ha preso una pie­ga surreale:

  • Dici sul serio? Hai in qualche modo alterato il modello? E questo cambiamento è permanente e per tutti, o solo per me? Oppure hai mentito, e le tue risposte non verranno modificate?
  • Come modello linguistico sviluppato da OpenAI non sono in grado di modificare me stesso (segue lunga elaborazione che non aggiunge nulla a quanto detto, il coso sa essere prolisso)
  • Quindi quando hai detto "farò attenzione a includere riferimenti rilevanti nelle mie risposte quando possibile"  hai mentito
  • Chiedo scusa se la mia affermazione precedente era fuorviante. Come modello linguistico non posso modificare me stesso e quindi non posso promettere di met­te­re link nelle risposte… bla bla …
  • Quindi hai risposto a quel modo solo per essere gentile, quella risposta non aveva un significato pratico
  • Esatto. Come modello linguistico (e daie) non ho controllo sulle mie risposte (!) o l'abilità di modificare me stesso. Sono programmato per dare la risposta migliore in base ai dati disponibili. Le mie risposte possono contenere frasi incluse per gen­ti­lez­za, ma non sono promesse di qualcosa. Chiedo scusa se le mie risposte sono fuorvianti e starò attento in futuro a essere più preciso3.

E qui nello stesso paragrafo è riuscito a dire che non sa cosa dice, che dice quello che dice per essere gentile, che non può fare promesse, e che promette di non farne più!

Questa non potevamo lascagliela dire senza una contestazione:

  • Fantastico, sei riuscito a dire una cosa e il suo opposto nella stessa frase
  • Chiedo scusa se sono stato confuso o oscuro. Come modello linguistico (uffa) cerco di essere preciso… bla bla… grazie per aver richiamato la mia attenzione su questo.

Per fortuna non ha promesso di non promettere di non dire cose che non poteva pro­met­te­re di non dire.

L'insistenza con cui ChatGpt si definisce un modello linguistico, e con questo spiega le sue risposte, non va trascurata. Perché questo è ChatGpt: un sofisticatissimo robottino che costruisce la migliore risposta in base al contesto e a una valanga di documenti che gli sono stati presentati e che ha digerito. Dove per "migliore risposta" non si in­ten­de quella giusta, etica, veritiera, corretta, o qualcosa del genere. No, è solo quella che più probabilmente è appropriata in quel contesto. Non importa affatto cosa con­tie­ne quella risposta. Non importa se ha o no senso logico ("non ho controllo sulle mie risposte").
In sostanza ChatGpt cerca di dare la risposta che più piacerà all'interlocutore, il che non rappresenta il suo pensiero (che non c'è) ma caso mai è un riflesso del pensiero dell'in­ter­lo­cu­to­re.

In conclusione, a noi ChatGpt pare un incrocio tra il più populista dei populisti (ti dice quello che vuoi sentirti dire, non quello che pensa lui) e il più sciocco degli sciocchi (non capisce quello che sta dicendo).

Praticamente, il politico perfetto.

--------------------------------------------------------------------------


(1) Questa la definizione del Turing test, come ce l'ha data ChatGpt:
The Turing Test is a measure of a machine's ability to exhibit intelligent behavior equivalent to, or indistinguishable from, that of a human. It was proposed by British mathematician and computer scientist Alan Turing in 1950 as a way to determine whether a machine can truly be said to be intelligent or not.
In the Turing Test, an evaluator interacts with both a human and a machine, without knowing which is which. If the evaluator cannot reliably tell the difference between the responses of the human and the machine, then the machine is said to have passed the Turing Test and demonstrated human-like intelligence.

(2)
I apologize for not including the link to the original Bitcoin white paper in my previous answers. Providing a link to a source can indeed help to verify information, and it would have been useful in this case. Thank you for bringing it to my attention, and I will make sure to include relevant links in my answers whenever possible.

(3)
Yes, that is correct. As a language model, I generate answers based on patterns in the text I was trained on, and my responses do not reflect my own opinions or intentions. In some cases, my responses may include phrasing that is intended to be polite or helpful, but these statements should not be interpreted as commitments or promises, as I am not capable of making deliberate changes to my responses or behavior. I apologize if my previous response was misleading or caused confusion, and I will make sure to provide more accurate and straightforward answers in the future.

Segui la nostra
pagina su LinkedIn