| Abbiamo una nuova auto. Anzi, a dire il vero era nuova quando ce l'hanno data, il che è stato un po' di tempo fa. Ma ci piaceva questo incipit, e quindi visto che l'argomento è analogo, abbiamo pensato di riciclarlo. Dicevamo, l'auto. È molto intelligente, convinta di saperla lunga, e probabilmente più complicata del necessario. Solo nel volante abbiamo contato 17 bottoni, alcuni utili, altri inutili, altri misteriosi.
|
Ovviamente, come tutti i veri utenti, non abbiamo letto il manuale. Ma il vero utente appunto non legge il manuale. Anzi il vero utente moderno (modern user) il manuale lo fa leggere alla sua IA che poi glielo spiega1
Abbiamo anche un nuovo telefono, Gugù per gli amici. Come tutti i gugù, anche il nostro origlia le conversazioni e interviene con perle di saggezza quando viene interpellato, e ogni tanto quando gli pare a lui.
Gugù e l'Auto sono molto amici, il che è una bella testimonianza della capacità di integrazione delle nuove tecnologie, per cui certe volte si fa fatica a capire dove finisce l'uno e inizia l'altra.
Qualche giorno fa eravamo in auto e parlavamo dei fatti nostri, quando una cortese signorina è intervenuta nella conversazione chiedendo cosa desiderassimo. Non sappiamo se a parlare sia stata l'Auto o Gugù, le voci sono molto simili, ma siamo sicurissimi (da veri
modern user) di non aver toccato nessuno dei 17 bottoni, e nemmeno di aver invocato Gugù. Per cui ci è venuta spontanea la poco educata esclamazione (tra di noi, non rivolta alla signorina) "ma che c… vuole?".
È calato un attimo di silenzio glaciale, poi la IA ha fatto lavorare la sua rete neuronale, si è ripresa dallo shock, e ha risposto "ma certamente, ecco qua Radio Capital" e ci ha sparato a tutto volume questa radio di cui nemmeno conoscevamo l'esistenza. Da quel momento non abbiamo più acceso la radio, più che altro perché temiamo di non riuscire a ritrovare la stazione precedente…
Ma l'episodio ci ha portato a pensare alle logiche di training dei modelli di IA generativa. In sostanza, l'aggeggio avrebbe dovuto capire quello che abbiamo detto, e avrebbe dovuto rispondere in modo appropriato. E qui siamo in dubbio, quale sarebbe stata una risposta appropriata? Un risentito silenzio, visto che era chiaro che l'intervento non era gradito, oppure un più naturale "ma che c… vuoi tu, che mi hai invocato?". Senza dubbio la seconda sarebbe stata quella più umana…
Abbiamo chiesto a ChatGPT cosa ne pensasse. È stato un po' restio nel rispondere ma, a quanto sembra, lui è stato allenato usando anche testi con linguaggio "scurrile o esplicito", appunto perché altrimenti capirebbe una frase su due, al massimo. Ma poi ci sono meccanismi che filtrano le riposte che evidentemente gli verrebbero naturali. 2
Ci dicono che anche Siri fa così, e che in qualche occasione risponde in modo piccato, ma capisce. Supponiamo lo stesso valga per Gugù.
Quindi alla fine forse l'Auto è la meno intelligente dei tre, ma comunque non sappiamo con certezza chi fosse la cortese signorina…
PS: il disegno in alto è stato fatto con Bing Image Creator usando la descrizione "a cartoon depicting android and car integration"
----------------------------------------------------------------------------------------
(1) non è poi tanto una battuta, uno degli utilizzi più immediati dei modelli linguistici come OpenAI in azienda è proprio di leggere documenti aziendali per poi rispondere in linguaggio naturale alle domande degli utenti.
(2) Yes, GPT-3.5 is trained on a broad range of text from the internet, including a wide variety of language patterns and styles, which naturally includes foul language and explicit content that are present in everyday language. As a result, the model has the ability to understand and generate text that includes foul language or explicit content.
However, during the generation of responses, I am programmed to follow guidelines that discourage generating inappropriate or offensive content. My responses are intended to be helpful, respectful, and appropriate for a wide audience.