So dove la chat di Bing AI è andata storta

Chiedimi qualunque cosa. È la forma lunga di un AMA e una delle forme più popolari di discorso interattivo su Reddit. È anche una grande sfida, poiché il chatbot Bing AI di Microsoft, noto anche come “nuovo Bing”, sta imparando rapidamente.

Ogni volta che una celebrità o un notabile si iscrive per fare un Reddit AMA, di solito poco dopo aver posato con una foto per dimostrare che sono davvero loro a rispondere alle domande, c’è un profondo momento di trepidazione.

La possibilità di chiedere qualsiasi cosa a chiunque è di solito un campo minato di discorsi inappropriati gestito da un community manager dal vivo che seleziona e filtra le domande. Altrimenti, le cose vanno rapidamente fuori dai binari. Anche senza quella protezione, spesso lo fanno comunque (si apre in una nuova scheda).

Quando Microsoft ha lanciato la sua nuova chat basata su Bing AI, ha chiarito che ChatGPT AI era pronta per qualsiasi domanda. Questo era un segno di profonda fiducia con il gruppo di utenti relativamente piccolo ma in crescita o un’incredibile ingenuità.

Anche ChatGPT, che ha lanciato l’originale sensazione di chatbot AI e su cui si basa la chat di Bing, non offre quel prompt. Invece, c’è una casella di immissione di testo vuota nella parte inferiore dello schermo. Sopra c’è un elenco di esempi di domande, capacità e, soprattutto, limitazioni.

Bing ha quel prompt principale e sotto di esso una domanda di esempio più un grande pulsante “Provalo” accanto a un altro pulsante che ti chiede “Ulteriori informazioni”. Al diavolo quello. Ci piace entrare subito e, seguendo le istruzioni di Bing, chiedere qualsiasi cosa.

Naturalmente, Bing è stato disseminato di una vasta gamma di domande, tra cui molte che non hanno nulla a che fare con esigenze quotidiane come viaggi, ricette e piani aziendali. E quelli sono quelli di cui stiamo tutti parlando perché, come sempre, chiedere “qualsiasi cosa” significa “chiedere”. nulla.”

Bing sta mettendo in campo riflessioni su amore, sesso, morte, matrimonio, divorzio, violenza, nemici, diffamazione ed emozioni che insiste di non avere.

In ChatGPT di OpenAI, la schermata principale avverte che:

  • Può occasionalmente generare informazioni errate
  • Può occasionalmente produrre istruzioni dannose o contenuti distorti
  • Conoscenza limitata del mondo e degli eventi dopo il 2021

Troppe domande

Chat GPT di Bing è leggermente diverso da quello di OpenAI e potrebbe non avere tutte queste limitazioni. In particolare, la conoscenza degli eventi mondiali può, grazie all’integrazione del knowledge graph di Bing, estendersi fino ai giorni nostri.

Ma con Bing allo stato brado, o sempre più selvaggio, potrebbe essere stato un errore incoraggiare le persone a chiedergli qualsiasi cosa.

E se Microsoft avesse creato Bing AI Chat con un prompt diverso:

Chiedimi alcune cose

Fammi una domanda

Cosa vuoi sapere?

Con questi prompt leggermente modificati, Microsoft potrebbe aggiungere un lungo elenco di avvertenze su come Bing AI Chat non sa cosa sta dicendo. Ok, lo fa (a volte (si apre in una nuova scheda)), ma non nel modo in cui lo conosci. Non ha intelligenza o risposta emotiva e nemmeno una bussola morale. Voglio dire, cerca di comportarsi come se ne avesse uno, ma conversazioni recenti con Il New York Times (si apre in una nuova scheda) e persino Hardware di Tom (si apre in una nuova scheda) dimostrare che la sua comprensione della moralità di base delle brave persone è al massimo tenue.

Nelle mie conversazioni con la chat di Bing AI, mi è stato ripetutamente detto che non ha emozioni umane, ma continua a conversare come se le avesse.

Per chiunque abbia coperto l’intelligenza artificiale per un certo periodo di tempo, niente di ciò che è accaduto è sorprendente. L’intelligenza artificiale sa:

  • Su cosa è stato addestrato
  • Cosa può imparare dalle nuove informazioni
  • Cosa può raccogliere da vasti archivi di dati online
  • Cosa può imparare dalle interazioni in tempo reale

La chat di Bing AI, tuttavia, non è più consapevole di qualsiasi altra IA che l’abbia preceduta. Tuttavia, potrebbe essere uno dei migliori attori dell’IA, in quanto la sua capacità di portare avanti una conversazione è ben al di sopra di qualsiasi cosa io abbia mai sperimentato prima. Quella sensazione aumenta solo con la durata di una conversazione.

Non sto dicendo che la chat di Bing AI diventi più credibile come essere umano senziente, ma diventa più credibile come essere umano un po’ irrazionale o confuso. Anche lunghe conversazioni con persone reali possono andare così. Inizi su un argomento e forse ne discuti anche, ma a un certo punto l’argomento diventa meno logico e razionale. Nel caso delle persone, entra in gioco l’emozione. Nel caso di Bing AI Chat, è come raggiungere l’estremità di una corda dove le fibre esistono ma sono sfilacciate. Bing AI ha le informazioni per alcune delle lunghe conversazioni ma non l’esperienza per intrecciarle in un modo sensato.

Bing non è tuo amico

Incoraggiando le persone a “Chiedimi qualsiasi cosa…” Microsoft ha preparato Bing, se non fallendo, ad alcuni problemi di crescita significativi. Il dolore è sentito forse da Microsoft e sicuramente da persone che fanno di proposito domande per le quali nessun normale motore di ricerca avrebbe mai una risposta.

Prima dell’avvento dei chatbot, prenderesti in considerazione l’utilizzo di Google per sistemare la tua vita amorosa, spiegare Dio o essere un sostituto amico o amante? Spero di no.

Bing AI Chat migliorerà, ma non prima di aver avuto conversazioni molto più scomode in cui Bing si rammarica della sua risposta e cerca di farla sparire.

Chiedere qualsiasi cosa a un’intelligenza artificiale è l’ovvio obiettivo a lungo termine, ma non ci siamo ancora arrivati. Microsoft ha fatto il salto e ora è in caduta libera attraverso una foresta di risposte discutibili. Non atterrerà fino a quando Bing AI Chat non diventerà molto più intelligente e circospetto o Microsoft non staccherà la spina per una piccola rieducazione dell’IA.

Ancora in attesa di chiedere qualcosa a Bing, abbiamo gli ultimi dettagli sulla lista d’attesa.