Google ha cambiato la sua politica sulla privacy per riflettere la raccolta dei dati di Bard AI e siamo spaventati

Google ha appena cambiato la formulazione della sua politica sulla privacy, ed è un aggiustamento piuttosto illuminante che è stato applicato per comprendere la tecnologia AI con cui l’azienda sta lavorando.

Come riporta TechSpot, c’è una sezione dell’informativa sulla privacy in cui Google discute di come raccoglie informazioni (su di te) da fonti pubblicamente accessibili e chiarisce che c’è una nota che recita: “Ad esempio, potremmo raccogliere informazioni che sono pubblicamente disponibili online o da altre fonti pubbliche per aiutare ad addestrare i modelli AI di Google e creare prodotti e funzionalità, come le funzionalità di Google Translate, Bard e Cloud AI.

In precedenza, quel paragrafo diceva che le informazioni pubblicamente disponibili sarebbero state utilizzate per addestrare “modelli linguistici” e menzionava solo Google Translate.

Quindi, questa sezione è stata ampliata per chiarire che l’addestramento sta avvenendo con i modelli AI e Bard.

È un cambiamento significativo e sostanzialmente sottolinea che tutto ciò che pubblichi pubblicamente online può essere raccolto e utilizzato da Bard AI di Google.


Analisi: che dire della privacy, del plagio e di altre preoccupazioni?

Sapevamo già che il Bard di Google, e in effetti l’IA di Bing di Microsoft, sono essenzialmente giganteschi recuperatori di dati, che estraggono e sgretolano contenuti online da tutto il Web per perfezionare le conclusioni su ogni argomento sotto il sole su cui potrebbero essere interrogati.

Questa modifica alla politica sulla privacy di Google rende chiarissimo che la sua intelligenza artificiale sta operando in questo modo e vederla in un testo freddo e duro sullo schermo potrebbe far fare un passo indietro ad alcune persone e metterlo in dubbio un po ‘di più.

Dopotutto, Google ha escluso Bard da un po’ di tempo, quindi lavora in questo modo da un po’ di tempo e ha appena deciso di aggiornare la sua politica? Questo di per sé sembra piuttosto furbo.

Non vuoi che le cose che hai pubblicato online dove altre persone possano vederle vengano utilizzate per addestrare il grande macchinario AI di Google? Beh, dura. Se è là fuori, è un gioco leale, e se vuoi discutere con Google, buona fortuna. Nonostante le ovvie preoccupazioni non solo per i problemi di privacy di base, ma anche per il plagio (se una risposta AI utilizza contenuti scritti da altri, raccolti dall’addestramento di Bard), dove si trovano i limiti con quest’ultimo? Certo, sarebbe poco pratico (o addirittura impossibile) controllarlo comunque.

Ci sono problemi più ampi riguardo all’accuratezza e alla disinformazione quando i dati vengono raschiati dal web anche su larga scala, ovviamente.

Oltre a questo, ci sono preoccupazioni recentemente espresse da piattaforme come Reddit e Twitter, con Elon Musk che sembra prendere posizione contro “l’utilizzo dei dati pubblici di Twitter per costruire modelli di intelligenza artificiale” con quelle limitazioni frustranti che sono state appena introdotte (che potrebbero essere grande vittoria per Zuckerberg e Threads, in definitiva).

Tutto questo è un enorme campo minato, in realtà, ma i grandi gruppi tecnologici che fanno passi da gigante con le loro IA che raschiano i dati LLM (large language model) stanno semplicemente andando avanti, tutti gli occhi puntati sui loro rivali e sulla corsa per affermarsi in prima linea, apparentemente senza quasi pensare a come si svilupperà parte del lato pratico di questa equazione.