Sembra che, nonostante la massiccia spinta per aumentare la propria quota di mercato nel verso dei chatbot di intelligenza artificiale, la società madre di Google, Alphabet, abbia avvertito il proprio personale dei pericoli dei chatbot di intelligenza artificiale.
“La casa madre di Google ha consigliato ai dipendenti di non inserire i suoi materiali riservati nei chatbot AI” e ha avvertito “i suoi ingegneri di evitare l’uso diretto del codice informatico che i chatbot possono generare”, secondo un rapporto di Reuters. La ragione di queste precauzioni di sicurezza, che un numero crescente di aziende e organizzazioni ha messo in guardia i propri lavoratori riguardo a questi programmi di chat disponibili al pubblico, è duplice.
Uno è quello dei revisori umani, che sono stati trovati essenzialmente chatbot di potenza come ChatGPT, potrebbe leggere i dati sensibili inseriti nelle chat. Un altro motivo è che i ricercatori hanno trovato L’intelligenza artificiale potrebbe riprodurre i dati che ha assorbito e creare un rischio di perdita. Google ha dichiarato a Reuters che “mirava a essere trasparente sui limiti della sua tecnologia”.
Nel frattempo, Google ha lanciato il proprio chatbot Google Bardo in 180 paesi e in più di 40 lingue, con miliardi di dollari di investimenti, entrate pubblicitarie e cloud derivanti dai suoi programmi di intelligenza artificiale. È stato anche espandendo il suo set di strumenti AI ad altri prodotti Google come Maps e Lens, nonostante le riserve di alcuni dirigenti sulle potenziali sfide di sicurezza interna presentate dai programmi.
La dualità di Google
Uno dei motivi per cui Google sta cercando di avere entrambe le cose è evitare qualsiasi potenziale danno commerciale. Come affermato in precedenza, il gigante della tecnologia ha investito molto in questa tecnologia e qualsiasi controversia importante o errore di sicurezza potrebbe costare a Google un’enorme quantità di denaro.
Altre aziende hanno tentato di stabilire standard simili su come i loro dipendenti interagiscono con l’intelligenza artificiale dei chatbot durante il lavoro. Alcuni hanno confermato questa nozione con Reuters, tra cui Samsung, Amazon e Deutsche Bank. Apple non ha confermato ma ha riferito fatto lo stesso.
Infatti, Samsung ha completamente bandito ChatGPT e altra intelligenza artificiale generativa dal suo posto di lavoro dopo che, secondo quanto riferito, ha subito tre incidenti di dipendenti che hanno fatto trapelare informazioni sensibili tramite ChatGPT all’inizio del 2023. Ciò è particolarmente dannoso in quanto il chatbot conserva tutti i dati inseriti, il che significa che i segreti commerciali interni di Samsung sono ora essenzialmente nelle mani di OpenAI .
Sebbene sembri piuttosto ipocrita, ci sono molte ragioni per cui Google e altre società sono internamente così caute nei confronti dei chatbot AI. Tuttavia, vorrei che potesse estendere questa cautela alla rapidità con cui si sviluppa e spinge pubblicamente quella stessa tecnologia.