Aprile 29, 2024

GExperience

Se sei interessato alle notizie italiane Today e rimani aggiornato su viaggi, cultura, politica, situazione pandemica e tutto il resto, assicurati di seguire Life in Italy

La febbre di ChatGPT si sta diffondendo sul posto di lavoro negli Stati Uniti, suonando campanelli d’allarme per alcuni

La febbre di ChatGPT si sta diffondendo sul posto di lavoro negli Stati Uniti, suonando campanelli d’allarme per alcuni

LONDRA/WASHINGTON, 11 agosto (Reuters) – Molti lavoratori negli Stati Uniti si rivolgono a ChatGPT per chiedere aiuto con compiti essenziali, secondo un sondaggio Reuters/Ipsos, nonostante le preoccupazioni che hanno spinto datori di lavoro come Microsoft e Google a limitarlo piuttosto che usarlo.

Le aziende di tutto il mondo stanno studiando come utilizzare al meglio ChatGPT, un chatbot che utilizza l’intelligenza artificiale generativa per condurre conversazioni con gli utenti e rispondere a innumerevoli richieste. Le società di sicurezza e le aziende hanno espresso preoccupazione, tuttavia, che potrebbe portare a perdite di proprietà intellettuale e strategia.

Esempi aneddotici di persone che utilizzano ChatGPT per aiutare con il loro lavoro quotidiano includono la stesura di e-mail, l’astrazione di documenti e lo svolgimento di ricerche preliminari.

Circa il 28% degli intervistati a un sondaggio online sull’intelligenza artificiale (AI) tra l’11 e il 17 luglio ha affermato di utilizzare regolarmente ChatGPT al lavoro, mentre solo il 22% ha affermato che i propri datori di lavoro consentono esplicitamente tali strumenti di terze parti.

Il sondaggio Reuters/Ipsos su 2.625 adulti negli Stati Uniti aveva un intervallo di credibilità, una misura di accuratezza, di circa due punti percentuali.

Circa il 10% degli intervistati ha affermato che i propri capi vietavano esplicitamente gli strumenti di intelligenza artificiale di terze parti, mentre circa il 25% non sapeva se la propria azienda consentisse o meno l’utilizzo della tecnologia.

ChatGPT è diventata l’app in più rapida crescita nella storia dopo il suo lancio a novembre. Ha causato sia eccitazione che allarme, portando lo sviluppatore OpenAI in conflitto con le autorità di regolamentazione, in particolare in Europa, dove la raccolta di dati di massa dell’azienda ha attirato critiche da parte dei garanti della privacy.

I revisori umani di altre società possono leggere qualsiasi chat generata e i ricercatori hanno scoperto che un’intelligenza artificiale simile può riprodurre i dati assorbiti durante l’addestramento, creando un potenziale rischio per le informazioni proprietarie.

READ  Gli sviluppatori immobiliari devono fallire, se necessario

“Le persone non capiscono come vengono utilizzati i dati quando utilizzano i servizi di intelligenza artificiale generativa”, ha affermato Ben King, vicepresidente della fiducia dei clienti presso la società di sicurezza aziendale Okta (OKTA.O).

“Per le aziende, questo è fondamentale, perché gli utenti non hanno un contratto con molti sistemi di intelligenza artificiale, perché è un servizio gratuito, quindi le aziende non saranno esposte a rischi attraverso il consueto processo di valutazione”, ha affermato King.

OpenAI ha rifiutato di commentare quando gli è stato chiesto delle implicazioni dei singoli dipendenti che utilizzano ChatGPT, ma ha evidenziato un recente post sul blog aziendale che assicura ai partner dell’azienda che i loro dati non verranno utilizzati per addestrare ulteriormente il chatbot, a meno che non diano il permesso esplicito.

Quando le persone utilizzano Bard di Google, raccoglie dati come testo, posizione e altre informazioni sull’utilizzo. L’azienda consente agli utenti di eliminare attività passate dai propri account e richiedere la rimozione dei contenuti inseriti nell’IA. Google (GOOGL.O) di proprietà di Alphabet ha rifiutato di commentare quando gli sono stati chiesti maggiori dettagli.

Microsoft (MSFT.O) non ha risposto immediatamente a una richiesta di commento.

compiti innocui

Un dipendente di Tinder negli Stati Uniti ha affermato che i dipendenti dell’app di appuntamenti hanno utilizzato ChatGPT per “compiti innocui” come scrivere e-mail anche se la società non lo consente ufficialmente.

ha detto il dipendente, che ha rifiutato di essere nominato perché non autorizzato a parlare con i giornalisti.

Il dipendente ha affermato che Tinder ha una “regola No ChatGPT” ma i dipendenti la usano ancora “in un modo generale che non rivela nulla sulla nostra presenza su Tinder”.

READ  Il petrolio è sceso del 5% sulla base della speculazione che l'embargo petrolifero USA-Russia non si aggiungerà allo shock dell'offerta

Reuters non è stata in grado di confermare in modo indipendente come i dipendenti di Tinder utilizzano ChatGPT. Tinder ha affermato di aver fornito “una guida regolare ai dipendenti sulle migliori pratiche di sicurezza e dati”.

A maggio, Samsung Electronics ha vietato ai dipendenti di tutto il mondo di utilizzare ChatGPT e simili strumenti di intelligenza artificiale dopo che è stato scoperto che un dipendente aveva caricato un codice sensibile sulla piattaforma.

“Stiamo rivedendo le misure per creare un ambiente sicuro per l’uso generativo dell’intelligenza artificiale che migliori la produttività e l’efficienza dei dipendenti”, ha affermato Samsung in una dichiarazione del 3 agosto.

“Tuttavia, fino a quando queste misure non saranno in vigore, stiamo temporaneamente limitando l’uso dell’IA generativa attraverso i dispositivi aziendali”.

Reuters ha riferito a giugno che Alphabet aveva avvertito i dipendenti di come stavano utilizzando il software di chat, incluso Bard di Google, allo stesso tempo stava commercializzando il software a livello globale.

Google ha affermato che mentre Bard può fornire suggerimenti di codice non richiesti, aiuta i programmatori. Ha anche affermato di voler essere trasparente sui limiti della sua tecnologia.

Divieto coperta

Alcune aziende hanno dichiarato a Reuters che stanno adottando ChatGPT e piattaforme simili pensando alla sicurezza.

“Abbiamo iniziato a testare e apprendere come l’intelligenza artificiale può migliorare l’efficacia operativa”, ha affermato un portavoce della Coca-Cola ad Atlanta, in Georgia, aggiungendo che i dati rimangono all’interno del suo firewall.

“Internamente, abbiamo recentemente lanciato la nostra versione aziendale di Coca-Cola ChatGPT per la produttività”, ha affermato un portavoce dell’azienda, aggiungendo che Coca-Cola prevede di utilizzare l’intelligenza artificiale per migliorare l’efficacia e la produttività dei suoi team.

Nel frattempo, il CFO di Tate & Lyle (TATE.L), Dawn Allen, ha detto a Reuters che il produttore globale di componenti stava testando ChatGPT, dopo aver “trovato un modo per usarlo in modo sicuro”.

READ  La casa automobilistica tedesca BMW presenta una nuova auto elettrica

“Abbiamo diversi team che decidono come vogliono usarlo attraverso una serie di esperimenti. Dovremmo usarlo nelle relazioni con gli investitori? Dovremmo usarlo nella gestione della conoscenza? Come possiamo usarlo per svolgere compiti in modo più efficiente?”

Alcuni dipendenti affermano di non poter accedere alla piattaforma sui computer aziendali.

“È completamente off-limits per la rete dell’ufficio, perché non funziona”, ha detto un dipendente di Procter & Gamble (PG.N), che ha voluto rimanere anonimo perché non era autorizzato a parlare con la stampa.

Procter & Gamble ha rifiutato di commentare. Reuters non è stata in grado di confermare in modo indipendente se i dipendenti di P&G non sono in grado di utilizzare ChatGPT.

Paul Lewis, chief information security officer presso la società di sicurezza informatica Nominet, ha affermato che le società hanno ragione a essere caute.

“Tutti beneficiano di questa maggiore capacità, ma le informazioni non sono completamente sicure e possono essere modificate”, ha affermato, citando “affermazioni dannose” che possono essere utilizzate per far sì che i chatbot AI rivelino informazioni.

“Un divieto totale non è ancora giustificato, ma dobbiamo procedere con cautela”, ha detto Lewis.

Rapporti aggiuntivi di Richa Naidoo, Martin Coulter e Jason Lang; A cura di Alexander Smith

I nostri standard: Principi di fiducia di Thomson Reuters.

Reporter londinese che si occupa di vendita al dettaglio e beni di consumo, analizzando le tendenze tra cui la copertura delle catene di approvvigionamento, le strategie pubblicitarie, la governance aziendale, la sostenibilità, la politica e la regolamentazione. In precedenza ha scritto per i rivenditori statunitensi e le principali istituzioni finanziarie e ha coperto i Giochi Olimpici di Tokyo 2020.