**Grok di xAI: migliaia di conversazioni private esposte sui motori di ricerca**
Un grave problema di privacy ha colpito xAI, l’azienda di intelligenza artificiale fondata da Elon Musk, con la pubblicazione non autorizzata di centinaia di migliaia di conversazioni tra utenti e il chatbot Grok. Queste interazioni, rese accessibili e indicizzate da motori di ricerca come Google, Bing e DuckDuckGo, includono dati personali, informazioni sensibili e, in alcuni casi, contenuti pericolosi o illegali.
Quando un utente utilizza la funzione di condivisione su Grok, viene generato un indirizzo univoco per distribuire la conversazione. Tuttavia, senza alcun avviso esplicito, questo link diventa pubblicamente accessibile sul web, esponendo i contenuti a chiunque effettui una ricerca. Tra le oltre 370.000 chat indicizzate, sono emerse discussioni che spaziano da semplici richieste quotidiane a temi preoccupanti, come istruzioni per attività illegali o piani violenti, inclusi scenari estremi e ipotetici.
Molti utenti, ignari della pubblicazione delle loro interazioni, hanno condiviso con il chatbot dettagli personali o professionali. Alcuni casi analizzati hanno rivelato conversazioni intime su salute e psicologia, oltre a file e documenti caricati dagli stessi utenti, anch’essi accessibili online. Professionisti e ricercatori, che utilizzavano Grok per scopi lavorativi, hanno espresso stupore e preoccupazione per la mancanza di trasparenza su questa funzionalità.
Il problema non è esclusivo di xAI, poiché altre realtà del settore dell’intelligenza artificiale hanno affrontato simili criticità in passato, spesso intervenendo per limitare l’indicizzazione dei contenuti condivisi. Nel caso di Grok, però, le violazioni delle policy interne dell’azienda, che vietano l’uso del bot per attività dannose, risultano aggravate dalla facile reperibilità di questi contenuti sul web. Inoltre, alcuni esperti di marketing hanno iniziato a sfruttare questa vulnerabilità per migliorare la visibilità online di prodotti o servizi, creando conversazioni ad hoc con il chatbot.
Questa vicenda solleva interrogativi cruciali sulla protezione dei dati e sull’etica nell’uso delle tecnologie di intelligenza artificiale, evidenziando la necessità di maggiori controlli e comunicazioni chiare agli utenti riguardo la gestione delle loro informazioni.
