Occorrono sempre più regole condivise per proteggere il patrimonio aziendale documentale

Negli ultimi giorni di gennaio, Clawdbot, uno strumento di Intelligenza Artificiale in grado di eseguire compiti, non solo di rispondere a domande, ha ottenuto in poco tempo oltre 100mila stelle su GitHub riscuotendo una fiducia tale da indurre molte persone ad integrarlo senza sapere bene il suo funzionamento con e-mail, calendari, software aziendali: da questa avventatezza sono derivate fughe di informazioni, frodi di criptovalute, problemi di sicurezza. L’hype che l’Intelligenza Artificiale ha raccolto induce a servirsi di strumenti come Clawdbot con leggerezza: policy interne, formazione e supervisione IT sono dunque sempre più necessari. Anche i chatbot più diffusi e sicuri permettono, grazie ad appositi connettori, di collegarsi ai flussi di lavoro reali: e-mail, documenti in cloud, calendari condivisi, ambienti collaborativi. È qui che l’Intelligenza Artificiale smette di essere una app di elaborazione di testi e immagini e diventa una leva di produttività aziendale. Il primo ad integrarsi con applicativi come Excel, Word, Powerpoint, Outlook e soprattutto con le cartelle condivise di Onedrive è stato Copilot, il chatbot del mondo Microsoft. In seguito anche Google ha reso possibile collegare Gemini, anche in modalità gratuita, con Google Workspace e farlo interagire con Gmail, Drive, Calendar nel rispetto dei permessi di lettura o di modifica che è possibile conferire in modo puntuale.

Questa integrazione consente di analizzare più documenti in Drive per preparare una bozza di offerta o trasformare un calendario condiviso in una sintesi settimanale delle priorità del team. Allo stesso modo, è possibile collegare Claude, uno dei chatbot più innovativi con gli applicativi di Google Workspace, ma anche servirsi di un ambiente collaborativo, Cowork, in cui lavorare insieme su documenti e conversazioni condivisi: con Cowork un team può caricare materiali comuni, lavorare su uno stesso ragionamento assistito dall’AI, mantenere memoria delle decisioni prese. I Progetti di ChatGPT offrono infine la possibilità di collegare e-mail, Google Drive o altri servizi cloud tramite connettori, oppure passare link e documenti in modo puntuale.

Collegare “tutto Drive” è tecnicamente semplice, ma organizzativamente rischioso: significa trasformare il chatbot in assistente contestuale, ma sulla base di documenti che potrebbero non essere stati salvati nella loro versione finale o essere confidenziali e non appropriati per una loro consultazione ed elaborazione da parte degli altri colleghi. Un esempio di rischio è l’abitudine ormai crescente di registrare e trascrivere

le riunioni online: la trascrizione è utile per non perdere informazioni, ma diventa un documento reso in questo modo formale, ricercabile e riutilizzabile. Senza regole chiare può esporre pubblicamente informazioni confidenziali, cristallizzare ipotesi non definitive, far emergere impegni “detti a voce” come se fossero decisioni formali. La questione non è se usare o meno questi strumenti, ma come. Servono regole condivise: quali ambienti possono essere collegati, chi è responsabile dei contenuti e soprattutto come ci assicuriamo che vi sia trasparenza verso chi partecipa ai processi; sapere se una riunione viene trascritta e come quella trascrizione potrà essere usata è un impegno da chiedere e rispettare. Come in tutti i cambiamenti tecnologici, competenze e leadership sono necessari a tutelare il patrimonio documentale aziendale e a rendere possibile l’innovazione possibile con l’Intelligenza Artificiale.