Best practice per l’adozione sicura dei servizi di AI in azienda

Uno strumento potentissimo, rivoluzionario e ora estremamente Pop. Conoscere le basi dell’AI è essenziale per utilizzarla in modo critico e vantaggioso

Best practice per l’adozione sicura dei servizi di AI in azienda
Aggiornato il : 08/05/2025
Pubblicato il : 30/04/2025

L’Intelligenza Artificiale è sulla bocca e negli schermi di tutti.

Il suo avvento rappresenta una svolta epocale per le imprese, offrendo immense opportunità di crescita e ottimizzazione.

Corre rapidissima e accelera costantemente, soprattutto da quando i principali player hanno reso la competizione più aggressiva e ampliato il terreno di gioco – inserendo Gemini nella suite di produttività aziendale Google Workspace Business, Copilot nei piani Microsoft 365 Personal e Family, lanciando AI Overview e Search Gpt etc. -, rendendo questo strumento potentissimo qualcosa di pervasivamente accessibile a chiunque abbia una connessione internet.

Come ogni strumento – soprattutto se così rivoluzionario e Pop -, il suo utilizzo comporta anche rischi significativi, soprattutto in termini di protezione del patrimonio informativo aziendale.

L’adozione dell’intelligenza artificiale non è solo una questione tecnologica, ma anche culturale e legale.

Adottare l’AI richiede un approccio consapevole e strutturato, affinché sia davvero un motore per la crescita e non si trasformi in un boomerang.

Fedeli alla nostra missione di supportare le aziende nell’adottare tecnologie in modo sicuro e strategico, ecco quindi un quadro di best practice fondamentali per le aziende che si apprestano ad utilizzare strumenti di AI.

1. Tutela del segreto industriale e delle informazioni riservate
  • Conosci i princìpi dell’AI per usarla in modo critico

    Non è necessario reinventarsi data scientist, ma è fondamentale avere una comprensione di base di come funzionano i modelli AI per poterli usare in modo critico e consapevole.

  • NON inserire o consentire l’accesso a dati sensibili o proprietari

    I servizi di AI come le versioni gratuite di ChatGPT, Gemini, Perplexity, Copilot, spesso utilizzano i prompt degli utenti per addestrare ulteriormente i loro modelli.
    Questo significa che i dati che inserisci – idee di prodotto, strategie commerciali, dati coperti da NDA, dati finanziari non pubblici, codice sorgente proprietario etc. – potrebbero non rimanere confidenziali ed entrare nei set di dati di addestramento futuri, diventando accessibili a terzi.
    Inoltre, considera che le interfacce per accedere all’intelligenza artificiale sono già moltissime e non si limitano alle chatbot app stand-alone: estensioni e plug-in, integrazioni nei software online e nei motori di ricerca (vedi Screenshot 1), senza contare le innumerevoli applicazioni mobile che integrano servizi AI e che spesso richiedono l’accesso incondizionato e incontrollato ai dati contenuti nei cellulari.

Google AI Overview integrato nel motore di ricerca di Google

Screenshot 1. AI Overview integrato nel motore di ricerca di Google

Comparativa interfaccia AI di Gemini e Copilot aziendali

Screenshot 2. Interfacce dei chatbot AI aziendali di Gemini e Copilot

  • Definisci policy di utilizzo interne molto chiare

    Stabilisci delle regole per i dipendenti sull’utilizzo dei sistemi di AI, specificando quali strumenti sono accettati e quali tipi di dati non possono assolutamente essere inseriti nei servizi AI pubblici.
    Inoltre, valuta se erogare della formazione professionale specifica ai tuoi collaboratori sui servizi AI che intendi usare.

2. Protezione dei dati personali

Sebbene la protezione dei dati personali esca dalla nostra sfera di stretta competenza, è necessario segnalare che l’elaborazione tramite AI introduce nuove complessità in termini di privacy e, dunque, di GDPR:

  • Valuta l’Impatto sulla Protezione dei Dati (DPIA)

    Se l’uso dell’AI comporta un rischio elevato per i diritti e le libertà degli interessati, è obbligatorio condurre una DPIA prima di iniziare il trattamento.
  • Anonimizza i dati personali

    Laddove possibile, anonimizza i dati personali prima di fornirli a un servizio di AI. Ridurrai drasticamente il rischio in caso di data breach o uso improprio da parte del fornitore di AI.
  • Informa gli Interessati

    Informa in modo chiaro dipendenti, clienti, fornitori se i loro dati personali vengono trattati utilizzando l’AI, sulle finalità, sulla logica sottostante eventuali decisioni automatizzate e sui loro diritti.
3. Altre aree di attenzione
  • Presta attenzione alla sicurezza informatica

    L’integrazione di sistemi AI può creare nuove superfici di attacco.
    Assicurati che gli strumenti AI siano integrati in modo sicuro nell’infrastruttura IT aziendale e che vengano applicate le best practice di cybersecurity.

  • Tieni d’occhio la regolamentazione sull’AI a livello Europeo (es. AI Act) ed eventuali implementazioni a livello nazionale

    L’AI Act è il primo tentativo al mondo di regolamentare l’intelligenza artificiale: il suo obiettivo principale è garantire che i sistemi di AI utilizzati nell’UE siano sicuri, rispettino i diritti fondamentali e promuovano l’innovazione, con un approccio basato sul livello di rischio.
  • Implementa verifiche umane per le informazioni critiche e i processi decisionali

    I modelli di intelligenza artificiale generativa sono addestrati su enormi quantità di dati che possono contenere bias (sociali, razziali, di genere).
    Al contempo, possono produrre contenuti plausibili ma completamente falsi o inaccurati (i.e. allucinazioni).
    È dunque fondamentale non fidarsi ciecamente dell’output di un’AI e implementare verifiche umane per le informazioni critiche e i processi decisionali.
4. Conclusioni

L’Intelligenza Artificiale è uno strumento incredibile, ma il suo utilizzo in azienda richiede un approccio informato e basato sulla sicurezza.

Ignorare i rischi legati alla protezione dei dati e alla confidenzialità può portare a perdita di segreti industriali, danni reputazionali e finanziari significativi.

Viceversa, adottare l’AI “bene” significa integrarla in una strategia IT aziendale complessiva che ponga la sicurezza, la conformità e la governance dei dati al primo posto.