Cisco Italia Blog
Share

Privacy, governance e IA: tendenze globali sui dati


26 February 2024


Traduzione dell’intervista di Kevin Delaney a Dev Stahlkopf, Cisco Chief Legal Officer

———————————————————————————————————-

Negli ultimi anni, la privacy si è trasformata da una questione di conformità a un imperativo aziendale e a una richiesta dei clienti. E con la crescita esplosiva dell’intelligenza artificiale, l’attenzione per la privacy continua ad aumentare.

Ecco perché lo studio annuale Data Privacy Benchmark Study di Cisco è così importante. Insieme alla Consumer Privacy Survey, rileva le principali tendenze nella governance dei dati, negli investimenti e nell’impatto delle tecnologie in rapida evoluzione.

Per saperne di piu sul Data Privacy Benchmark Study 2024, indagine condotta su 2.600 professionisti della sicurezza e della privacy in 12 Paesi, ci siamo rivolti a Dev Stahlkopf, Chief Legal Officer di Cisco.

Cisco ha condotto ricerche sulla privacy dei dati per sette anni. Quali sono le principali tendenze emerse in questi anni?

Per me emergono principalmente due tematiche. Innanzitutto, le organizzazioni evidenziano un legame tra privacy e fiducia. I clienti vogliono sempre più acquistare da organizzazioni di cui si possono fidare. Infatti, il 94% degli intervistati ha dichiarato che i clienti non acquisterebbero da loro se non proteggessero adeguatamente i dati. In secondo luogo, le aziende ritengono che il ritorno sugli investimenti in materia di privacy sia superiore ai costi. Da quando abbiamo iniziato la nostra ricerca, la spesa per la privacy è più che raddoppiata, ma i clienti affermano che il ritorno sull’investimento rimane forte. I nostri dati mostrano che le aziende ottengono circa 160 dollari di benefici per ogni 100 dollari spesi in privacy.

La ricerca mostra anche che il sostegno alle leggi sulla privacy è aumentato, sia da parte delle organizzazioni che dei consumatori. Cosa sta determinando questa tendenza?

Sì, le leggi sulla privacy impongono alle organizzazioni costi e requisiti aggiuntivi. Eppure, l’80% dei nostri intervistati ha dichiarato che le leggi sulla privacy hanno avuto un impatto positivo sulle loro organizzazioni e solo il 6% ha affermato che l’impatto è stato negativo.

Quindi, perché le organizzazioni dovrebbero essere così positive nei confronti di regolamenti che aggiungono costi e sforzi? È una questione di fiducia. Le organizzazioni riconoscono che la privacy è un fattore di fiducia per i loro clienti.  E le leggi sulla privacy interoperabili a livello globale contribuiscono a promuovere un approccio più coerente alla gestione dei dati personali nell’intero ciclo di vita dei dati e nell’ecosistema.

La nostra ricerca ha anche dimostrato che i consumatori vogliono che i governi svolgano un ruolo di primo piano nella protezione dei dati. Una forte normativa sulla privacy aumenta la fiducia dei clienti e la certezza che le organizzazioni stiano gestendo i loro dati in modo appropriato.

La tecnologia sta cambiando rapidamente e con essa anche nuovi problemi di privacy. Come vedi evolversi le leggi e le normative sulla privacy nei prossimi anni?

Oggi più di 160 Paesi hanno leggi omnibus sulla privacy. E altre decine sono in fase di elaborazione e promulgazione. La prossima generazione di leggi sulla privacy continuerà a promuovere la trasparenza, l’equità e la responsabilità in ambiti quali la raccolta e l’utilizzo dei dati, i flussi di dati transfrontalieri e la conformità verificabile. Sebbene ognuna di queste aree sia più ampia della semplice privacy, la privacy è al centro di molte di queste questioni.

Non sorprende che l’intelligenza artificiale sia stata uno dei temi principali dell’indagine di benchmark sulla privacy dei dati di quest’anno. In qualità di Chief Legal Officer, Cisco come si orienta nell’intersezione tra IA e privacy?

La privacy è fondamentale per l’IA. Gran parte di ciò che abbiamo costruito nell’ultimo decennio in materia di privacy – le nostre policy, i nostri standard, i nostri strumenti e i nostri framework – viene sfruttato per costruire il nostro programma di IA responsabile. Sebbene alcuni dei maggiori rischi dell’IA derivino dalla raccolta e dall’utilizzo di dati personali, i rischi dell’IA vanno ben oltre la privacy: proprietà intellettuale, diritti umani, accuratezza e affidabilità, pregiudizi, per citarne alcuni. La nostra ricerca indica che il 60% dei consumatori ha già perso fiducia nelle organizzazioni a causa dell’uso dell’IA. Per questo motivo, la creazione di un programma di governance in Cisco, adattato ai nuovi casi d’uso e alle implicazioni dell’IA, era un imperativo aziendale.

Come si mette in pratica questo concetto durante lo sviluppo di un prodotto?

Abbiamo un team dedicato alla privacy per incorporare la privacy by design come componente fondamentale delle nostre metodologie di sviluppo dei prodotti, sfruttando il Cisco Secure Development Lifecycle (CSDL). Poiché l’uso dell’IA è diventato sempre più pervasivo, abbiamo sviluppato una valutazione dell’impatto dell’IA – basata sui nostri principi di una IA responsabile – per valutare lo sviluppo, l’uso e l’implementazione dell’IA da parte di Cisco e includere la valutazione come parte della Due Diligence (“diligenza dovuta”) del CSDL e dei fornitori. Queste valutazioni esaminano vari aspetti dello sviluppo dell’IA e dei prodotti, tra cui il modello, i training set, la messa a punto, i suggerimenti, le pratiche di privacy e le metodologie di test. L’idea è quella di identificare, comprendere e gestire i rischi dell’IA e contribuire a preservare la fiducia dei nostri dipendenti, clienti e stakeholder.

Quali sono i principali rischi che vedete associati all’IA e come si possono mitigare?

Nel nostro ultimo sondaggio, abbiamo scoperto che il 92% delle organizzazioni considera la GenAI una tecnologia fondamentalmente diversa, con nuove sfide e preoccupazioni, che richiede nuove tecniche di gestione dei dati e dei rischi. Tra le principali preoccupazioni, il 69% ha citato la possibilità che la GenAI danneggi i diritti legali e di proprietà intellettuale della propria organizzazione. Il 68% teme che le informazioni inserite possano essere condivise pubblicamente o con i concorrenti. Un altro 68% teme che le informazioni restituite all’utente possano essere sbagliate. Si tratta di rischi reali, ma gestibili con un approccio ponderato alla governance.

In un ambiente guidato dall’IA, come possono le aziende assicurarsi di sfruttare le sue possibilità proteggendo al contempo i diritti alla privacy di clienti e dipendenti?

Le aziende devono valutare i propri rischi. Ma con la governance in atto, credo che ci sia un percorso da seguire. Prendendo come esempio Cisco, disponiamo di principi per una IA responsabile e di un quadro di riferimento per guidare il nostro approccio. Abbiamo anche sviluppato una Politica sull’IA generativa sull’uso accettabile di questi nuovi strumenti. Prima di consentire l’uso di strumenti GenAI con informazioni riservate, conduciamo una valutazione dell’impatto dell’IA per identificare e gestire i rischi specifici dell’IA. Una volta che abbiamo convalidato che uno strumento protegge sufficientemente le nostre informazioni riservate e siamo soddisfatti delle protezioni di sicurezza e privacy in atto, lo strumento viene aperto ai dipendenti per esplorare e innovare ulteriormente.

Qualche consiglio finale per le aziende che cercano di navigare in questo ambiente tutto da esplorare?

Siamo ancora agli albori dell’IA. Dobbiamo avvicinarci a questa nuova tecnologia con entusiasmo e umiltà: sono tante le cose che ancora non sappiamo. Ogni giorno vengono sollevate nuove preoccupazioni. Le aziende dovranno essere agili e adattabili ai cambiamenti normativi, alle preoccupazioni dei consumatori e all’evoluzione dei rischi. Sarà inoltre necessaria una forte collaborazione tra il settore pubblico e quello privato. L’IA ha un enorme potenziale positivo, ma è necessario che l’industria, i governi, gli sviluppatori, i distributori e gli utenti lavorino insieme per promuovere un’innovazione responsabile senza compromettere la privacy, la sicurezza, i diritti umani e la protezione.

 

 

 

 

Tags:
Lascia un commento