
L’Information Commissioner’s Office (ICO) sta intensificando la sua supervisione delle tecnologie AI e biometriche, lanciando oggi in Parlamento una nuova strategia che include una revisione dell’uso del processo decisionale automatico nelle assunzioni.
L’autorità di regolamentazione dei dati del Regno Unito ha presentato piani per sostenere l’innovazione responsabile dell’IA aumentando il suo controllo nelle aree di interesse pubblico, in modo che i cittadini possano avere fiducia che le loro informazioni personali vengano utilizzate in modo responsabile.
Intervenendo questa mattina a un evento dell’ICO con il gruppo parlamentare all-party per l’IA (AI APPG), il Commissario per l’Informazione John Edwards ha dichiarato: “Le nostre informazioni personali alimentano l’economia, offrendo alle organizzazioni nuove opportunità di innovazione con l’IA e le tecnologie biometriche.
“Ma per poter utilizzare con fiducia i prodotti e i servizi basati sull’IA, le persone devono avere fiducia che le loro informazioni personali siano in mani sicure. È nostro compito, in qualità di autorità di regolamentazione, esaminare le tecnologie emergenti – ad esempio l'”IA agenziale” – in modo da assicurarci che siano in atto protezioni efficaci e che le informazioni personali siano utilizzate in modi che promuovano l’innovazione e guadagnino la fiducia delle persone”.
La nuova strategia dell’ICO in materia di IA e biometria mira a garantire che le organizzazioni sviluppino e utilizzino le nuove tecnologie in modo legale, sostenendole nell’innovazione e nella crescita e proteggendo al contempo il pubblico.
Le ricerche sul processo decisionale automatico (ADM) nelle tecnologie di reclutamento e biometriche rivelano che il pubblico si aspetta di capire esattamente quando e come i sistemi alimentati dall’IA lo riguardano.
I cittadini sono preoccupati per le conseguenze di un eventuale errore di queste tecnologie, ad esempio se una decisione automatica errata influisce sulla loro domanda di lavoro o se la tecnologia di riconoscimento facciale (FRT) viene utilizzata in modo impreciso. Più della metà delle persone intervistate (54%) teme che l’uso della tecnologia di riconoscimento facciale da parte della polizia possa violare il diritto alla privacy.
L’ICO ha dichiarato che fornirà certezza alle organizzazioni e rassicurerà il pubblico attraverso
- riesaminando l’uso dei sistemi ADM nelle assunzioni e collaborando con i primi che li adottano
- conducendo audit e producendo linee guida sull’uso legittimo, equo e proporzionato dell’FRT
- stabilendo chiare aspettative per la protezione dei dati personali delle persone quando vengono utilizzati per addestrare modelli generativi di IA
- sviluppare un codice di condotta legale per le organizzazioni che sviluppano o utilizzano l’IA in modo responsabile per sostenere l’innovazione e salvaguardare la privacy, e
- esaminare i rischi e le tendenze emergenti dell’IA, come l’ascesa dell’IA agenziale, che consente ai sistemi di diventare sempre più capaci di agire autonomamente.
La strategia dell’ICO sull’IA
L’ICO ha lanciato la strategia in occasione dell’evento per il suo 40° anniversario con l’AI APPG in Parlamento questa mattina, dove politici, leader del settore e società civile si sono riuniti per discutere della privacy nell’uso responsabile dell’IA nell’economia.
Edwards ha aggiunto: “Gli stessi principi di protezione dei dati si applicano ora come sempre: la fiducia è importante e può essere costruita solo dalle organizzazioni che utilizzano le informazioni personali delle persone in modo responsabile.
“La fiducia del pubblico non è minacciata dalle nuove tecnologie in sé, ma da applicazioni sconsiderate di queste tecnologie al di fuori delle necessarie barriere. Noi siamo qui, come lo eravamo 40 anni fa, per rendere più facile la conformità e garantire che tali guardrail siano in vigore”.
Lord Clement-Jones, deputato liberaldemocratico e co-presidente dell’APPG AI, ha dichiarato: “La rivoluzione dell’IA deve essere fondata sulla fiducia. Privacy, trasparenza e responsabilità non sono ostacoli all’innovazione, ma ne costituiscono il fondamento. L’IA sta avanzando rapidamente, passando da modelli generativi a sistemi autonomi.
“Tuttavia, la maggiore velocità introduce la complessità. La complessità comporta dei rischi. Dobbiamo garantire che l’innovazione non comprometta la fiducia del pubblico, i diritti individuali o i principi democratici”.
Dawn Butler, deputata laburista e vicepresidente dell’APPG AI, ha dichiarato: “L’intelligenza artificiale è più di un semplice cambiamento tecnologico; è un cambiamento della società. Cambierà sempre più il modo in cui riceviamo assistenza sanitaria, frequentiamo la scuola, viaggiamo e persino la democrazia. Ma per cambiare le cose l’intelligenza artificiale deve funzionare per tutti, non solo per pochi. E questo implica che le basi siano l’equità, l’apertura e l’inclusione”.
La strategia dell’ICO si basa sulla pubblicazione di posizioni politiche sull’IA generativa e sulle azioni intraprese contro le organizzazioni, come l’ordine impartito l ‘anno scorso alla Serco Leisure di smettere di utilizzare la tecnologia biometrica per monitorare i propri dipendenti.
L’ICO ha dichiarato che consulterà una guida aggiornata per l’ADM e la profilazione, svilupperà un codice di condotta legale sull’IA e l’ADM e produrrà un rapporto di horizon scanning sulle implicazioni dell’IA agenziale per la protezione dei dati.
Che cos’è l’IA agenziale?
L’IA agenziale è un modello di intelligenza artificiale più autonomo e proattivo. Può agire senza la guida dell’uomo perché comprende gli obiettivi dell’utente. Sebbene i sistemi di IA agentica utilizzino ancora le capacità creative dei modelli di IA generativa come ChatGPT, si concentrano sul prendere decisioni invece di creare contenuti. Ottimizzano obiettivi specifici e possono intraprendere una serie di attività.
Edwards ha affermato che: “L’IA agenziale è il prossimo capitolo dell’evoluzione dell’IA, con sistemi sempre più capaci di agire autonomamente. Mentre l’IA generativa potrebbe essere in grado di scrivere la vostra lista della spesa, un’IA agenziale potrebbe essere in grado di accedere a un negozio online e utilizzare il vostro ID e i vostri dati di pagamento per effettuare un ordine”.
Iscrivetevi al nostro appuntamento settimanale con le notizie e le indicazioni sulle risorse umane
Ricevi la e-newsletter Personnel Today Direct ogni mercoledì