Back Regolamento Ue sull’intelligenza artificiale e Gdpr cross hub

Regolamento Ue sull’intelligenza artificiale e Gdpr

La Commissione Europea ha presentato il Regolamento 2021/106 che delinea un quadro armonizzato sull’intelligenza artificiale. Ne parliamo con Piero Ricciardi, esperto di Compliance integrata in particolare su privacy e protezione dati

Postato il: 28-May-2021

1)Buongiorno Piero, il 21 aprile 2021 la Commissione Europea ha presentato la proposta di regolamento sull’intelligenza artificiale definita come un insieme di tecnologie in rapida evoluzione finalizzate ad ottimizzare il benessere sociale. Rispetto al nuovo  regolamento, potresti spiegarci quali obiettivi si pone e se esistono punti di contatto con il Gdpr?

 

Piero: L’obiettivo della fonte normativa è declinare i vantaggi derivanti dall’impiego di sistemi di intelligenza artificiale come:

  • il miglioramento nella fruizione dei servizi del cittadino,
  • l'agevolazione dello sviluppo delle imprese,
  • il conferimento di maggiore efficienza ai servizi di interesse pubblico

con i risvolti negativi che potrebbero concretizzarsi, ove i primi venissero impiegati mediante un uso distorto o abusivo.

 

Nello specifico, gli obiettivi che il Regolamento si propone di realizzare sono:

  • garantire che i sistemi di IA immessi sul mercato dell'Unione siano sicuri e rispettino le leggi esistenti sui diritti fondamentali e sui valori dell'unione
  • garantire la certezza del diritto per facilitare gli investimenti e l'innovazione nell’IA
  • migliorare la governance e l'effettiva applicazione delle leggi esistenti sui diritti fondamentali e sui requisiti di sicurezza applicabili IA sistemi di IA
  • facilitare lo sviluppo di un mercato unico applicazioni di IA legali, sicure e affidabili, prevenendo la frammentazione del mercato interno.

 

Rispetto ai punti di contatto con il Gdpr, la risposta è Si.

Esistono notevoli assonanze tra il cd. Gdpr e la proposta di Regolamento sull’intelligenza artificiale (IA); un rapido excursus ci aiuterà a comprenderle meglio. Il 21 aprile 2021 la Commissione Europea ha presentato la propria proposta di Regolamento europeo sull’Intelligenza Artificiale (IA), volto ad introdurre una disciplina unanime e condivisa tra gli Stati Membri nell’ottica di garantire i diritti e le libertà fondamentali di tutti i cittadini europei.

 

Analogamente a quanto è accaduto col Gdpr, anche questo sulla IA avrà un proprio iter declinato tra approvazione e messa in esecuzione. Con questo Regolamento verranno introdotte, salvo modifiche, una serie di obblighi particolarmente significativi relativamente ai sistemi di IA, che ricalcheranno l’approccio del Regolamento europeo sulla protezione dei dati.

 

2) Chiariti gli obiettivi della proposta di regolamento, possiamo affermare che al suo interno vi siano varie tipologie di rischi inerenti all'IA?

 

Piero: In effetti, si parte dalla individuazione di un rischio inaccettabile; qui si tratta di sistemi IA che mettono a rischio i diritti e le libertà dei cittadini UE e che, pertanto, saranno sostanzialmente banditi.

 

In tali casi di parla di IA forte in quanto questa tecnologia è in grado di riprodurre processi intellettivi analoghi a quelli umani; rientrano in questa classe:

  • i sistemi di IA che utilizzino tecniche subliminali che, al di là della consapevolezza di una persona, possa manipolare materialmente il suo comportamento in un modo tale da causare (o è probabile che possa causare a quella persona o a un'altra persona) danni fisici o psicologici;

 

  • i sistemi di IA che sfruttino una qualsiasi delle vulnerabilità di un gruppo specifico di persone a causa della loro età, disabilità fisica o mentale, al fine di manipolare materialmente il comportamento di una persona appartenente a quel gruppo in un modo da causare (o è probabile che possa causare) a quella persona o un'altra persona danni fisici o psicologici;

 

  • i sistemi di IA da parte della pubblica autorità (o per suo conto) per la valutazione o la classificazione dell’affidabilità delle persone fisiche per un determinato periodo di tempo in base al loro comportamento sociale o a caratteristiche personali o di personalità note o previste, con l’attribuzione di un punteggio sociale (c.d. social scoring);

 

  • l'uso di sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico per finalità di law enforcement (fatte salve alcune eccezioni relative: alla ricerca mirata di specifiche potenziali vittime di reati, compresi bambini scomparsi; la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o sicurezza fisica delle persone fisiche o di un attacco terroristico; l'individuazione, la localizzazione, l'identificazione o il perseguimento di un autore o sospettato di un reato punibile nel membro Stato interessato da una pena detentiva o un ordine di detenzione per a periodo massimo di almeno tre anni, come determinato dalla legge dello stesso Stato membro).

 

3) Si può pensare che una IA così pervasiva possa trovare un ambito di applicazione?

 

Piero: Si, ma è necessario ed opportuno che in questi casi si debba predisporre una serie di sistemi atti a limitarne o a gestirne l’uso; ad esempio:

 

  • predisporre, implementare e documentare un sistema di gestione del rischio (art. 9); nei sistemi di IA ad alto rischio che utilizzano tecniche che comportano la formazione di modelli con i dati, devono essere sviluppati sulla base di set di dati di addestramento, convalida e test che soddisfano i criteri di qualità specifici (art. 10);

 

  • redigere la documentazione tecnica prima delle data di immissione sul mercato o della messa in servizio e deve essere costantemente aggiornata (art. 11)

 

  • essere progettati e sviluppati con capacità che consentano la registrazione automatica degli eventi ("log") durante il loro funzionamento; tali capacità di registrazione devono essere conformi a standard riconosciuti o comuni specifiche (art. 12)

 

  • essere progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente per consentire agli utenti di interpretare il sistema output e utilizzarlo in modo appropriato (art. 13)

 

  • essere progettati e sviluppati in modo tale - (anche con strumenti di interfaccia uomo-macchina appropriati) - da poter essere efficacemente controllati da persone fisiche durante il periodo in cui è in uso il sistema di IA (art. 14);

 

  • i fornitori garantiscono che i sistemi di IA destinati a interagire con le persone fisiche siano progettati e sviluppati in modo tale che le persone fisiche siano informate che stanno interagendo con un sistema di intelligenza artificiale; tale obbligo non si applica ai sistemi di IA autorizzati per legge a individuare, prevenire, indagare e perseguire reati:

 

  • gli utenti di un sistema di riconoscimento delle emozioni o di un sistema di classificazione biometrica devono informare del funzionamento del sistema le persone fisiche ad esso esposte. Questo obbligo non si applica ai sistemi di IA utilizzati per la categorizzazione biometrica, nei casi consentiti, per rilevare, prevenire e indagare sui reati.

 

  • Gli utenti di un sistema IA che genera o manipola contenuti immagine, audio o video che assomiglino sensibilmente a persone, oggetti, luoghi o altre entità o eventi esistenti e che sembrino falsamente una persona reale («deep fake»), deve rivelare che il contenuto è stato generato o manipolato artificialmente.

 

4) All'interno della proposta di regolamento, si sente spesso parlare di sistemi invasivi utilizzati per il riconoscimento facciale. Puoi spiegarci meglio?

 

Piero: per i sistemi IA di riconoscimento facciale biometrico utilizzati dalle forze dell’ordine per ragioni di law enforcement, pur rientrando in questa classe, i limiti saranno molto più stringenti. Il loro utilizzo da parte della pubblica autorità sarà consentito solo in casi eccezionali, quali la ricerca di un soggetto smarrito o IA fini di prevenzione di una specifica ed imminente minaccia terroristica.

 

A riguardo, è necessario sottolineare che il Garante Europeo ha manifestato un po’ di malumore verso la scelta della Commissione di non inibire completamente l’utilizzo di questi strumenti, ritenendoli misure di sorveglianza di massa che avrebbero meritato limiti ulteriori rispetto a quelli correlati al solo utilizzo per ragioni di law enforcement.

 

5) Definiti gli obiettivi e gli ambiti dell'IA, potresti dirci quali sono le principali linee guida di tali applicazioni? Inoltre all'interno della proposta, è previsto l'intervento delle autorità di controllo e sono previste delle sanzioni?

 

Piero: In estrema sintesi possiamo indicare come prioritaria la protezione della dignità umana e la tutela dei diritti umani e delle libertà fondamentali, in particolar modo quando le IA sono impiegate nei processi decisionali; le IA che trattano dati personali devono operare secondo un approccio basato sugli requisiti analoghi a quelli previsti dal Regolamento 679/2016 (GDPR), e cioè: liceità, correttezza, specificazione delle finalità, proporzionalità del trattamento, privacy by design, privacy by default, accountability, trasparenza, sicurezza dei dati e gestione dei rischi.

 

Per lo sviluppo delle IA è necessario un approccio che prevenga e attenui i potenziali rischi del trattamento dei dati personali e nella valutazione del rischio, ed è necessario, altresì, adottare una prospettiva più ampia che tenga conto non solo dei diritti umani e delle libertà fondamentali ma anche del funzionamento delle democrazie, dei valori sociali ed etici dei Paesi dell’Unione europea; le IA devono rispettare pienamente i diritti degli interessati e devono sempre consentire un controllo da parte degli interessati.

 

Ancora, si deve adottare un approccio preventivo per valutare l’impatto di possibili conseguenze negative derivante dallo sviluppo di applicazioni IA in tutte le fasi del trattamento dei dati personali, avendo un approccio volto a garantire la tutela dei diritti umani dalle fasi di progettazione, evitando così qualsiasi pregiudizio o altri effetti negati sui diritti umani e le libertà fondamentali degli interessati; valutare la qualità, la natura, l’origine e la quantità dei dati personali utilizzati, eliminando i dati superflui e utilizzato dati sintetici (rappresentativi dei dati reali originali) quando possibile.

 

Per ottemperare a tali requisiti è necessario che l’utilizzo di modelli algoritmici siano sempre contestualizzati per non produrre impatti negativi sulle persone e la società.

 

Anche gli sviluppatori, produttori e fornitori di servizi IA devono coinvolgere nei processi di sviluppo delle applicazioni comitati indipendenti di esperti per garantire la trasparenza e il rispetto dei diritti umani ed evitare potenziali pregiudizi.

 

Sicuramente, ma alle autorità di controllo devono essere forniti i mezzi sufficienti per attuare i programmi di vigilanza sugli algoritmi. L’intervento umano deve essere preservato nei processi decisionali; gli sviluppatori, produttori e fornitori di IA, qualora ritengano che l’applicazione possa incidere in modo significativo sui diritti umani e sulle libertà fondamentali, dovrebbero consultare le preposte autorità di controllo e dovrebbero promuovere la cooperazione tra le diverse autorità competenti in materia di protezione dei dati personali, di concorrenza e diritti del consumatore.

Per questo motivo è necessario garantire l’indipendenza dei comitati di esperti.

 

I legislatori devono garantire la partecipazione e l’inclusione attiva di individui, gruppi o altre parti interessate al dibattito sul ruolo della IA.

 

Analogamente a quanto previsto dal GDPR, ogni Stato designerà la propria Autorità di controllo mentre a livello centrale sarà creato il European Artificial Intelligence Board, autorità che ricalca il modello dell’EDPB.

I policy maker devono effettuare investimenti nella direzione di una necessaria alfabetizzazione digitale per aumentare la consapevolezza degli interessati riguardo alle applicazioni IA e i loro effetti.

 

Per il sistema sanzionatorio invece, esso si articolerà su tre livelli:

  • per l’utilizzo dei sistemi proibiti o per la mancata implementazione dei sistemi di data governance previsti per i sistemi ad alto rischio, la sanzione potrà arrivare a 30 milioni di euro o al 6% del fatturato globale medio annuo;
  • per la violazione degli altri obblighi, l’ammontare arriva fino a 20 milioni o il 4% del fatturato globale medio annuo;
  • per la violazione degli obblighi informativi o di notificazione degli eventuali incidenti di sicurezza verso le autorità di controllo, è prevista una fascia sanzionatoria ad hoc che può arrivare a 10 milioni o al 2% del fatturato globale medio annuo.

Non perdere gli ultimi articoli!

Inserisci la tua email 

TAG CLOUD

covid-19 innovazione startup finanza operations pmi coronavirus PMI innovation manager marketing innovazione digitale innovazione tecnologica smart working digital transformation internazionalizzazione andrà tutto bene business digital marketing controllo di gestione impresa industria 4.0 fintech voucher innovation manager 2021 risorse umane export prototipazione rapida Innovazione consulenza finanziaria economia business development credito d'imposta innovation lavoro agile io resto a casa temporary manager voucher innovation manager impresa digitale innovazione aziendale digital gestione del rischio IoT gestione aziendale investimenti cash flow Innovation Manager cina big data legge finanziaria 2020 gestione risorse umane liquidità impresa PMI innovative mercati esteri open innovation MISE gestione finanziaria Ricerca & Sviluppo gestione impresa piano impresa 4.0 campi flegrei Impresa temporary management covid Al equity crowdfunding trasformazione digitale sviluppo impresa CFO stampa 3d digitalizzazione e-commerce system integration CRM Digital Transformation comunicazione d'impresa soft skill GDPR HR finanza agevolata crescita aziendale vendita online venture capital turismo compliance fase 2 crisi economica contributo a fondo perduto criptovaluta bonus pubblicità bonus impresa bilancio sociale batterie di sabbia beni di lusso asset management corporate social responsability andràtuttobene bilancio di sostenibilità blockchain consulenza impresa capacità di feedback capitale della cultura comunicazione aziendale conad campania community commissione di massimo scoperto cloud computing clausola salvaguardia come fare un business plan cfo cambio valuta concorrenzasleale cloud business plan business opportunity business intelligence consumi business plan startup business travel consulente consulenza consulenza HR buzzoole contact tracing Sanità 4.0 Fintech Fractional Manager Fractional management Financial Controller Manager Financial Controller Ecommerce Exponential Technologies ExtraMot Gestione del personale Gestione manageriale IA IMHERO IP Management Human resources Human Resources Giorgio Ventre H R Harmont & Blaine ERP Cyber Security Apple Developer Academy Bankitalia CRM aziendale evoluto Analisi di bilancio AR 2watch 3d printing ADHD Campania innovativa Change Management Consulenza Consulenza direzionale Credito d'Imposta Comunicazione interna Commissione europea Cloud Comfort Zone IT Il controllo di gestione Sicurezza Informatica Sostenibilità Strumento a complemento della finanza tradizionalenel segno dell’innovazione e della trasparenza crowdfunding Salva banche Reverse Engineering Risk Management Risorse Umane Sviluppo Temporary Export Manager acceleratore startup agevolazioni alibaba Voucher T.E.M. Voucher Innovation Manager Temporary management Voucher Consulenza in Innovazione Rendiconto finanziario Produzione 4.0 Insuretech Intelligenza artificiale Internazionalizzazione Innovazione Impresa Innovation management Impresa 4.0 innovativa Impresa digitale Industrial Controller Iot Kaizen Material Requirement Planning Mise Procida capitale della cultura 2022 Marketing Lean organization Lean Lean manufacturing analisi paese expo 2020 regolamento Ue remote working rendiconto finanziario realtà aumentata public relations protezione dati protezione dati personali pubblicità responsabilità d'impresa retail risk manager risorse finanziarie robotica avanzata risk management rischio cambio reverse engineering riduzione sprechi project manager procida capitalde della cultura minibond modello business new normal metodi organizzativi aziendali innovativi metodi formativi marketing territoriale maxi decreto newfinance normativa privacy processi di gestione processi operativi pmi innovative pmi innovativa opensource organizzazione aziendale sanità 4.0 scaleup tecnologia tecnologia avanzata tecnologie 4.0 tech sviuppo impresa sviluppo organizzativo sviluppo risorse umane sviluppo sostenibile tecnologie della sanità tecnologie digitali voucher innovazione voucher internazionalizzazione web marketing voucher consulenza in innovazione transizione energetica tecnologie verdi tracciamento dati sviluppo business supporto imprese sicurezza informatica social media marketing soft skills sicurezza dati shared innovation screening settore fashion soft skill” sostenibilità ambientale strategia di comunicazione stratup supply chain strategia d'impresa sport virtuale sparring partner spinup marketing digitale marketing automation finanziamenti imprese fonti di finanziamento formazione 4.0 finanzalternativa feedback esports webidoo fasi del risk management formazione a distanza formazione manageriale gestione del credito gestione efficiente gestione personale gdpr gdo freesource fund raising energie rinnovabili employee experience decreto rilancio deliver to stock development decreto liquidità decreto cura Italia data protection dati dialogo uomo-macchina digitale ecommerce emergenza coronavirus emergenza covid e-learning e-finance digitalizzazione aziendale digitalizzazione impresa gestione rischi grande distribuzione organizzata international market intervista investimenti green intelligenza emotiva integrazione processi aziendali insurtech integrazione digitale dei processi aziendali invitalia italia smart make to order malazè manager esterno magaldi made in italy lavoro leadership innovazone digitale innovation management human resources management il ruolo dell'advisor impresa 4.0 hr high-tech green economy hi-tech impresa innovativa impresa smart industria digitale influencer influencer marketing incentivi impresa incentivi economici imprese incentivi cybersecurity
Iscriviti alla newsletter
Cross Hub Logo

Affiancare le imprese, enti ed istituzioni in tutti gli aspetti di natura strategica ed operativa attraverso la "mobilitazione integrata" (CROSS) di competenze ed esperienze (HUB) in risposta alle specifiche esigenze aziendali.

CONTACT INFO

 

SEDE LEGALE

Via dei Mille, 47

80121 - Napoli

 

SEDE OPERATIVA

Piazza Carità, 32 

80134 - Napoli

Tel. 081 0102554

 

P.IVA: 08060921213

info@crosshub.it

crosshub@b2bpec.it

Follow us