Back Regolamento Ue sull’intelligenza artificiale e Gdpr cross hub

Regolamento Ue sull’intelligenza artificiale e Gdpr

La Commissione Europea ha presentato il Regolamento 2021/106 che delinea un quadro armonizzato sull’intelligenza artificiale. Ne parliamo con Piero Ricciardi, esperto di Compliance integrata in particolare su privacy e protezione dati

Postato il: 28-May-2021

1)Buongiorno Piero, il 21 aprile 2021 la Commissione Europea ha presentato la proposta di regolamento sull’intelligenza artificiale definita come un insieme di tecnologie in rapida evoluzione finalizzate ad ottimizzare il benessere sociale. Rispetto al nuovo  regolamento, potresti spiegarci quali obiettivi si pone e se esistono punti di contatto con il Gdpr?

 

Piero: L’obiettivo della fonte normativa è declinare i vantaggi derivanti dall’impiego di sistemi di intelligenza artificiale come:

  • il miglioramento nella fruizione dei servizi del cittadino,
  • l'agevolazione dello sviluppo delle imprese,
  • il conferimento di maggiore efficienza ai servizi di interesse pubblico

con i risvolti negativi che potrebbero concretizzarsi, ove i primi venissero impiegati mediante un uso distorto o abusivo.

 

Nello specifico, gli obiettivi che il Regolamento si propone di realizzare sono:

  • garantire che i sistemi di IA immessi sul mercato dell'Unione siano sicuri e rispettino le leggi esistenti sui diritti fondamentali e sui valori dell'unione
  • garantire la certezza del diritto per facilitare gli investimenti e l'innovazione nell’IA
  • migliorare la governance e l'effettiva applicazione delle leggi esistenti sui diritti fondamentali e sui requisiti di sicurezza applicabili IA sistemi di IA
  • facilitare lo sviluppo di un mercato unico applicazioni di IA legali, sicure e affidabili, prevenendo la frammentazione del mercato interno.

 

Rispetto ai punti di contatto con il Gdpr, la risposta è Si.

Esistono notevoli assonanze tra il cd. Gdpr e la proposta di Regolamento sull’intelligenza artificiale (IA); un rapido excursus ci aiuterà a comprenderle meglio. Il 21 aprile 2021 la Commissione Europea ha presentato la propria proposta di Regolamento europeo sull’Intelligenza Artificiale (IA), volto ad introdurre una disciplina unanime e condivisa tra gli Stati Membri nell’ottica di garantire i diritti e le libertà fondamentali di tutti i cittadini europei.

 

Analogamente a quanto è accaduto col Gdpr, anche questo sulla IA avrà un proprio iter declinato tra approvazione e messa in esecuzione. Con questo Regolamento verranno introdotte, salvo modifiche, una serie di obblighi particolarmente significativi relativamente ai sistemi di IA, che ricalcheranno l’approccio del Regolamento europeo sulla protezione dei dati.

 

2) Chiariti gli obiettivi della proposta di regolamento, possiamo affermare che al suo interno vi siano varie tipologie di rischi inerenti all'IA?

 

Piero: In effetti, si parte dalla individuazione di un rischio inaccettabile; qui si tratta di sistemi IA che mettono a rischio i diritti e le libertà dei cittadini UE e che, pertanto, saranno sostanzialmente banditi.

 

In tali casi di parla di IA forte in quanto questa tecnologia è in grado di riprodurre processi intellettivi analoghi a quelli umani; rientrano in questa classe:

  • i sistemi di IA che utilizzino tecniche subliminali che, al di là della consapevolezza di una persona, possa manipolare materialmente il suo comportamento in un modo tale da causare (o è probabile che possa causare a quella persona o a un'altra persona) danni fisici o psicologici;

 

  • i sistemi di IA che sfruttino una qualsiasi delle vulnerabilità di un gruppo specifico di persone a causa della loro età, disabilità fisica o mentale, al fine di manipolare materialmente il comportamento di una persona appartenente a quel gruppo in un modo da causare (o è probabile che possa causare) a quella persona o un'altra persona danni fisici o psicologici;

 

  • i sistemi di IA da parte della pubblica autorità (o per suo conto) per la valutazione o la classificazione dell’affidabilità delle persone fisiche per un determinato periodo di tempo in base al loro comportamento sociale o a caratteristiche personali o di personalità note o previste, con l’attribuzione di un punteggio sociale (c.d. social scoring);

 

  • l'uso di sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico per finalità di law enforcement (fatte salve alcune eccezioni relative: alla ricerca mirata di specifiche potenziali vittime di reati, compresi bambini scomparsi; la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o sicurezza fisica delle persone fisiche o di un attacco terroristico; l'individuazione, la localizzazione, l'identificazione o il perseguimento di un autore o sospettato di un reato punibile nel membro Stato interessato da una pena detentiva o un ordine di detenzione per a periodo massimo di almeno tre anni, come determinato dalla legge dello stesso Stato membro).

 

3) Si può pensare che una IA così pervasiva possa trovare un ambito di applicazione?

 

Piero: Si, ma è necessario ed opportuno che in questi casi si debba predisporre una serie di sistemi atti a limitarne o a gestirne l’uso; ad esempio:

 

  • predisporre, implementare e documentare un sistema di gestione del rischio (art. 9); nei sistemi di IA ad alto rischio che utilizzano tecniche che comportano la formazione di modelli con i dati, devono essere sviluppati sulla base di set di dati di addestramento, convalida e test che soddisfano i criteri di qualità specifici (art. 10);

 

  • redigere la documentazione tecnica prima delle data di immissione sul mercato o della messa in servizio e deve essere costantemente aggiornata (art. 11)

 

  • essere progettati e sviluppati con capacità che consentano la registrazione automatica degli eventi ("log") durante il loro funzionamento; tali capacità di registrazione devono essere conformi a standard riconosciuti o comuni specifiche (art. 12)

 

  • essere progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente per consentire agli utenti di interpretare il sistema output e utilizzarlo in modo appropriato (art. 13)

 

  • essere progettati e sviluppati in modo tale - (anche con strumenti di interfaccia uomo-macchina appropriati) - da poter essere efficacemente controllati da persone fisiche durante il periodo in cui è in uso il sistema di IA (art. 14);

 

  • i fornitori garantiscono che i sistemi di IA destinati a interagire con le persone fisiche siano progettati e sviluppati in modo tale che le persone fisiche siano informate che stanno interagendo con un sistema di intelligenza artificiale; tale obbligo non si applica ai sistemi di IA autorizzati per legge a individuare, prevenire, indagare e perseguire reati:

 

  • gli utenti di un sistema di riconoscimento delle emozioni o di un sistema di classificazione biometrica devono informare del funzionamento del sistema le persone fisiche ad esso esposte. Questo obbligo non si applica ai sistemi di IA utilizzati per la categorizzazione biometrica, nei casi consentiti, per rilevare, prevenire e indagare sui reati.

 

  • Gli utenti di un sistema IA che genera o manipola contenuti immagine, audio o video che assomiglino sensibilmente a persone, oggetti, luoghi o altre entità o eventi esistenti e che sembrino falsamente una persona reale («deep fake»), deve rivelare che il contenuto è stato generato o manipolato artificialmente.

 

4) All'interno della proposta di regolamento, si sente spesso parlare di sistemi invasivi utilizzati per il riconoscimento facciale. Puoi spiegarci meglio?

 

Piero: per i sistemi IA di riconoscimento facciale biometrico utilizzati dalle forze dell’ordine per ragioni di law enforcement, pur rientrando in questa classe, i limiti saranno molto più stringenti. Il loro utilizzo da parte della pubblica autorità sarà consentito solo in casi eccezionali, quali la ricerca di un soggetto smarrito o IA fini di prevenzione di una specifica ed imminente minaccia terroristica.

 

A riguardo, è necessario sottolineare che il Garante Europeo ha manifestato un po’ di malumore verso la scelta della Commissione di non inibire completamente l’utilizzo di questi strumenti, ritenendoli misure di sorveglianza di massa che avrebbero meritato limiti ulteriori rispetto a quelli correlati al solo utilizzo per ragioni di law enforcement.

 

5) Definiti gli obiettivi e gli ambiti dell'IA, potresti dirci quali sono le principali linee guida di tali applicazioni? Inoltre all'interno della proposta, è previsto l'intervento delle autorità di controllo e sono previste delle sanzioni?

 

Piero: In estrema sintesi possiamo indicare come prioritaria la protezione della dignità umana e la tutela dei diritti umani e delle libertà fondamentali, in particolar modo quando le IA sono impiegate nei processi decisionali; le IA che trattano dati personali devono operare secondo un approccio basato sugli requisiti analoghi a quelli previsti dal Regolamento 679/2016 (GDPR), e cioè: liceità, correttezza, specificazione delle finalità, proporzionalità del trattamento, privacy by design, privacy by default, accountability, trasparenza, sicurezza dei dati e gestione dei rischi.

 

Per lo sviluppo delle IA è necessario un approccio che prevenga e attenui i potenziali rischi del trattamento dei dati personali e nella valutazione del rischio, ed è necessario, altresì, adottare una prospettiva più ampia che tenga conto non solo dei diritti umani e delle libertà fondamentali ma anche del funzionamento delle democrazie, dei valori sociali ed etici dei Paesi dell’Unione europea; le IA devono rispettare pienamente i diritti degli interessati e devono sempre consentire un controllo da parte degli interessati.

 

Ancora, si deve adottare un approccio preventivo per valutare l’impatto di possibili conseguenze negative derivante dallo sviluppo di applicazioni IA in tutte le fasi del trattamento dei dati personali, avendo un approccio volto a garantire la tutela dei diritti umani dalle fasi di progettazione, evitando così qualsiasi pregiudizio o altri effetti negati sui diritti umani e le libertà fondamentali degli interessati; valutare la qualità, la natura, l’origine e la quantità dei dati personali utilizzati, eliminando i dati superflui e utilizzato dati sintetici (rappresentativi dei dati reali originali) quando possibile.

 

Per ottemperare a tali requisiti è necessario che l’utilizzo di modelli algoritmici siano sempre contestualizzati per non produrre impatti negativi sulle persone e la società.

 

Anche gli sviluppatori, produttori e fornitori di servizi IA devono coinvolgere nei processi di sviluppo delle applicazioni comitati indipendenti di esperti per garantire la trasparenza e il rispetto dei diritti umani ed evitare potenziali pregiudizi.

 

Sicuramente, ma alle autorità di controllo devono essere forniti i mezzi sufficienti per attuare i programmi di vigilanza sugli algoritmi. L’intervento umano deve essere preservato nei processi decisionali; gli sviluppatori, produttori e fornitori di IA, qualora ritengano che l’applicazione possa incidere in modo significativo sui diritti umani e sulle libertà fondamentali, dovrebbero consultare le preposte autorità di controllo e dovrebbero promuovere la cooperazione tra le diverse autorità competenti in materia di protezione dei dati personali, di concorrenza e diritti del consumatore.

Per questo motivo è necessario garantire l’indipendenza dei comitati di esperti.

 

I legislatori devono garantire la partecipazione e l’inclusione attiva di individui, gruppi o altre parti interessate al dibattito sul ruolo della IA.

 

Analogamente a quanto previsto dal GDPR, ogni Stato designerà la propria Autorità di controllo mentre a livello centrale sarà creato il European Artificial Intelligence Board, autorità che ricalca il modello dell’EDPB.

I policy maker devono effettuare investimenti nella direzione di una necessaria alfabetizzazione digitale per aumentare la consapevolezza degli interessati riguardo alle applicazioni IA e i loro effetti.

 

Per il sistema sanzionatorio invece, esso si articolerà su tre livelli:

  • per l’utilizzo dei sistemi proibiti o per la mancata implementazione dei sistemi di data governance previsti per i sistemi ad alto rischio, la sanzione potrà arrivare a 30 milioni di euro o al 6% del fatturato globale medio annuo;
  • per la violazione degli altri obblighi, l’ammontare arriva fino a 20 milioni o il 4% del fatturato globale medio annuo;
  • per la violazione degli obblighi informativi o di notificazione degli eventuali incidenti di sicurezza verso le autorità di controllo, è prevista una fascia sanzionatoria ad hoc che può arrivare a 10 milioni o al 2% del fatturato globale medio annuo.

Non perdere gli ultimi articoli!

Inserisci la tua email 

TAG CLOUD

covid-19 innovazione operations finanza startup coronavirus PMI marketing pmi digital transformation andrà tutto bene internazionalizzazione smart working impresa innovazione tecnologica innovation manager industria 4.0 innovation economia prototipazione rapida innovazione digitale Innovazione controllo di gestione business development innovazione aziendale lavoro agile io resto a casa fintech digital digital marketing impresa digitale business gestione del rischio compliance IoT gestione aziendale Ricerca & Sviluppo liquidità impresa legge finanziaria 2020 big data comunicazione d'impresa gestione risorse umane piano impresa 4.0 cina gestione impresa Impresa fase 2 temporary management sviluppo impresa Al soft skill export stampa 3d crescita aziendale system integration consulenza finanziaria credito d'imposta GDPR voucher innovation manager risorse umane covid e-commerce venture capital vendita online finanza agevolata digitalizzazione HR trasformazione digitale bonus pubblicità blockchain crowdfunding cybersecurity beni di lusso crisi economica criptovaluta bonus impresa buzzoole come fare un business plan consulenza cloud computing cloud consulente commissione di massimo scoperto comunicazione aziendale concorrenzasleale community consulenza HR clausola salvaguardia contact tracing contributo a fondo perduto business plan startup conad cambio valuta consumi cash flow capacità di feedback business plan Strumento a complemento della finanza tradizionalenel segno dell’innovazione e della trasparenza Financial Controller Manager Fintech Financial Controller ExtraMot Ecommerce Exponential Technologies Fractional management Gestione del personale Human resources IA Human Resources Harmont & Blaine Gestione manageriale H R Digital Transformation Credito d'Imposta CFO CRM Bankitalia Analisi di bilancio 3d printing AR CRM aziendale evoluto Change Management Consulenza Consulenza direzionale Comunicazione interna Commissione europea Cloud Comfort Zone IP Management Il controllo di gestione Sanità 4.0 Sostenibilità Salva banche Risorse Umane Reverse Engineering Risk Management data protection Sviluppo analisi paese andràtuttobene alibaba agevolazioni Temporary management acceleratore startup Rendiconto finanziario Produzione 4.0 Innovation management Intelligenza artificiale Innovation Manager Industrial Controller Impresa 4.0 innovativa Impresa digitale Iot Kaizen Material Requirement Planning PMI innovative Marketing Lean organization Lean Lean manufacturing asset management fasi del risk management regolamento Ue retail realtà aumentata public relations protezione dati personali pubblicità reverse engineering riduzione sprechi risorse finanziarie robotica avanzata risk manager risk management rischio cambio protezione dati project manager newfinance normativa new normal modello business minibond open innovation opensource processi di gestione processi operativi privacy pmi innovativa organizzazione aziendale scaleup screening tecnologia tecnologia avanzata sviuppo impresa sviluppo sostenibile sviluppo organizzativo sviluppo risorse umane tecnologie 4.0 tecnologie della sanità voucher innovazione web marketing tracciamento dati temporary manager tecnologie verdi sviluppo business supporto imprese sicurezza informatica social media marketing sicurezza dati shared innovation settore fashion soft skills soft skill” stratup supply chain strategia di comunicazione strategia d'impresa sparring partner metodi organizzativi aziendali innovativi metodi formativi formazione 4.0 formazione a distanza finanziamenti imprese finanzalternativa webidoo feedback freesource fund raising gestione efficiente gestione finanziaria gestione del credito gdpr gdo equity crowdfunding employee experience deliver to stock development decreto rilancio decreto liquidità decreto cura Italia dialogo uomo-macchina digitalizzazione aziendale emergenza coronavirus emergenza covid e-learning e-finance digitalizzazione impresa gestione personale gestione rischi investimenti investimenti green international market intelligenza emotiva insurtech integrazione processi aziendali italia smart leadership maxi decreto mercati esteri marketing digitale marketing automation make to order innovazone digitale influencer marketing il ruolo dell'advisor impresa 4.0 human resources management green economy grande distribuzione organizzata impresa innovativa impresa smart industria digitale influencer incentivi impresa incentivi economici imprese dati
Iscriviti alla newsletter
Cross Hub Logo

Affiancare le imprese, enti ed istituzioni in tutti gli aspetti di natura strategica ed operativa attraverso la "mobilitazione integrata" (CROSS) di competenze ed esperienze (HUB) in risposta alle specifiche esigenze aziendali.

CONTACT INFO

 

SEDE LEGALE

Via dei Mille, 47

80121 - Napoli

 

SEDE OPERATIVA

Piazza Carità, 32 

80134 - Napoli

Tel. 081 0102554

 

P.IVA: 08060921213

info@crosshub.it

crosshub@b2bpec.it

Follow us