Ated
ATED ICT TICINO
03.05.21 - 08:020

Dall'Ue le prime regole per l'Intelligenza artificiale

Regole e incentivi per fare dell'Unione un polo mondiale dell'innovazione nel settore, dove l'AI è utile per i cittadini

Stabiliti quattro livelli di rischio, ammesso il riconoscimento biometrico dietro autorizzazione specifica.

LUGANO - La Commissione Europea ha presentato a Bruxelles il 21 di aprile la proposta di nuove regole e azioni con un obiettivo assai ambizioso: trasformare l'Europa nel polo mondiale per un'intelligenza artificiale affidabile.

«L'intelligenza artificiale è una fantastica opportunità per l'Europa. E i cittadini meritano tecnologie di cui possono fidarsi. Oggi presentiamo nuove regole per un'Al affidabile, norme che stabiliscono standard elevati in base ai diversi livelli di rischio». Lo dichiara in un tweet la Presidente della Commissione europea, Ursula von der Leyen. «Oggi presentiamo anche un piano coordinato, per delineare le riforme e gli investimenti di cui abbiamo bisogno per garantire la nostra posizione di leader in AI, a livello mondiale. Con quasi 150 miliardi di euro di investimenti digitali - il 20% del budget - Next Generation Eu contribuirà a rafforzare l'eccellenza nell'AI dell'Unione europea», ha spiegato la Presidente in un intervento molto atteso.

La Commissione Europea ha predisposto il primo quadro giuridico sull'AI mai realizzato in Europa. Come rilevano Rainews e BBC News si tratta di un piano -  coordinato con gli Stati membri - per garantire la sicurezza e i diritti fondamentali di cittadini e imprese. Una serie di norme che rafforzano l'adozione dell'AI, gli investimenti e l'innovazione nel settore in tutta l'Unione Europea. «Vogliamo una AI affidabile», scrive su Twitter la commissaria Margrethe Vestager, «per la salute, la lotta al cambiamento climatico, la vita di tutti i giorni, se possiamo fidarci che non metta a rischio i nostri diritti fondamentali», spiegando il senso della proposta discussa.

Sono stati definiti 4 livelli di rischio

Le nuove regole saranno applicate dovunque in Ue, con un approccio basato sul livello di rischio.

  • Rischio inaccettabile: i sistemi basati su intelligenza artificiale considerati una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone saranno vietati. Sono compresi i sistemi o le applicazioni di AI che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti (ad esempio, giocattoli che utilizzano l'assistenza vocale per incoraggiare i comportamenti pericolosi dei minori) e i sistemi che consentono ai governi di attribuire un "punteggio sociale".
  • Rischio alto: in questa categoria rientrano sistemi in cui la tecnologia di AI è utilizzata e che saranno soggetti a obblighi rigorosi prima che possano essere immessi sul mercato:
  1. Infrastrutture critiche (ad esempio i trasporti), poiché potrebbe mettere a rischio la vita e la salute dei cittadini;
  2. Istruzione o formazione professionale, poiché può determinare l'accesso all'istruzione e il percorso professionale della vita di una persona (ad esempio, attribuzione del punteggio degli esami);
  3. Componenti di sicurezza dei prodotti (ad esempio un'applicazione di AI utilizzata nella chirurgia assistita da robot);
  4. Occupazione, gestione dei lavoratori e dell'accesso al lavoro autonomo (ad esempio, software di selezione dei curricula per le procedure di assunzione);
  5. Servizi pubblici e privati essenziali (ad esempio, lo 'scoring' o punteggio del credito che può vedere negato ai cittadini la possibilità di ottenere un prestito);
  6. Attività che possono interferire con i diritti fondamentali delle persone (ad esempio, valutazione dell'affidabilità delle prove);
  7. Gestione dei migranti, dell'asilo e del controllo delle frontiere (ad esempio, verifica dell'autenticità dei documenti di viaggio);
  8. Amministrazione della giustizia e processi democratici (ad esempio, applicazione della legge a una serie concreta di fatti).
  • Ci sono poi i sistemi a rischio limitato, come i chatbot, con specifici obblighi di trasparenza (gli utenti dovrebbero essere consapevoli del fatto che stanno interagendo con una macchina).
  • Sistemi a rischio minimo: come le applicazioni, quali videogiochi o filtri anti spam basati sull'AI. Secondo la Commissione, la grande maggioranza dei sistemi di AI rientra in questa categoria, quindi il progetto di regolamento non interviene in questo caso.

 

Il riconoscimento biometrico rimane un rischio alto

Come rileva Rainews, nessuna messa al bando e neppure moratoria per i sistemi di intelligenza artificiale basati sui dati biometrici dei cittadini, anche se tutti i sistemi di identificazione biometrica remota sono considerati ad alto rischio e soggetti a requisiti rigorosi. Il loro utilizzo in tempo reale ai fini di attività contrasto in spazi accessibili al pubblico è in linea di principio vietato. Sono previste poche eccezioni rigorosamente definite e regolamentate (ad esempio, dove strettamente necessario per cercare un minore scomparso, prevenire una minaccia terroristica specifica e imminente o individuare, localizzare, identificare o perseguire autori o sospettati di un reato grave). In questi casi l'uso è soggetto all'autorizzazione di un organo giudiziario o di un altro organo indipendente, con limiti per quanto riguarda il tempo, la portata geografica e le banche dati. Infine, Thierry Breton, Commissario per il Mercato interno, ha ricordato che: «L'AI è un mezzo, non un fine. Esiste da decenni, ma ora sono possibili nuove capacità alimentate dalla potenza di calcolo. Ciò offre un enorme potenziale in tanti settori diversi tra cui la sanità, i trasporti, l'energia, l'agricoltura, il turismo o la cybersecurity, ma presenta anche una serie di rischi. Le proposte odierne mirano a rafforzare la posizione dell'Europa quale polo globale di eccellenza nell'AI dai laboratori al mercato, a garantire che l'AI in Europa rispetti i nostri valori e le nostre regole e a sfruttare il potenziale dell'AI per uso industriale». 

Il Parlamento europeo e gli Stati membri dovranno adottare le proposte della Commissione con procedura legislativa ordinaria. Una volta adottati, i regolamenti saranno direttamente applicabili in tutta l'Ue.

CHI È ated - ICT Ticino

ated - ICT Ticino è un’associazione indipendente, fondata e attiva nel Canton Ticino dal 1971, aperta a tutte le persone, aziende e organizzazioni interessate alle tecnologie e alla trasformazione digitale. Dal suo esordio, ated - ICT Ticino organizza manifestazioni e promuove innumerevoli conferenze, giornate di studio, visite e viaggi tematici, workshop e corsi. ated - ICT Ticino collabora con le principali istituzioni pubbliche e private, enti e aziende di riferimento, nonché altre associazioni vicine al settore tecnologico e all’innovazione. Grazie alla costante crescita qualitativa dell’attività svolta sul territorio, ated – ICT Ticino si propone come l’associazione di riferimento nell’ambito economico, politico ed istituzionale del cantone, in grado di favorire il dibattito tra aziende e professionisti e capace di coinvolgere le giovani generazioni, grazie ai percorsi promossi dal programma ated4kids e da tutte le sue altre iniziative.

Per ulteriori informazioni
ated – ICT Ticino
Email: media@ated.ch | T. +41(0)91 8575880

Ated
Ingrandisci l'immagine
ULTIME NOTIZIE ated ICT Ticino
Copyright ©2021 - TicinOnline SA  WhatsApp |  Company Pages | Mobile Report

Stai guardando la versione del sito mobile su un computer fisso.
Per una migliore esperienza ti consigliamo di passare alla versione ottimizzata per desktop.

Vai alla versione Desktop
rimani sulla versione mobile