Il Policy Paper AI Act frutto della collaborazione con Qubit Law Firm & Partners, mira a promuovere un'intelligenza artificiale affidabile, conforme ai valori europei, e rispettosa della salute, sicurezza e diritti fondamentali, attraverso un approccio basato sul rischio.
Obiettivi principali:
- Sviluppare un'IA antropocentrica e innovativa.
- Ridurre gli oneri normativi per le PMI.
- Rafforzare la fiducia nell'IA.
Struttura del regolamento:
Divieti assoluti:
Sistemi IA con rischi inaccettabili, come manipolazione, sfruttamento di vulnerabilità o riconoscimento biometrico in tempo reale (eccetto rare eccezioni).
Sistemi ad alto rischio:
Usati in settori critici (sanità, lavoro, credito), con obbligo di:
- Documentazione tecnica.
- Monitoraggio continuo.
Sistemi a rischio limitato:
Richiedono trasparenza, ad esempio chatbot devono dichiarare la loro natura non umana.
Soggetti coinvolti:
- Fornitori: Sviluppano e distribuiscono i sistemi IA.
- Deployer: Li utilizzano nell'UE, garantendo conformità e monitoraggio.
- Importatori e distributori: Devono verificare la conformità dei sistemi.
Obblighi normativi:
- Fornitori: Tracciabilità, certificazione e registrazione in database europei.
- Utilizzatori: Monitoraggio delle performance e segnalazione di anomalie.
Governance e sanzioni:
- Coordinamento tra autorità nazionali ed europee.
- Sanzioni pecuniarie e ritiro dal mercato per i sistemi non conformi.
Indicazioni per le imprese:
- Investire in competenze e governance dei dati.
- Organizzarsi per garantire la compliance.
- Valutare il proprio ruolo nella catena del valore dell’IA.
Ambito di applicazione:
L'AI Act si applica ai sistemi IA progettati per adattarsi autonomamente al contesto e generare risultati (output). Non include:
- Software tradizionali basati su logiche predeterminate.
- Sistemi per scopi di ricerca, difesa o sicurezza nazionale.