AVVOCATITECH | STUDIO LEGALE

AI Act - Verifica di conformità al Regolamento UE 2024/1689

Scopri quali obblighi del Regolamento UE sull'Intelligenza Artificiale si applicano alla tua organizzazione.
Il percorso si adatta in base al tuo ruolo e al tipo di sistema AI.

Step 1 / 11

EEntità
HRAlto Rischio
SAmbito
RRequisiti

Sezione E - Identificazione dell'entità

Quale ruolo ricopre la tua organizzazione in relazione al sistema di intelligenza artificiale?

Definizioni ai sensi dell'art. 3 Reg. UE 2024/1689

Fornitore (art. 3 n. 3): persona fisica o giuridica, autorita pubblica, agenzia o altro organismo che sviluppa un sistema di IA o un modello di IA per scopi generali o fa sviluppare un sistema di IA o un modello di IA per scopi generali e lo immette sul mercato o mette in servizio il sistema di IA con il proprio nome o marchio commerciale, a titolo oneroso o gratuito.

Deployer (art. 3 n. 4): persona fisica o giuridica, autorita pubblica, agenzia o altro organismo che utilizza un sistema di IA sotto la propria autorita, tranne nel caso in cui il sistema di IA sia utilizzato nell'ambito di un'attivita personale non professionale.

Distributore (art. 3 n. 6): persona fisica o giuridica nella catena di fornitura, diversa dal fornitore o dall'importatore, che mette a disposizione un sistema di IA sul mercato dell'Unione senza alterarne le caratteristiche.

Importatore (art. 3 n. 7): persona fisica o giuridica stabilita nell'Unione che immette sul mercato un sistema di IA recante il nome o il marchio commerciale di una persona fisica o giuridica stabilita al di fuori dell'Unione.

Fabbricante (art. 3 n. 8 e art. 25 par. 1 lett. b): fabbricante di un prodotto che immette sul mercato un sistema di IA insieme al proprio prodotto e con il proprio nome o marchio commerciale.

Rappresentante autorizzato (art. 3 n. 5): persona fisica o giuridica stabilita nell'Unione che ha ricevuto e accettato il mandato scritto di un fornitore di un sistema di IA o di un modello di IA per scopi generali stabilito al di fuori dell'Unione a svolgere per conto di tale fornitore gli obblighi e le procedure stabiliti dal presente regolamento.

🛠FornitoreSviluppo e immissione sul mercato di sistemi AI
🔍Deployer / UtilizzatoreUso di sistemi AI di terzi nella propria attivita
🚚DistributoreMessa a disposizione sul mercato UE senza modifiche
🌎ImportatoreImmissione sul mercato UE di sistemi AI extra-UE
🏭FabbricanteIntegrazione di un sistema AI nel proprio prodotto
👤Rappresentante autorizzatoMandato scritto da fornitore extra-UE

Sezione E - Modifiche al sistema AI

La tua organizzazione ha apportato modifiche sostanziali al sistema di IA prima di reimmetterlo sul mercato o metterlo nuovamente in servizio con il proprio nome o marchio?

Quando distributore o importatore diventano fornitori - art. 25 par. 1 Reg. UE 2024/1689

Ai sensi dell'art. 25 par. 1, i distributori, gli importatori, i deployer o qualsiasi altro terzo sono considerati fornitori ai fini del presente regolamento e sono soggetti agli obblighi del fornitore nei seguenti casi:

a) immettono sul mercato o mettono in servizio un sistema di IA ad alto rischio con il loro nome o marchio commerciale;

b) modificano lo scopo previsto di un sistema di IA, anche di uso generale, gia immesso sul mercato o gia in servizio;

c) apportano una modifica sostanziale a un sistema di IA ad alto rischio gia immesso sul mercato o gia in servizio.

Una modifica e sostanziale quando altera in modo significativo le prestazioni, il livello di accuratezza o la destinazione d'uso del sistema.

SiModifiche sostanziali al sistema AI
NoNessuna modifica sostanziale

Sezione E - Integrazione nel prodotto

Il prodotto che metti sul mercato integra un sistema di IA che e un componente di sicurezza del prodotto stesso o che e soggetto a normative di sicurezza specifiche di settore (es. dispositivi medici, macchinari, veicoli)?

Fabbricante e componente di sicurezza - art. 25 par. 1 lett. b) e Allegato I Reg. UE 2024/1689

Ai sensi dell'art. 6 par. 1, un sistema di IA e considerato ad alto rischio quando soddisfa entrambe le seguenti condizioni:

a) e destinato a essere utilizzato come componente di sicurezza di un prodotto soggetto alla normativa di armonizzazione dell'Unione elencata nell'allegato I;

b) il prodotto il cui componente di sicurezza e il sistema di IA e soggetto a una valutazione della conformita da parte di terzi ai fini dell'immissione sul mercato o della messa in servizio di tale prodotto a norma della normativa di armonizzazione dell'Unione elencata nell'allegato I.

L'Allegato I include: regolamenti su macchine, giocattoli, imbarcazioni da diporto, ascensori, ATEX, apparecchiature radio, dispositivi medici, dispositivi medico-diagnostici in vitro, agenti fitosanitari, fertilizzanti, veicoli a motore e agricoli, aviazione civile.

SiComponente di sicurezza in prodotto normato
NoProdotto non soggetto a normative di sicurezza specifiche

Sezione HR - Alto rischio (Allegato I - Prodotti)

Il sistema di IA e destinato a essere utilizzato come componente di sicurezza di un prodotto soggetto alla normativa UE di armonizzazione (Allegato I AI Act)?

Normativa di armonizzazione UE - Allegato I AI Act

Ai sensi dell'art. 6 par. 1, il sistema di IA e ad alto rischio se e componente di sicurezza di prodotti soggetti a:

Direttive/Regolamenti principali: Regolamento macchine (2023/1230), Direttiva giocattoli (2009/48/CE), Direttiva imbarcazioni da diporto (2013/53/UE), Direttiva ascensori (2014/33/UE), Direttiva ATEX (2014/34/UE), Direttiva apparecchiature radio (2014/53/UE), Direttiva dispositivi medici (2017/745/UE), Regolamento IVD (2017/746/UE), Regolamento veicoli a motore (2018/858/UE), Regolamento prodotti fitosanitari, Regolamento fertilizzanti, Regolamento veicoli agricoli, Regolamento aviazione civile.

E' necessario che il prodotto sia soggetto a valutazione della conformita da parte di terzi per l'immissione sul mercato.

SiComponente di sicurezza in prodotto Allegato I
NoNon rientra nell'Allegato I

Sezione HR - Alto rischio (Allegato III - Categorie)

Il sistema di IA rientra in una delle categorie ad alto rischio elencate nell'Allegato III del Regolamento AI Act?

Categorie Allegato III - art. 6 par. 2 Reg. UE 2024/1689

Sono considerati ad alto rischio i sistemi di IA elencati nell'Allegato III, nei seguenti settori:

1. Biometria: identificazione biometrica remota, categorizzazione biometrica, riconoscimento delle emozioni.

2. Infrastrutture critiche: gestione e funzionamento di infrastrutture digitali, stradali, ferroviarie, idriche, di gas, di calore, elettriche.

3. Istruzione e formazione professionale: determinazione di accesso o ammissione, valutazione degli studenti, monitoraggio durante esami, orientamento scolastico.

4. Occupazione e lavoratori: assunzione e selezione (screening CV, valutazione colloqui), allocazione dei compiti, monitoraggio delle prestazioni, promozioni e licenziamenti.

5. Servizi essenziali: valutazione del merito creditizio, solvibilita, classificazione di emergenze, valutazione dei rischi per assicurazioni sanitarie e sulla vita.

6. Attivita di contrasto: poligrafo, valutazione rischio di recidiva, profilazione durante indagini, analisi di prove digitali.

7. Migrazione e asilo: valutazione rischio di sicurezza, esame domande di visto/asilo, controllo documenti di viaggio.

8. Amministrazione della giustizia e processi democratici: ricerca e interpretazione dei fatti e della legge, elezioni e campagne politiche.

SiRientra in una categoria dell'Allegato III
NoNon rientra nell'Allegato III

Sezione HR - Valutazione del rischio significativo

Il sistema di IA che rientra nell'Allegato III presenta un rischio significativo per la salute, sicurezza o diritti fondamentali delle persone, tenuto conto della sua natura, finalita e contesto di utilizzo?

Esclusione per assenza di rischio significativo - art. 6 par. 3 e 4 Reg. UE 2024/1689

L'art. 6 par. 3 prevede che un sistema di IA di cui all'Allegato III non e considerato ad alto rischio se non presenta un rischio significativo per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, in particolare perche:

a) e destinato a svolgere un compito procedurale stretto;

b) e destinato a migliorare il risultato di un'attivita umana precedentemente completata;

c) e destinato a rilevare schemi decisionali o deviazioni da schemi decisionali precedenti e non e destinato a sostituire o influenzare la valutazione umana precedentemente completata senza un'adeguata revisione umana; o

d) e destinato a svolgere un compito preparatorio rispetto a una valutazione rilevante per i fini dei casi d'uso ad alto rischio di cui all'Allegato III.

Tuttavia, un sistema di IA e sempre considerato ad alto rischio se profila persone fisiche. Il fornitore che ritiene che il proprio sistema non sia ad alto rischio ne da notifica all'autorita nazionale competente (art. 6 par. 4).

Si, rischio significativoNon si applicano le eccezioni dell'art. 6 par. 3
No, basso rischioRientro nelle eccezioni - non e ad alto rischio

Sezione S - Ambito di applicazione

Il sistema di IA rientra nell'ambito di applicazione del Regolamento? Seleziona tutte le condizioni applicabili.

Ambito di applicazione - art. 2 Reg. UE 2024/1689

Il regolamento si applica (art. 2 par. 1) a:

a) fornitori che immettono sul mercato o mettono in servizio sistemi di IA nell'Unione, indipendentemente dal fatto che tali fornitori siano stabiliti nell'Unione o in un paese terzo;

b) deployer di sistemi di IA aventi sede nell'Unione;

c) fornitori e deployer di sistemi di IA aventi sede in un paese terzo, quando l'output del sistema di IA e utilizzato nell'Unione;

d) importatori e distributori di sistemi di IA;

e) fabbricanti di prodotti che immettono sul mercato o mettono in servizio un sistema di IA insieme al loro prodotto;

f) rappresentanti autorizzati di fornitori non stabiliti nell'Unione.

Esclusioni (art. 2 par. 3): il regolamento non si applica ai sistemi di IA sviluppati o utilizzati esclusivamente per scopi militari, di difesa o di sicurezza nazionale; ai sistemi di IA utilizzati esclusivamente per attivita di ricerca e sviluppo scientifici; ai sistemi di IA open-source rilasciati pubblicamente (con eccezioni per i sistemi ad alto rischio, proibiti o GPAI a rischio sistemico).

🇪🇺Mercato o servizio UESistema immesso/messo in servizio nell'Unione
📌Output usato nell'UEOutput prodotto fuori UE ma utilizzato nell'Unione
🛡Uso militare / sicurezza nazionaleEsclusivamente per difesa o sicurezza nazionale
🔬Solo ricerca scientificaEsclusivamente per R&D scientifica pre-commerciale

Sezione R - Modelli IA per scopi generali (GPAI)

Il sistema di IA e un modello di IA per scopi generali (GPAI) o si basa su un modello GPAI che la tua organizzazione ha sviluppato o immesso sul mercato?

Modello di IA per scopi generali - art. 3 n. 63 e art. 51 Reg. UE 2024/1689

Modello di IA per scopi generali (art. 3 n. 63): modello di IA, anche quando addestrato con grandi quantita di dati usando l'autoapprendimento su vasta scala, che presenta una generalita significativa ed e in grado di svolgere in modo competente un'ampia gamma di compiti distinti, indipendentemente dalle modalita di immissione sul mercato, e che puo essere integrato in una varieta di sistemi o applicazioni a valle.

Rischio sistemico (art. 51): un modello GPAI e classificato come modello GPAI con rischio sistemico se presenta capacita ad alto impatto. Si presume che tale condizione sia soddisfatta quando la potenza di calcolo cumulativa usata per addestrarlo e superiore a 10^25 FLOPs, oppure se la Commissione lo classifica come tale sulla base di altri criteri (impatto sul mercato interno, numero di utenti, rischi per salute, sicurezza, diritti fondamentali, societa o democrazia).

Esempi di GPAI: grandi modelli linguistici (LLM) come GPT, Claude, Llama; modelli multimodali generativi; modelli per la generazione di immagini o audio su larga scala.

🎸GPAI con rischio sistemicoSuperiore a 10^25 FLOPs o classificato dalla Commissione
🤖GPAI senza rischio sistemicoModello per scopi generali, non sistemico
🔢Non e un GPAISistema AI per scopo specifico

Sezione R - Pratiche vietate

Il sistema di IA implementa una o piu delle pratiche vietate dall'art. 5 del Regolamento?

Pratiche di IA vietate - art. 5 Reg. UE 2024/1689

Sono vietati i sistemi di IA che:

a) utilizzano tecniche subliminali che agiscono senza la consapevolezza della persona o tecniche volutamente manipolative o ingannevoli, con l'obiettivo o l'effetto di alterare materialmente il comportamento di una persona in maniera che causi o possa causare a essa o a un'altra persona un danno significativo;

b) sfruttano vulnerabilita di specifici gruppi di persone fisiche dovute alla loro eta, disabilita o situazione socioeconomica, con l'obiettivo o l'effetto di alterare materialmente il comportamento di una persona in maniera che causi o possa causare a essa o a un'altra persona un danno significativo;

c) effettuano la valutazione o la classificazione delle persone fisiche nel corso di un determinato periodo di tempo sulla base del loro comportamento sociale o di caratteristiche personali o della personalita conosciute o previste (social scoring);

d) effettuano valutazioni del rischio rispetto a persone fisiche al fine di valutare o prevedere il rischio che una persona fisica commetta un reato basandosi unicamente sulla profilazione o sulla valutazione dei tratti della personalita e delle caratteristiche;

e) creano o espandono banche dati di riconoscimento facciale attraverso la raccolta non mirata di immagini del volto da Internet o da filmati di telecamere a circuito chiuso;

f) inferiscono le emozioni di una persona fisica sul luogo di lavoro e negli istituti di istruzione (tranne per ragioni mediche o di sicurezza);

g) effettuano categorizzazione biometrica di persone fisiche su base individuale basata sui dati biometrici al fine di dedurre o inferire razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche, vita sessuale o orientamento sessuale;

h) utilizzano sistemi di identificazione biometrica remota in tempo reale in spazi accessibili al pubblico per l'attivita di contrasto (con limitate eccezioni).

🚫Si, rientra nelle pratiche vietateIl sistema implementa una delle pratiche proibite
No, nessuna pratica vietataIl sistema non rientra nell'art. 5

Sezione R - Obblighi di trasparenza

Il sistema di IA rientra in una o piu delle seguenti categorie soggette a obblighi di trasparenza? (selezione multipla)

Obblighi di trasparenza - art. 50 Reg. UE 2024/1689

Art. 50 par. 1: I fornitori devono garantire che i sistemi di IA destinati a interagire direttamente con le persone fisiche siano progettati e sviluppati in modo tale che le persone fisiche interessate siano informate che stanno interagendo con un sistema di IA (chatbot), a meno che cio non risulti evidente dal contesto.

Art. 50 par. 2: I fornitori di sistemi di IA - compresi i sistemi di IA per scopi generali - che generano contenuto sintetico audio, immagini, video o testo devono garantire che gli output del sistema siano contrassegnati in un formato leggibile meccanicamente e rilevabili come artificialmente generati o manipolati (watermarking contenuto sintetico).

Art. 50 par. 3: I deployer di sistemi di IA che utilizzano il riconoscimento delle emozioni o la categorizzazione biometrica devono informare le persone fisiche interessate del funzionamento del sistema di IA e trattare i dati biometrici interessati (emozioni e biometrica).

Art. 50 par. 4: I deployer che utilizzano un sistema di IA per generare o manipolare contenuto immagine, audio o video che costituisce un deepfake devono comunicare che il contenuto e stato artificialmente generato o manipolato (deepfake).

Art. 50 par. 5: I deployer che utilizzano un sistema di IA per generare o manipolare testo che viene pubblicato allo scopo di informare il pubblico su questioni di interesse pubblico devono comunicare che il testo e stato artificialmente generato o manipolato - tranne se il contenuto e stato sottoposto a revisione umana o editoriale (testo informativo pubblico).

💬Sistema chatbot / agente conversazionaleArt. 50 par. 1 - obbligo di disclosure
🎨Generazione contenuto sinteticoArt. 50 par. 2 - watermarking
📸Emozioni o categorizzazione biometricaArt. 50 par. 3 - informativa
🎥Generazione deepfakeArt. 50 par. 4 - comunicazione obbligatoria
📰Testo informativo pubblicoArt. 50 par. 5 - comunicazione
Nessuna delle precedentiIl sistema non rientra in queste categorie

Sezione R - Valutazione d'impatto sui diritti fondamentali

Sei un'autorita pubblica o un ente privato che eroga servizi pubblici, e utilizzi un sistema di IA ad alto rischio che incide su persone fisiche?

Valutazione d'impatto sui diritti fondamentali (FRIA) - art. 27 Reg. UE 2024/1689

Ai sensi dell'art. 27 par. 1, prima di mettere in uso un sistema di IA ad alto rischio di cui all'Allegato III, i deployer che sono organismi di diritto pubblico, o sono enti privati che forniscono servizi pubblici, e i deployer di sistemi di IA ad alto rischio di cui all'Allegato III, punti 5, lett. b), e 6, effettuano una valutazione d'impatto sui diritti fondamentali che la messa in uso del sistema di IA puo produrre.

La valutazione d'impatto comprende:

a) una descrizione dei processi del deployer in cui il sistema di IA sara messo in uso in funzione della sua finalita prevista;

b) un periodo di tempo e la frequenza con cui il sistema di IA e destinato a essere messo in uso;

c) le categorie di persone fisiche e dei gruppi che potrebbero essere interessati nell'ambito del contesto specifico di utilizzo;

d) i rischi specifici di danno che possono interessare le categorie di persone fisiche o i gruppi identificati;

e) una descrizione dell'attuazione delle misure di supervisione umana in conformita al manuale d'istruzione per l'uso;

f) le misure da adottare in caso di materializzazione di tali rischi.

🏛Si, ente pubblico o servizi pubbliciL'art. 27 si applica - obbligo FRIA
📈No, ente privatoNessun obbligo FRIA obbligatorio

Questo strumento ha finalita esclusivamente informative e non costituisce consulenza legale. I risultati sono indicativi e basati sulle risposte fornite.
Per una valutazione specifica della tua situazione consulta un professionista legale qualificato.
Il presente questionario e liberamente riadattato dal AI Act Compliance Checker realizzato dal Future of Life Institute.

Giovani, esperti, innovativi. Cresciuti nella tradizione forense e immersi nel mondo delle nuove tecnologie, traduciamo le sfide dell’economia digitale in soluzioni legali concrete e sicure.
Parliamo la lingua di chi innova e uniamo rigore giuridico e agilità operativa
per accompagnare startup, aziende tech e creator verso il successo.

Richiedi una valutazione chiara del tuo caso.

Compila il form e ti risponderemo entro 48 ore