Intelligenza Artificiale: tutto ciò che le aziende devono sapere sulle pratiche vietate
Con la parziale entrata in applicazione dell’AI Act, il regolamento europeo sull’intelligenza artificiale n. 2024/1689, dal 2 febbraio 2025 le aziende dovranno fare i conti con una serie di pratiche vietate considerate a rischio inaccettabile.
Questo nuovo quadro normativo non solo ridefinisce i confini dell’innovazione tecnologica ma impone alle imprese di adottare un approccio più etico e trasparente nell’uso dell’IA. A ben vedere, non si tratta solo di un adempimento normativo, ma di un vero e proprio terremoto per il mondo delle imprese, che dovranno ripensare strategie, processi e strumenti per evitare sanzioni pesanti e danni reputazionali.
L’AI Act non si limita a definire linee guida: vieta categoricamente alcune pratiche di Intelligenza Artificiale, considerate troppo pericolose per i diritti fondamentali delle persone. Ma quali sono, nel concreto, le attività proibite? Quali sono i rischi per chi non si adegua? E, soprattutto, come possono le imprese prepararsi per non restare indietro?
In questo articolo esploriamo le pratiche vietate dall’AI Act, analizziamo casi concreti e forniamo consigli pratici per aiutare le aziende a navigare questa nuova era della regolamentazione tecnologica.
Una cosa è certa: ignorare queste regole non è un’opzione.
Ricordiamo inoltre che altre disposizioni dell’AI Act, come quelle relative ai sistemi di intelligenza artificiale ad alto rischio, diventeranno applicabili in fasi successive. Ad esempio:
- a partire dal 2 agosto 2025, saranno soggetti a regole stringenti i sistemi di IA utilizzati in settori critici come la sanità, i trasporti, l’istruzione e il reclutamento;
- dal 2 febbraio 2026, entreranno in vigore ulteriori obblighi per i sistemi di IA generativa (es. ChatGPT) e per quelli utilizzati in contesti di sicurezza pubblica.
Intelligenza Artificiale: quali sono le pratiche vietate dall’AI Act?
L’AI Act identifica alcune applicazioni di intelligenza artificiale come inammissibili per il loro potenziale impatto sui diritti fondamentali. Tra queste figurano:
- La manipolazione subliminale o ingannevole: sistemi di IA progettati per influenzare il comportamento delle persone oltre la loro consapevolezza. Esempio: un’app di ecommerce che utilizza messaggi nascosti o suoni impercettibili per indurre acquisti impulsivi durante momenti di stress o stanchezza. Le aziende devono verificare che i propri sistemi di marketing digitale non sfruttino tecniche subliminali, come l’uso di colori, suoni o messaggi progettati per agire a livello subconscio.
- lo sfruttamento delle vulnerabilità: tecnologie che, utilizzando artatamente l’Intelligenza Artificiale, approfittano di condizioni di fragilità legate all’età, alla disabilità o allo status socio-economico. Esempio: un chatbot che propone prodotti finanziari ad alto rischio a persone anziane con limitata conoscenza degli investimenti. Le aziende devono implementare controlli per evitare che i sistemi di IA interagiscano in modo predatorio con gruppi vulnerabili, ad esempio introducendo meccanismi di verifica dell’età o del livello di comprensione.
- Il Social Scoring: algoritmi che valutano gli individui basandosi su comportamenti sociali o caratteristiche personali. Esempio: un sistema di intelligenza artificiale che assegna un punteggio ai cittadini in base ai loro acquisti, alle interazioni sui social media o alla storia creditizia, limitando l’accesso a servizi essenziali come prestiti o assicurazioni. Le aziende devono evitare l’uso di dati comportamentali per classificare o discriminare gli individui, privilegiando invece criteri oggettivi e trasparenti.
- L’identificazione biometrica in tempo reale: ovvero il riconoscimento facciale in spazi pubblici, salvo eccezioni specifiche. Esempio: telecamere di sorveglianza che scansionano i volti dei passanti in una piazza per identificare potenziali sospetti senza il loro consenso. L’uso di queste tecnologie, che utilizzano l’Intelligenza Artificiale, è consentito solo in casi eccezionali, come la ricerca di un bambino scomparso o la prevenzione di atti terroristici. Le aziende devono garantire che l’uso sia limitato, proporzionato e autorizzato dalle autorità competenti.
- Il riconoscimento delle emozioni: vietato nei luoghi di lavoro e nelle istituzioni educative, a meno che non sia finalizzato a scopi medici o di sicurezza. Esempio: un software di Intelligenza Artificiale che analizza le espressioni facciali dei dipendenti durante le riunioni per valutarne il livello di stress o soddisfazione. Le aziende possono utilizzare queste tecnologie solo in contesti specifici, come la diagnosi di disturbi mentali o la sicurezza in ambienti ad alto rischio. È essenziale ottenere il consenso esplicito degli interessati e garantire la massima trasparenza.
Formazione aziendale sull’intelligenza artificiale potranno difendersi?
Oltre alle pratiche vietate, a partire dal 2 febbraio 2025 diventano operative anche le disposizioni sulla formazione previste dall’AI Act. Queste norme richiedono che le imprese garantiscano una formazione adeguata ai propri dipendenti, in particolare a coloro che sviluppano, implementano o gestiscono sistemi di intelligenza artificiale. L’obiettivo è assicurare che il personale sia consapevole dei rischi e delle responsabilità legate all’uso dell’Intelligenza Artificiale, nonché delle misure necessarie per garantire la conformità al regolamento.
Cosa deve prevedere la formazione? corsi specifici su temi come
i principi etici dell’AI Act,
le pratiche vietate e le sanzioni correlate,
le modalità di gestione dei sistemi ad alto rischio,
la protezione dei dati e
il rispetto dei diritti fondamentali.
Devono essere formati non solo i team tecnici, ma anche i responsabili legali, i manager e chiunque sia coinvolto nella catena decisionale relativa all’uso dell’Intelligenza Artificiale.
Intelligenza Artificiale: cosa succederà alle imprese? E come potranno difendersi?
Le sanzioni per il mancato rispetto di queste norme sono particolarmente severe. Le multe possono arrivare fino a 35 milioni di euro o al 7% del fatturato annuo globale, a seconda di quale importo sia maggiore. Può apparire paradossale ma quel che è peggio è che le imprese rischiano di perdere la fiducia dei clienti e di danneggiare la propria reputazione.
Per evitare sanzioni e garantire la conformità, le imprese devono agire subito. Ecco alcuni consigli pratici:
- screening immediato dei tool di Intelligenza Artificiale: verificare se i sistemi già in uso rientrano tra le pratiche vietate; in particolare verificando i fornitori: valutare che i tool di Intelligenza Artificiale forniti da terzi siano conformi all’AI Act, inserendo clausole contrattuali specifiche che garantiscano la conformità dei fornitori, richiedendo certificazioni o audit esterni per dimostrare l’affidabilità dei sistemi;
- inventario e mappatura: creare un registro interno degli strumenti di Intelligenza Artificiale, classificandoli in base al rischio;
- implementazione di controlli: introdurre meccanismi di monitoraggio e audit per garantire il rispetto delle norme;
- adozione di una AI policy interna: da definire linee guida chiare per l’uso dell’Intelligenza Artificiale, allineate ai principi dell’AI Act, stabilendo ruoli e responsabilità per la gestione dei sistemi di Intelligenza Artificiale, creando un comitato interno per monitorare l’implementazione e il rispetto delle norme;
- valutazione di impatto preventiva: affidarsi a audit esterni per identificare criticità legali; le valutazioni legali saranno multidisciplinari, per es. dovranno verificare che i sistemi di Intelligenza Artificiale rispettino il GDPR e le norme sulla protezione dei dati personali, garantire che le tecnologie siano sicure e protette da attacchi informatici, assicurarsi che i sistemi non violino i diritti degli utenti finali consumatori (come il divieto di pratiche ingannevoli o discriminatorie), valutare i rischi legali derivanti da eventuali danni causati da decisioni automatizzate.
Intelligenza artificiale: quali conclusioni si possono trarre?
L’AI Act non è solo una questione di conformità, ma un’opportunità per le aziende di distinguersi nell’uso responsabile e a norma dell’intelligenza artificiale. Iniziare oggi il percorso di adeguamento significa evitare sanzioni, proteggere la reputazione aziendale e costruire un vantaggio competitivo nel mercato del futuro.
Per ulteriori informazioni, consulta il testo ufficiale dell’AI Act.