CONTENUTO ESCLUSIVO

Intelligenza Artificiale: tutto ciò che le aziende devono sapere sulle pratiche vietate

Tempo lettura: 4 minutiscopriamo le pratiche vietate dall’AI Act per l’intelligenza artificiale, le sanzioni e come le aziende possono adeguarsi al nuovo regolamento UE

Imprenditore?
Ecco cosa devi sapere

Imprenditore?
Ecco cosa devi sapere

Tempo lettura: 4 minuti

Intelligenza Artificiale: tutto ciò che le aziende devono sapere sulle pratiche vietate

Con la parziale entrata in applicazione dell’AI Act, il regolamento europeo sull’intelligenza artificiale n. 2024/1689, dal 2 febbraio 2025 le aziende dovranno fare i conti con una serie di pratiche vietate considerate a rischio inaccettabile.

Questo nuovo quadro normativo non solo ridefinisce i confini dell’innovazione tecnologica ma impone alle imprese di adottare un approccio più etico e trasparente nell’uso dell’IA. A ben vedere, non si tratta solo di un adempimento normativo, ma di un vero e proprio terremoto per il mondo delle imprese, che dovranno ripensare strategie, processi e strumenti per evitare sanzioni pesanti e danni reputazionali.

L’AI Act non si limita a definire linee guida: vieta categoricamente alcune pratiche di Intelligenza Artificiale, considerate troppo pericolose per i diritti fondamentali delle persone. Ma quali sono, nel concreto, le attività proibite? Quali sono i rischi per chi non si adegua? E, soprattutto, come possono le imprese prepararsi per non restare indietro?

In questo articolo esploriamo le pratiche vietate dall’AI Act, analizziamo casi concreti e forniamo consigli pratici per aiutare le aziende a navigare questa nuova era della regolamentazione tecnologica.

Una cosa è certa: ignorare queste regole non è un’opzione.

Ricordiamo inoltre che altre disposizioni dell’AI Act, come quelle relative ai sistemi di intelligenza artificiale ad alto rischio, diventeranno applicabili in fasi successive. Ad esempio:

  • a partire dal 2 agosto 2025, saranno soggetti a regole stringenti i sistemi di IA utilizzati in settori critici come la sanità, i trasporti, l’istruzione e il reclutamento;
  • dal 2 febbraio 2026, entreranno in vigore ulteriori obblighi per i sistemi di IA generativa (es. ChatGPT) e per quelli utilizzati in contesti di sicurezza pubblica.

Intelligenza Artificiale: quali sono le pratiche vietate dall’AI Act?

L’AI Act identifica alcune applicazioni di intelligenza artificiale come inammissibili per il loro potenziale impatto sui diritti fondamentali. Tra queste figurano:

  • La manipolazione subliminale o ingannevole: sistemi di IA progettati per influenzare il comportamento delle persone oltre la loro consapevolezza. Esempio: un’app di ecommerce che utilizza messaggi nascosti o suoni impercettibili per indurre acquisti impulsivi durante momenti di stress o stanchezza. Le aziende devono verificare che i propri sistemi di marketing digitale non sfruttino tecniche subliminali, come l’uso di colori, suoni o messaggi progettati per agire a livello subconscio.

  • lo sfruttamento delle vulnerabilità: tecnologie che, utilizzando artatamente l’Intelligenza Artificiale, approfittano di condizioni di fragilità legate all’età, alla disabilità o allo status socio-economico. Esempio: un chatbot che propone prodotti finanziari ad alto rischio a persone anziane con limitata conoscenza degli investimenti. Le aziende devono implementare controlli per evitare che i sistemi di IA interagiscano in modo predatorio con gruppi vulnerabili, ad esempio introducendo meccanismi di verifica dell’età o del livello di comprensione.

  • Il Social Scoring: algoritmi che valutano gli individui basandosi su comportamenti sociali o caratteristiche personali. Esempio: un sistema di intelligenza artificiale che assegna un punteggio ai cittadini in base ai loro acquisti, alle interazioni sui social media o alla storia creditizia, limitando l’accesso a servizi essenziali come prestiti o assicurazioni. Le aziende devono evitare l’uso di dati comportamentali per classificare o discriminare gli individui, privilegiando invece criteri oggettivi e trasparenti.

  • L’identificazione biometrica in tempo reale: ovvero il riconoscimento facciale in spazi pubblici, salvo eccezioni specifiche. Esempio: telecamere di sorveglianza che scansionano i volti dei passanti in una piazza per identificare potenziali sospetti senza il loro consenso. L’uso di queste tecnologie, che utilizzano l’Intelligenza Artificiale, è consentito solo in casi eccezionali, come la ricerca di un bambino scomparso o la prevenzione di atti terroristici. Le aziende devono garantire che l’uso sia limitato, proporzionato e autorizzato dalle autorità competenti.

  • Il riconoscimento delle emozioni: vietato nei luoghi di lavoro e nelle istituzioni educative, a meno che non sia finalizzato a scopi medici o di sicurezza. Esempio: un software di Intelligenza Artificiale che analizza le espressioni facciali dei dipendenti durante le riunioni per valutarne il livello di stress o soddisfazione.  Le aziende possono utilizzare queste tecnologie solo in contesti specifici, come la diagnosi di disturbi mentali o la sicurezza in ambienti ad alto rischio. È essenziale ottenere il consenso esplicito degli interessati e garantire la massima trasparenza.

Formazione aziendale sull’intelligenza artificiale potranno difendersi?

Oltre alle pratiche vietate, a partire dal 2 febbraio 2025 diventano operative anche le disposizioni sulla formazione previste dall’AI Act. Queste norme richiedono che le imprese garantiscano una formazione adeguata ai propri dipendenti, in particolare a coloro che sviluppano, implementano o gestiscono sistemi di intelligenza artificiale. L’obiettivo è assicurare che il personale sia consapevole dei rischi e delle responsabilità legate all’uso dell’Intelligenza Artificiale, nonché delle misure necessarie per garantire la conformità al regolamento.

Cosa deve prevedere la formazione? corsi specifici su temi come

i principi etici dell’AI Act,

le pratiche vietate e le sanzioni correlate,

le modalità di gestione dei sistemi ad alto rischio,

la protezione dei dati e

il rispetto dei diritti fondamentali.

Devono essere formati non solo i team tecnici, ma anche i responsabili legali, i manager e chiunque sia coinvolto nella catena decisionale relativa all’uso dell’Intelligenza Artificiale.


Intelligenza Artificiale: cosa succederà alle imprese? E come potranno difendersi?

Le sanzioni per il mancato rispetto di queste norme sono particolarmente severe. Le multe possono arrivare fino a 35 milioni di euro o al 7% del fatturato annuo globale, a seconda di quale importo sia maggiore. Può apparire paradossale ma quel che è peggio è che le imprese rischiano di perdere la fiducia dei clienti e di danneggiare la propria reputazione.

Per evitare sanzioni e garantire la conformità, le imprese devono agire subito. Ecco alcuni consigli pratici:

  • screening immediato dei tool di Intelligenza Artificiale: verificare se i sistemi già in uso rientrano tra le pratiche vietate; in particolare verificando i fornitori: valutare che i tool di Intelligenza Artificiale forniti da terzi siano conformi all’AI Act, inserendo clausole contrattuali specifiche che garantiscano la conformità dei fornitori, richiedendo certificazioni o audit esterni per dimostrare l’affidabilità dei sistemi;

  • inventario e mappatura: creare un registro interno degli strumenti di Intelligenza Artificiale, classificandoli in base al rischio;

  • implementazione di controlli: introdurre meccanismi di monitoraggio e audit per garantire il rispetto delle norme;

  • adozione di una AI policy interna: da definire linee guida chiare per l’uso dell’Intelligenza Artificiale, allineate ai principi dell’AI Act, stabilendo ruoli e responsabilità per la gestione dei sistemi di Intelligenza Artificiale, creando un comitato interno per monitorare l’implementazione e il rispetto delle norme;

  • valutazione di impatto preventiva: affidarsi a audit esterni per identificare criticità legali; le valutazioni legali saranno multidisciplinari, per es. dovranno verificare che i sistemi di Intelligenza Artificiale rispettino il GDPR e le norme sulla protezione dei dati personali, garantire che le tecnologie siano sicure e protette da attacchi informatici, assicurarsi che i sistemi non violino i diritti degli utenti finali consumatori (come il divieto di pratiche ingannevoli o discriminatorie), valutare i rischi legali derivanti da eventuali danni causati da decisioni automatizzate.


Intelligenza artificiale: quali conclusioni si possono trarre?

L’AI Act non è solo una questione di conformità, ma un’opportunità per le aziende di distinguersi nell’uso responsabile e a norma dell’intelligenza artificiale. Iniziare oggi il percorso di adeguamento significa evitare sanzioni, proteggere la reputazione aziendale e costruire un vantaggio competitivo nel mercato del futuro.

 

Per ulteriori informazioni, consulta il testo ufficiale dell’AI Act.

CHI SIAMO

Dal 2011 lo Studio legale Iusgate aiuta gli imprenditori a trovare le soluzioni migliori per trasformare le questioni legali in vantaggi economici e opportunità strategiche.

A CHI CI RIVOLGIAMO

I NOSTRI FOCUS

CONTRATTI | COMPLIANCE | CONTENZIOSO

SCOPRI COME
POSSIAMO AIUTARTI →

Approfondimenti per imprenditori

Iusvision
magazine

SCARICA L’ULTIMO REPORT ESCLUSIVO IUSGATE

“Come sfruttare 5 clausole legali nei tuoi
contratti per abbassare del 50% il churn rate

SCARICA L’ULTIMO REPORT ESCLUSIVO IUSGATE

BONUS INCLUSO: Come i colossi multinazionali sfruttano le leve legali
per crearsi vantaggi competitivi, e come puoi usarli anche tu.
Inserisci i dati e ricevi subito la tua copia

CONTATTI