AI Act e datori di lavoro: come arrivare preparati alla scadenza del 2 febbraio
23 gennaio 2025

L'intelligenza artificiale sta evolvendo rapidamente e la sua adozione in diversi contesti della società è in forte crescita così come all’interno di vari ambiti aziendali. Da qui, la decisione dell'Europa di introdurre una normativa ad hoc, il cosiddetto AI Act, a cui tutte le imprese del Vecchio Continente devono conformarsi entro il 2 febbraio, giorno in cui la legge entrerà in vigore – anche in Italia. SD Worx, principale fornitore europeo di soluzioni HR e payroll che recentemente ha acquisito il leader italiano del settore F2A, fornisce alcune utili indicazioni in vista della scadenza.
I datori di lavoro sono tenuti, in primo luogo, ad avviare una politica aziendale sull'IA che illustri le azioni pianificate e intraprese volte a garantire un’idonea alfabetizzazione dei loro dipendenti in materia affinché siano consapevoli della tecnologia applicata e ne comprendano sia il potenziale che le insidie per l'organizzazione. Successivamente, dovrebbero, assicurarsi che tutti i sistemi di IA vietati dall'Europa siano esclusi da qualsiasi processo di business.
Oggi, però, non tutti i responsabili di azienda sono a conoscenza della scadenza del 2 febbraio e dell’attuazione della norma a tutte le realtà imprenditoriali sul territorio che utilizzano l’intelligenza artificiale, indipendentemente dalla loro dimensione. Una disinformazione che potrebbe comportare il mancato adeguamento e di conseguenza il pagamento di una sanzione, la cui entità sarà comunicata probabilmente il prossimo agosto.
Fari puntati su policy (obbligatoria) e alfabetizzazione interna
Le società implicate devono, quindi, assicurarsi in primis che la popolazione aziendale sia sufficientemente alfabetizzata sull'IA. Ciò non significa che ogni dipendente deve essere un esperto in campo IA, ma che si garantisce una corretta formazione a tutti gli impiegati dell'organizzazione che utilizzano strumenti supportati dall’intelligenza artificiale. Fornire le conoscenze e le competenze opportune è fondamentale sia per prendere decisioni informate che per riconoscere potenziali rischi e danni. Una preparazione che dovrebbe estendersi anche a fornitori e utenti finali. In altre parole istruire solo il reparto ICT non è più soddisfacente.
Considerato, però, che attualmente l’AI Act non specifica esattamente quali misure adottate per raggiungere tale alfabetizzazione, i datori di lavoro dovrebbero concentrarsi sulle abilità tecniche, l'esperienza, l'istruzione e il training, oltre che sul contesto in cui tali soluzioni verranno utilizzate e il personale che ne beneficerà.
Nello specifico, potrebbero decidere quali conoscenze e competenze sono necessarie e come acquisirle. Predisporre, ad esempio, una formazione generale sull'IA con nozioni di base, eventualmente adattata a diversi gruppi target con informazioni più mirate su determinati strumenti e applicazioni. Da non escludere poi una possibile collaborazione tra team legali e tecnici.
La prima raccomandazione di SD Worx ai responsabili aziendali è la chiarezza. Fornire una policy con linee guida facilmente comprensibili da tutti è cruciale. Tra i punti che la definiscono si possono includere i collaboratori che potranno usufruire di tale tecnologia e in che modalità al tempo stesso le opportunità di formazione e aggiornamento. Dopo tutto, sicuramente tale percorso di apprendimento non sarà statico come d’altronde non lo sarà l’intelligenza artificiale.
Si può, così, prevedere l’inserimento della procedura da seguire se cambia qualcosa nell'organizzazione o negli strumenti adottati. Se, invece, un dipendente assume un nuovo ruolo potrebbe essere utile assicurarsi che la sua formazione rimanga adeguata.
Attenzione ai sistemi di IA vietati
Come anticipato, a partire dal 2 febbraio 2025, l’AI Act vieterà anche l’adozione di soluzioni basate sull’intelligenza artificiale che violano le norme, i valori e diritti fondamentali europei. Si pensi banalmente ai sistemi per il “social scoring” che valutano le persone in base al loro comportamento sociale o alle loro caratteristiche personali. Oppure agli strumenti per il riconoscimento delle emozioni sul posto di lavoro e durante le sessioni educative.
Nel processo di conformità diventa, dunque, cruciale identificare tool di questo genere e interromperne immediatamente l’utilizzo. Anche in questo caso, dall’inizio di agosto, eventuali violazioni alla normativa causeranno delle sanzioni da non sottovalutare. Le multe potrebbero, infatti, arrivare fino a 35 milioni di euro o essere pari al 7% del fatturato globale annuo dell'anno fiscale precedente, se superiore a 35 milioni di euro.