AI Act: come sfruttare l’AI in modo sicuro e consapevole | Almawave
x icon pop up SCOPRI DI PIÙ

Cerca sul sito

Non hai trovato quello che cercavi?

AI-Powered Cybersecurity in Your Hands: Empowering Technology for Data Protection

Intelligenza Artificiale

6 maggio 2024

AI Act: come sfruttare l’AI in modo sicuro e consapevole

L’Unione Europea, con il suo rivoluzionario AI Act, ha intrapreso un percorso ambizioso per garantire che l’evoluzione dell’intelligenza artificiale proceda di pari passo con la sicurezza, l’etica e il rispetto dei diritti fondamentali.

In che modo il nuovo regolamento costituisce un faro importante per l’utilizzo responsabile dell’IA? E come possiamo navigare in queste acque normative, assicurandoci che l’innovazione non solo lasci il segno, ma sia sempre responsabile e inclusiva?

Entusiasmo e timore sono le due reazioni che hanno accompagnato l’esplosione dell’intelligenza artificiale generativa, quando nel novembre del 2022 ChatGPT è stato presentato al mondo.

Entusiasmo per le enormi potenzialità offerte dai sistemi di intelligenza artificiale in tutti gli ambiti della nostra vita e del nostro lavoro.

Timore e preoccupazione per gli effetti che potrebbero derivare a persone e imprese dall’uso improprio di queste potenti tecnologie.

L’AI Act – le norme disposte dall’Unione Europea sull’utilizzo dell’intelligenza artificiale – non è che il culmine di un lungo processo che in questi ultimi anni ha cercato di conciliare la rapida evoluzione dell’innovazione con i principi etici universali.

AdobeStock_717799000 copia

Dall’OCSE alle Nazioni Unite: rendere l’intelligenza artificiale una risorsa, non una minaccia

I Principi dell’OCSE sono stati pubblicati nel 2019, ma costituiscono una pietra miliare tra le normative sull’uso dell’IA, con fondamenti così solidi da essere tutt’oggi attuali.

Questi principi promuovono un uso dell’IA innovativo e affidabile, nel rispetto dei diritti umani e dei valori democratici.

Crescita inclusiva, sviluppo sostenibile e benessere
● Valori umani ed equità
● Trasparenza e spiegabilità
● Robustezza e sicurezza
● Responsabilità: le organizzazioni e gli individui che si occupano di AI IA sono responsabili del suo corretto funzionamento, in linea con i principi precedenti

A questi principi “human-centred” si affiancano delle vere e proprie raccomandazioni per i governi in materia di IA.

● Investire nella ricerca e nello sviluppo;
● Promuovere un ecosistema digitale;
● Creare un ambiente politico favorevole;
● Costruire capacità umane e prepararsi alla trasformazione del mercato del lavoro;
● Cooperazione internazionale per un’IA affidabile.

This work has demonstrated the need to shape a stable policy environment at the international level to foster trust in and adoption of AI in society.
(OECD Principles)

System administrator upgrading firewall system in order to maintain security stability.

Anche le Nazioni Unite hanno avviato una serie di attività legate all’intelligenza artificiale, costituendo UN Advisory Body.

Questo Gruppo Consultivo dell’ONU sull’Intelligenza Artificiale, è stato creato per esplorare modi per allineare e rafforzare la governance globale dell’IA nel pieno rispetto delle persone e del pianeta.

Composto da 32 esperti in discipline rilevanti da tutto il mondo, questo organismo mira a offrire prospettive e opzioni diversificate su come l’IA possa essere regolamentata per il bene dell’umanità.

Uno dei primi risultati del lavoro svolto dall’Advisory Body è stata la pubblicazione di un report: Interim Report: Governing AI for Humanity, che ruota intorno alla proposta di rafforzare la governance internazionale dell’IA.

Il rapporto mette in luce la necessità di valutazioni periodiche sull’evoluzione dell’AI, l’armonizzazione delle normative e degli sforzi di governance. Promuove la cooperazione internazionale su talento, accesso alle infrastrutture di calcolo e la condivisione responsabile dei modelli open-source.

Viene anche sottolineata l’importanza di monitorare i rischi, riportare gli incidenti e coordinare le risposte alle emergenze.

Questa tecnologia richiede una governance, non solo per affrontare le sfide e i rischi, ma anche per garantire che il suo potenziale venga sfruttato in modo da non lasciare indietro nessuno“.
(UN Advisory Body)

I governi di tutto il mondo non si sono tirati indietro e la gran parte dei paesi ha adottato una national strategy di investimento nell’AI.

Secondo l’OCSE sono 209 le regolamentazioni sull’IA prodotte tra il 2017 e il 2023, soprattutto nei settori salute, trasporti ed energia. E queste strategie vanno di pari passo con le preoccupazioni sul rischio, l’etica e la responsabilità.

AdobeStock_639654636 copia

La rivoluzione dell’AI Act dell’Unione Europea

Il 13 marzo 2024 finalmente si è pronunciata anche l’Unione Europea ha diffuso l’Artificial Intelligence Act, il primo quadro giuridico completo mai realizzato in assoluto in materia di IA, che affronta i rischi dell’IA e posiziona l’Europa in un ruolo prominente a livello globale su questo tema.

Il testo è in procinto di essere formalmente adottato e tradotto. La legge sull’IA entrerà in vigore 20 giorni dopo la sua pubblicazione e, in generale, sarà pienamente applicabile due anni dopo.

Il regolamento sull’intelligenza artificiale dell’UE fornisce alle aziende che sviluppano e operano nell’ambito dell’IA requisiti e obblighi chiari per quanto riguarda gli usi specifici dell’IA. Allo stesso tempo, il regolamento mira a ridurre gli oneri amministrativi e finanziari per le imprese, in particolare le piccole e medie imprese (PMI).

L’obiettivo è quello di coniugare i principi dello sviluppo etico, la cosiddetta “Ethical AI”, con l’identificazione del rischio di utilizzo nei diversi ambiti.

Il quadro normativo definisce infatti 4 livelli di rischio, all’interno dei quali troveranno posto tutti i sistemi AI, attuali e futuri.

Quello che la UE vuole sottolineare è che alcuni sistemi di IA creano rischi che devono essere affrontati per evitare risultati indesiderati e, allo stesso tempo, garantire alle persone di potersi fidare dell’intelligenza artificiale.

La buona notizia è che la stragrande maggioranza dei sistemi di IA attualmente utilizzati nell’UE rientrano nella categoria a rischio minimo, ma questo non significa che si debba abbassare la guardia.

Specie quando si parla di servizi a largo spettro sulla vita delle persone, adottate ad esempio dalle istituzioni pubbliche, che vanno a toccare i dati personali o che sono finalizzati a funzioni ad alto impatto sociale o di sicurezza nazionale.

AdobeStock_750357071 copia

AI Act compliant: la strategia di Almawave per una AI potente ma sicura

La pubblicazione dell’AI Act ha destato molte domande su un utilizzo consono dell’intelligenza artificiale.

Possibile conciliare le enormi possibilità offerte da questa tecnologia con i principi fondamentali dei diritti dell’uomo, con l’etica e il rispetto per il pianeta?

Questa è la grande sfida che ci aspetta.

Una sfida che Almawave ha subito abbracciato senza compromessi.

La piattaforma AIWave e tutti i servizi basati sull’intelligenza artificiale dell’azienda sono infatti AI Act compliant per natura, perché pensati fin dal loro concepimento come pienamente coerenti con il Data Act, il rispetto della Privacy e l’AI Act.

A questi temi si aggiungono gli aspetti di sicurezza e governance su cui Almawave ha da sempre un focus specifico.

L’AI Act in particolare, pone soprattutto l’accento sulla creazione di un quadro affidabile che garantisca la trasparenza dell’uso dell’intelligenza artificiale e la chiara identificazione dei contenuti generati dagli LLM, ove possibile.

L’approccio tecnologico di Almawave si muove coerentemente con i limiti imposti dalla norma, attraverso un approccio Security & Privacy by design.

In che modo Almawave garantisce il rispetto di questi principi e normative?

Classificazione e categorizzazione dei dati in base alla sensibilità, valutando i rischi. Identificazione degli elementi di dati con informazioni sensibili come PII (informazioni personali identificabili), dati finanziari, ecc.
Archiviazione dati sicura con crittografia, algoritmi robusti e controlli di accesso per proteggere informazioni sensibili.
Tecniche di anonimizzazione per proteggere i dati sensibili. Identificazione ed eliminazione (o crittografia) delle PII.
Controlli degli accessi per il personale autorizzato basati sui ruoli (RBAC) o sugli attributi (ABAC) secondo il principio del privilegio minimo per ridurre il rischio di accessi non autorizzati.
Utilizzo di protocolli sicuri di trasferimento dati quando si condividono informazioni sensibili.

Come ha sottolineato l’AD Almawave Valeria Sandei: “Non c’è una tecnologia buona o cattiva. C’è un uso consapevole della tecnologia e una cornice etica all’interno della quale può funzionare.

Vorresti saperne di più sulla piattaforma AIWave?

Visita il sito arrow right