<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=276156203311675&amp;ev=PageView&amp;noscript=1">

Intelligenza-artificiale-rischi-e-valutazioni-sullo-impatto-nel-mondo-del-lavoro

L'Intelligenza Artificiale è entrata in molti aspetti della nostra vita lavorativa e personale, portando con sé maggiore automazione principalmente nelle operazioni ripetitive.

Troviamo l’IA negli acquisti online e della pubblicità che "insegue" le nostre preferenze, nell’analisi dei dati personali, nelle macchine robot - cobot con capacità di apprendimento avanzate che stanno rivoluzionando i processi di produzione e di assemblaggio negli impianti di produzione, aumentando l'efficienza e la flessibilità delle linee e in molti altri aspetti. L’IA è integrata nei nostri dispositivi personali che utilizziamo anche al lavoro: gli assistenti personali digitali, come Siri e Alexa, sono diventati parte integrante della nostra vita quotidiana, semplificando le attività quotidiane anche lavorative: si va dalle traduzioni istantanee a “cervelli” programmati per controllare il comfort negli ambienti e ridurre il consumo energetico negli edifici, di regolare il traffico stradale in tempo reale.

Nel settore automobilistico, i veicoli autonomi fanno affidamento sulla tecnologia digitale per la navigazione sicura e si parla della sperimentazione di consegne di prodotti a domicilio tramite droni. Infine, c’è la questione della sicurezza informatica, che si avvale dell'IA per rilevare e mitigare minacce informatiche in modo più efficace.

Come accade per tutte le tecnologie digitali innovative, sono tra noi, a nostra disposizione, ma con alcuni punti interrogativi, quali: l'uso etico dell'AI, eventuali rischi per i lavoratori, possibili scenari di rischio per i fruitori di prodotti finali dotati di AI. Pensiamo, ad esempio, ad un bambolotto giocattolo in grado di parlare naturalmente con un bambino o una bambina fino a suggerirgli di compiere qualche azione pericolosa come maneggiare un coltello o arrampicarsi su un mobile per afferrare un oggetto fuori dalla sua portata.

Un altro esempio potrebbe essere l'errata collaborazione in una linea produttiva tra una persona e un cobot (qui abbiamo affrontato il tema).

Dal punto di vista delle normative, tutti questi scenari e molti altri vanno previsti in modo tale che la tecnologia sia al servizio delle persone e dei lavoratori in modo totalmente sicuro.

 

Tipologie di AI

Partiamo quindi dall'analisi degli strumenti "intelligenti" a disposizione. Troviamo:

  • Software, come assistenti virtuali, software di analisi delle immagini, motori di ricerca, sistemi di riconoscimento vocale e facciale, sistemi di analisi dei contatti
  • AI “incarnata” come robot, auto autonome, droni, Internet of Things
  • Ai generativa cioè sistemi in grado di produrre contenuti (testi, immagini, musica)

Applicazioni quotidiane dell’AI:

  • Acquisti on line e pubblicità
  • Robot-Cobot con capacità di apprendimento evolute
  • Ricerca sul web
  • Assistenti personali digitali
  • Traduzioni automatiche
  • Case, città e infrastrutture intelligenti (risparmio energetico e regolamentazione del traffico)
  • Automobili (la navigazione è già in gran parte basata sull’intelligenza artificiale)
  • Sicurezza informatica
  • Riconoscimento di dati biometrici (lettura dei documenti negli aeroporti ad esempio)
  • Videogiochi ed esperienze digitali
  • Sistemi che modificano/ritoccano immagini e video
  • La classificazione dei livelli di rischio

 

Normative sull' Intelligenza Artificiale: a che punto siamo

Il Parlamento europeo ha approvato l’Artificial Intelligence Act nel giugno scorso, in seguito al confronto tra Parlamento, Consiglio dell’Unione europea e la Commissione. Entrerà probabilmente in vigore tra il 2024 e il 2025 quando dovrà essere adottato dagli Stati membri. 

Ad oggi, il dispositivo legislativo in corso di definizione si basa su una classificazione dei livelli di rischio associati ai diversi sistemi di IA e impone obblighi specifici ai fornitori e agli utenti in base a questi livelli di rischio.

Ci sono quattro livelli di rischio considerati:

  1. Rischio Inaccettabile
    Questo è il livello di rischio più elevato e indica che il sistema di IA ha il potenziale per causare danni gravi o inaccettabili alle persone, alle loro vite, ai loro diritti sul lavoro e alla salute e sicurezza. Un esempio potrebbe essere un giocattolo in grado di dialogare con un bambino e di indurlo a comportamenti pericolosi verso se stesso o gli altri. In questo caso, saranno previste disposizioni molto stringenti o potrebbe essere addirittura vietato.
  2. Rischio Elevato
    Questo livello indica un rischio significativo associato al sistema di IA, anche se non è considerato inaccettabile. In questa fascia troviamo ad esempio la gestione e l’elaborazione di dati biometrici. Saranno certamente previste disposizioni rigorose per minimizzare i rischi e garantire la sicurezza e i diritti delle persone.
  3. Rischio Limitato
    In questo caso, il sistema di IA è associato a un rischio moderato o limitato. In questo ambito potrebbero essere inserite le immagini reali ritoccate da IA che potrebbero prevedere uno speciale contrassegno. Le disposizioni in questo livello saranno meno stringenti rispetto ai livelli di rischio più elevati, ma comunque necessarie per garantire un utilizzo responsabile.
  4. Rischio Minimo o Nullo
    Questo è il livello di rischio più basso, indicando che il sistema di IA ha un impatto molto limitato o nullo sulle persone, le loro vite e i loro diritti. Qui troviamo i software antispam, i videogiochi e i prodotti di intrattenimento. In questo caso, potrebbero essere applicate normative meno rigide.

 

Questa classificazione per livelli di rischio è primo un approccio per considerare i potenziali impatti negativi su individui, lavoratori e la società nel suo complesso.

I prossimi step serviranno a creare processi e protocolli per garantire la sicurezza delle persone e le modalità di controllo da parte delle autorità preposte.

La natura complessa degli algoritmi di apprendimento automatico e dei modelli neurali, combinata con l'accesso a enormi quantità di dati sensibili, crea una serie di sfide in termini di privacy, vulnerabilità e possibili abusi.

Pertanto, la sicurezza in questo contesto implica non solo proteggere i sistemi da minacce esterne come hacker o malware, ma anche garantire la trasparenza, l'etica e la responsabilità nell'uso dell'IA.

Utilizzi macchine o software dotati di intelligenza artificiale e vuoi iniziare il percorso di valutazione sulla sicurezza del tuo lavoro e dei tuoi prodotti? Produrre beni o servizi tenendo già conto delle potenzialità e dei rischi dell'AI potrebbe darti un enorme vantaggio competitivo non appena usciranno le norme.

Non aspettare e inizia la valutazione del rischio. Come fare? Scarica la guida.

 

SCARICA LA GUIDA GRATUITA

Vincenzo Moschetto

Scritto da   Vincenzo Moschetto

Muove i primi passi professionalmente nel 1987 occupandosi di consulenza aziendale a tutto tondo. Consegue l’abilitazione alla professione di “Ragioniere Commercialista” nel 1992 presso l’Albo della provincia di Rovigo, dove risulta tuttora iscritto. A metà degli anni ’90 entra direttamente in azienda, dapprima come manager nell’area Finanza&Controllo, poi come Amministratore Delegato con compiti di Direzione Generale, ruolo che ha esercitato per oltre un decennio in contesti multinazionali e che dal 2011 ricopre in Polistudio. Qui ha contribuito a sviluppare modelli di gestione e consulenza utili ad unire la Salute, la Sicurezza e l’Ambiente nelle aziende alle loro aree Legale, Finanziaria e Risorse Umane. Attraverso un approccio di management sostenibile e generativo che applica nei confronti di risorse sociali, economiche ed ambientali, è impegnato quotidianamente nell'agire la sostenibilità in un'ottica di miglioramento continuo, sia per Polistudio che per le aziende clienti.

ISCRIVITI AL NOSTRO BLOG