Il mondo degli algoritmi è in continua evoluzione ed espansione; la Commissione europea, in una recente disposizione, ha messo in rilievo quali sono gli innumerevoli vantaggi nell’utilizzo di questi sistemi di algorithmic management applicati a svariati processi; quali ad esempio in ambito sanitario, nelle infrastrutture, nella sicurezza personale, nell’agricoltura e in altri e vari campi applicativi.
Oltre a questi settori di applicazione, il ricorso a sistemi di algorithmic management è già (o potrebbe essere presto) applicato in svariati processi quali la selezione del personale, l’assegnazione di incarichi e turni, la valutazione delle performances, l’individuazione e la valutazione dei criteri per il riconoscimento di promozioni, bonus e premi aziendali.
Tolti i vantaggi sotto l’aspetto datoriale e quindi aziendale, delle pratiche sopra esposte, analizziamo e poniamo l’attenzione su quelli che potrebbero essere dei problemi futuri e con i quali dovremmo fare i conti fra non molto.
Ti potrebbero interessare i seguenti ebook della Collana Facile per tutti:
- Guida alle ferie nel lavoro dipendente (eBook)
- Retribuzione festività in busta paga (eBook)
- Guida ai compensi in natura o fringe benefit dipendenti (eBook)
- Cumulabilità delle pensioni e nuovi limiti reddituali (eBook)
- Guida ai congedi straordinari (eBook)
- Finanze facili per tutti: come gestire i propri soldi (eBook)
- Guida pratica CCNL commercio-terziario-servizi
1) Lavoro e algoritmi discriminatori: aspetti negativi intelligenza artificiale
Partiamo dal presupposto che i criteri di impostazione devono essere compatibili con i principi fondamentali della normativa giuslavoristica ed antidiscriminatoria.
Non sempre, però, è stato dimostrato che questo sia applicato in maniera assoluta e senza penalizzazioni sotto alcun aspetto.
Prendiamo l’esempio riportato dalla stampa, per il quale il sistema di Algoritmo di una delle più grandi Internet company al mondo che si occupa di commercio elettronico, assegnava premi di produzione, in misura maggiore, a lavoratori uomini, rientranti in una certa fascia di età; oppure ancora, se pensiamo a piattaforme online di reclutamento della forza lavoro di riders.
Nel caso dei riders, l’algoritmo era discriminatorio sotto l’aspetto dei premi per le consegne effettuate a seconda che il riders potesse o meno accettare la corsa.
Sostanzialmente, la discriminante in questione è che all’algoritmo non interessava il motivo per il quale il riders potesse rifiutare una corsa, o a quali condizioni lavorative dovesse sottostare e alle tempistiche da rispettare per portare a termine la corsa in questione, per cui anche in caso di assenza giustificata dalla corsa, il riders veniva comunque penalizzato, escludendolo dalle successive corse, perché considerato un riders con basso punteggio.
Quali sono le tutele per questo lavoratore?
Soprattutto, quale normativa in vigore li tutela?
Si consigliano: |
Tra le nostre novità in tema di lavoro e previdenza ti potrebbero interessare :
- Pensioni 2024 (eBook)
- Il lavoro nello spettacolo - libro di carta 2024 - 2° edizione
- Lavoro autonomo occasionale eBook
- Collaborazioni coordinate e continuative eBook
- I fringe benefits e rimborsi spese 2024 (eBook)
Su altri temi specifici visita la sezione in continuo aggiornamento dedicata al Lavoro
2) Lavoro e algoritmi discriminatori: la tutela del lavoratore in Italia
Le domande per cui ancora ad oggi, non hanno risposte esaustive sono le seguenti:
- come un lavoratore può sapere che una decisione che lo riguarda è stata assunta attraverso un algoritmo?
- quali strumenti un lavoratore può avere a disposizione per verificare se tale scelta poggia su valutazioni compatibili con la normativa giuslavoristica ed antidiscriminatoria?
Uno strumento a tutela del lavoratore è la normativa sulla “Discriminazione indiretta ai sensi dell’art. 2 del d. lgs. n. 216/2003 (Attuazione della direttiva 2000/78/CE per la parità di trattamento in materia di occupazione e di condizioni di lavoro).”
Qualora i lavoratori delle piattaforme online, venissero individuati come lavoratori dipendenti e non più come lavoratori autonomi allora, ai sensi dell’art. 28, co. 4, d.lgs. n.150/2011, interverrebbe la parziale inversione dell’onere della prova per cui il lavoratore/ricorrente dovrebbe limitarsi a fornire elementi di fatto, anche di carattere statistico, dai quali si possa presumere l'esistenza di comportamenti discriminatori.
A tal punto spetterebbe al datore di lavoro l’onere della prova e dimostrare che l’algoritmo utilizzato sia conforme alle norme contro la discriminazione.
Si consigliano: |
3) Lavoro e algoritmi discriminatori: a rischio i diritti fondamentali dei cittadini
Il Libro Bianco sull'intelligenza artificiale della Commissione Europea del 19.2.2020 ha posto in risalto le potenzialità dell’I.A., ma ne ha evidenziato anche i rischi per i diritti fondamentali dei cittadini, compresi il diritto alla privacy, la dignità umana e la non discriminazione, questo è quanto si legge dal testo di apertura della Commissione Europea.
È necessario porre l’attenzione sulla modalità di approccio futuro, per un sistema che continui a tutelare l’essere umano, come tale e non lasciare che i cittadini o in questo caso i lavoratori siano sempre più soggetti ad azioni realizzate e a decisioni prese da un sistema di I.A.
È stato riscontrato come alcuni programmi di I.A. per l’analisi facciale riflettono distorsioni legate al genere e alla razza, come riescano ad identificare in maniera più semplice persone con carnagione chiara, mentre rilevano errori nell’identificare il genere di donne più scure1.
La Commissione Europea ha pubblicato la sua proposta direttiva il 9/12/2021, parlando dei diritti dei lavoratori delle piattaforme digitali che dovrebbero godere degli stessi diritti sociali e lavorativi riconosciuti ai lavoratori dipendenti dal diritto dell’UE.
Attualmente non ci sono norme che disciplinano sotto ogni aspetto, la trasparenza e la conoscenza degli algoritmi utilizzati in ambiti lavorativi o di ricerca. Il rischio è quello che talvolta l’algoritmo possa diventare non leggibile anche per il creatore stesso, entrando in una serie di meccanismi logici, per il quale l’algoritmo inizia un processo diverso rispetto a quello per il quale è nato inizialmente, usufruendo delle banche dati e raccolta dati accessibili a tutti, creando discriminazioni sotto vari aspetti e andando contro ai principi fondamentali garantiti per legge.
1[Fonte: Joy Buolamwini, Timnit Gebru; Proceedings of the 1st Conference on Fairness, Accountability and Transparency (Atti della 1ª conferenza sull'equità, sulla responsabilità e sulla trasparenza), PMLR 81:77-91, 2018.]
Si consigliano: |
Vedi altri dettagli e l'indice completo dell'e book:
Finanze facili per tutti come gestire i propri soldi di D. Perez Corradini (e book in PDF 70 pagine)
L'ebook è disponibile in formato cartaceo anche su AMAZON "Finanze facili per tutti come gestire i propri soldi"
Su altri temi specifici visita la sezione in continuo aggiornamento dedicata al Lavoro
4) Lavoro e algoritmi discriminatori: la legge approvata negli USA in vigore dal 2023
Nel 2021 è stata approvata una legge locale Int. No. 1894-A nella città di New York, con validità di attuazione da Gennaio 2023.
Attualmente è l’unica legge negli USA a determinare direttive così mirate e stringenti per i datori di lavoro, che utilizzano strumenti di I.A. nei percorsi decisionali dell’impiego di lavoratori.
La legge ha emendato il codice amministrativo della città per proteggere i lavoratori da discriminazioni illegali durante i processi di assunzione e promozione, qualora siano adoperati strumenti decisionali automatizzati.
La legge richiede ai datori di lavoro di esercitare un controllo, indipendentemente dagli strumenti automatizzati che vengono adoperati, nei processi decisionali.
Di seguito alcuni estratti della Legge locale Int. No. 1894-A
- “Nella città, è illegale per un datore di lavoro o un'agenzia per l'impiego utilizzare uno strumento automatico per le decisioni di impiego per selezionare un candidato o un dipendente per una decisione di impiego a meno che tale strumento sia stato oggetto di un audit di predisposizione condotto non più di un anno prima dell'uso di tale strumento”
- “Nella città, qualsiasi datore di lavoro o agenzia per l'impiego che utilizza uno strumento automatico per le decisioni di impiego per selezionare un dipendente o un candidato che ha presentato domanda per una posizione di impiego deve notificare a ciascun dipendente o candidato residente nella città quanto segue:
- Che uno strumento automatico per le decisioni di impiego sarà utilizzato in connessione con la valutazione o la selezione di tale dipendente o candidato residente nella città. Tale notifica deve essere effettuata non meno di dieci giorni lavorativi prima dell'uso e consentire a un candidato di richiedere un processo di selezione alternativo o una sistemazione”.
- "La fonte di tali dati e la politica di conservazione dei dati del datore di lavoro o dell'agenzia per l'impiego devono essere disponibili su richiesta scritta di un candidato o dipendente".
Un importante passo verso una nuova disciplina in termini di sicurezza e non discriminazione del cittadino e del lavoratore.
È importante interrogarsi di fronte a questi eventi, per comprendere al meglio la disciplina e conoscere come gli eventi connessi ad un sistema di intelligenza artificiale (I.A.) si possono riflettere sulla nostra vita privata e lavorativa.
Si consigliano: |
Ti potrebbero interessare:
- Software DPIA Easy - Valutazione impatto sulla protezione dati
- La Privacy negli studi professionali (eBook)
- Formulario commentato della privacy - Libro di carta
- Manuale operativo del D.P.O.
Per rimanere sempre aggiornato segui il nostro Dossier gratuito sulla Privacy