Il Lavoro nella “società della sorveglianza”
Con ordinanza pronunciata il giorno 31 dicembre 2020, il Tribunale di Bologna in funzione di Giudice del Lavoro, ha dichiarato la discriminatorietà della condotta posta in essere da Deliveroo Italia s.r.l. rispetto al metodo dalla stessa adottato per permettere ai riders di prenotare le proprie “sessioni di lavoro”. Il recentissimo arresto giurisprudenziale fornisce lo spunto per affrontare, ancora una volta, il delicato rapporto esistente tra Lavoro, Sorveglianza, Tecnologia e Diritto.
La causa è stata promossa con ricorso da parte di tre sigle sindacali – FIL GGIL Bologna, FILCAMS GGIL Bologna, NIDIL GGIL Bologna – le quali hanno convenuto in giudizio la società Deliveroo Italia s.r.l., filiale italiana della multinazionale specializzata nella consegna a domicilio di food & beverage, che opera attraverso una piattaforma digitale di prenotazione, e realizza le distribuzioni attraverso una rete di cd. riders, cioè dei fattorini dotati di bicicletta e borsa termica che consegnano a domicilio il cibo ordinato dai clienti.
Nello specifico, le consegne, fino al mese di novembre 2020, venivano gestite da Frank, un algoritmo che porta lo stesso nome di Frank Pasquale, celebre Professore di diritto alla Brooklyn Law School, ed esperto di diritto dell’Intelligenza Artificiale, degli algoritmi, e dell’apprendimento automatico ed autore, tra le altre, dell’opera The Black Box Society: Il Segreto Algoritmi che controllano il denaro e l’informazione (Harvard University Press 2015). Frank viene descritto dalla stessa Deliveroo nel proprio sito internet come un algoritmo auto-apprendente fondato sulla tecnologia predittiva e sull’apprendimento automatico che “aiuta a stimare il tempo necessario per la preparazione di un ordine, aiutando ad ottimizzare l’esperienza complessiva. Deliveroo è riuscita a diminuire il tempo di consegna del 20%, così che i rider possano completare più consegne all’ora e aumentare i loro guadagni, i ristoranti possano aumentare le loro vendite e, ovviamente, i clienti possano ricevere il loro ordine in minor tempo”.
Tuttavia, nella sua “corsa contro il tempo”, Deliveroo ha “investito” i diritti dei lavoratori a causa del modo in cui operava tale algoritmo. Frank provvedeva a pianificare e a distribuire fra i riders i flussi di lavoro a seconda del fabbisogno giornaliero, il tutto tramite un’app fornita dall’azienda ed installata negli smartphone dei lavoratori a seguito della conclusione di un contratto.
In tale contratto era previsto che, attraverso un sistema di prenotazione self service (Self Service Booking-SSB), i ciclofattorini potessero loggarsi e prenotare sessioni di lavoro. Il rider doveva essere presente nell’area geografica rispetto alla quale aveva prenotato la sessione e veniva geolocalizzato tramite la stessa app. La prenotazione delle sessioni di lavoro (cd. slot) poteva avvenire in anticipo, attraverso tale sistema SSB, o in tempo reale, con il sistema free log – in. Quest’ultima opzione, tuttavia, veniva di fatto scartata dai lavoratori.
Il punto dolente era costituito dalla modalità con cui si svolgevano le prenotazioni, tale da creare una sorta di ranking reputazionale fra riders perché si basava su due indici: l’indice di affidabilità e l’indice di partecipazione. L’indice di affidabilità consisteva nel loggarsi entro i primi 15 minuti dall’apertura della sessione e l’indice di partecipazione esprimeva il numero di volte in cui il ciclofattorino si rendeva disponibile negli orari più rilevanti per il consumo di cibo a domicilio. Sulla base di tali valori Frank elaborava periodiche statistiche creando, di fatto, una selezione di riders, che venivano a trovarsi, a seconda del proprio “punteggio”, nel gruppo prioritario – favorito in termini di potenziali occasioni di lavoro – oppure in gruppi di seconda o terza fascia, destinati ad aggiudicarsi un numero inferiore di ordini.
Non effettuare il login entro i primi 15 minuti dall’inizio dello slot incideva negativamente sul parametro dell’affidabilità e questo era un fattore che influenzava i lavoratori nel libero esercizio dei propri diritti. Le ricorrenti infatti, avevano rilevato una certa riluttanza e timore dei fattorini ad aderire ad iniziative sindacali come gli scioperi ma anche a gestire altri motivi di assenza per ragioni di salute e infine, anche nel caso di cd. late cancellation, cioè la cancellazione della sessione prenotata con un preavviso inferiore alle 24 ore. L’assenza penalizzava il rider in tutti i casi indicati, senza distinzioni, senza poter sfuggire all’inesorabile solerzia di Frank nell’elaborare statistiche penalizzanti. Come osservato dallo stesso Giudice “la piattaforma non conosce e non vuole conoscere i motivi per cui il rider cancella la prenotazione o non partecipa ad una sessione prenotata e non cancellata. Ma è proprio in questa “incoscienza” (come definita da Deliveroo) e “cecità” (come definita dalle parti ricorrenti) che alberga la potenzialità discriminatoria dello stesso“.
Gli unici due casi in cui Deliveroo consentiva a Frank di “togliersi la benda” erano quelli dell’infortunio su turni consecutivi e quella di malfunzionamento di sistema, a dimostrazione che dietro l’algoritmo c’è sempre la mano e la volontà del datore di lavoro.
Come si è espresso in merito il Tribunale di Bologna
Il Tribunale ha quindi stabilito che il sistema di prenotazione SSB realizzava una discriminazione indiretta perché pur applicando una disposizione apparentemente neutra – che ammetteva la cancellazione anticipata dalla sessione di lavoro – poneva in condizione di svantaggio i rider che non vi prendevano parte per i motivi sopra menzionati. Tale discriminatorietà non poteva inoltre ritenersi esclusa dalla natura opzionale di SSB, perché il fatto di poter contare sul sistema di prenotazione in tempo reale free login non faceva venire meno il carattere discriminatorio del primo sistema. Inoltre, la creazione del gruppo prioritario di riders e dalla posizione privilegiata goduta da questi, in termini di occasioni di lavoro, alterava il sistema di scelta inducendo gli stessi ad optare per quello basato sulla prenotazione anticipata.
Considerando che Frank era già stato sollevato dal proprio incarico dal mese di novembre, il Tribunale non ha potuto condannare Deliveroo alla cessazione del comportamento giudicato illegittimo, tuttavia ha ordinato all’azienda di food delivery di pubblicare l’ordinanza sul proprio sito internet e, in conformità a quanto disposto dall’art. 28 c. 7 d. lgs. 150/2011, ha disposto la pubblicazione di un estratto dell’ordinanza stessa su un quotidiano di tiratura nazione. Infine, sotto un profilo di responsabilità patrimoniale, ha riconosciuto la risarcibilità del danno non patrimoniale di cui all’art. 28 c. 5 d. lgs. 150/2011, condannando Deliveroo al pagamento di una somma di denaro in favore delle ricorrenti, che, in qualità di Organizzazioni sindacali possono promuovere una autonoma azione per ottenere tanto la rimozione che il risarcimento del danno subito a causa di condotte che, oltre ad incidere sulla sfera soggettiva del singolo lavoratore, vadano ad inficiare la capacità rappresentativa dell’Ente sindacale preposto a difenderne gli interessi.
Come già anticipato, la vicenda in oggetto invita a considerare sia su un piano giuridico che culturale l’utilizzo della tecnologia come risorsa (ed arma) da utilizzare per il controllo di uomini e macchine in vista dell’implementazione e dell’efficientamento dei sistemi di gestione dell’attività economica. Lavoro, Sorveglianza, Tecnologia e Diritto sono aspetti inscindibilmente legati fra loro da molto tempo e il dibattito sulla ricerca dell’equilibrio nella loro coesistenza è destinato ad alimentarsi in ragione dell’incessante sviluppo tecnologico. Già nel Novecento era noto il cd. “scientific management” cioè la gestione scientifica ed ottimizzata dei lavoratori nelle fabbriche. Sono noti, ad esempio, i diversi metodi di segmentazione del lavoro via via implementati che assunsero i nomi degli ideatori come Taylorismo, Fordismo, Sloanismo e successivamente il Toyotismo. Erano sistemi ispirati anche dal modello di struttura carceraria a forma circolare che Bentham aveva definito Panopticon (dal greco “luogo dove tutto è visto”). Un luogo dove vi è chi controlla e chi viene controllato: il primo vede tutto ma non viene visto, i secondi sanno di essere visti e per questo sono condizionati nei loro comportamenti.
Come è ovvio le tecnologie digitali, sempre più avanzate, ben si prestano ad essere impiegate in tutti quei settori in cui la sorveglianza viene da sempre applicata, perché consentono un controllo massivo di prestazioni, di tempi, analizzano e processano incessantemente e si alimentano di dati. Talvolta questo comporta una grave compressione dei diritti dei sorvegliati, un esempio è rappresentato proprio dal caso de quo sul sostanziale controllo del lavoratore dipendente attuata tramite l’algoritmo Frank. Questo sistema vede tutto quello che gli viene detto che deve vedere secondo processi etero-determinati: come osservato dal Tribunale di Bologna, è l’azienda che mette e toglie la benda a Frank a seconda di quello che vuole che sia visto e valutato. Non si può prescindere dunque da un approccio etico e consapevole nell’utilizzo di questi potentissimi strumenti basati sul trattamento dei dati personali di ogni tipo di categoria di individui.
La necessità di un approccio etico alle nuove tecnologie
L’approccio etico allo sfruttamento delle nuove tecnologie, tuttavia, deve tenere anche conto che i processi che portano un algoritmo a generare un determinato risultato rimangono spesso insondabili. Lo stesso Frank, non l’algoritmo di Deliveroo ma Frank Pasquale, nella sua opera sopra citata – The Black Box society. The Secret Algorithms Money and Information, Harvard University Press, 2016) – ha definito gli algoritmi delle black box, sistemi imperscrutabili perché tutti i dati raccolti, processati e incasellati portano ad una decisione senza spiegare l’iter logico utilizzato.
Pertanto, come osservato da Ginevra Cerrina Feroni, Vice Presidente dell’Autorità Garante per la protezione dei dati personali nel suo recente intervento Algoritmi e intelligenza artificiale. “Gli uomini sbagliano ma è ciò che li rende superiori alle macchine” (Il Dubbio, 2 dicembre 2020), la difficoltà sta nella asimmetria tra quello che è in grado di conoscere un algoritmo degli umani e quello che gli umani possono conoscere di lui: “La conoscibilità-comprensibilità presuppone che gli algoritmi – soprattutto quelli predittivi – abbiano una logica, ovvero che vi sia una sequenza argomentativa ripercorribile e verificabile. Il problema – come si è detto – è che gran parte degli algoritmi di nuova generazione non si limitano a dedurre in maniera deterministica conseguenze da assiomi prefissati dal programmatore, ma, in virtù di sistemi automatici di apprendimento, producono essi stessi criteri che in molti casi non sono comprensibili neppure agli stessi programmatori (A. Simoncini, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, in BioLaw Journal, 1/2019)“.
Questo ulteriore problema genera interrogativi inquietanti che necessitano risposte celeri e ponderate provenienti anche dal mondo del Diritto, affinché la tecnologia costituisca una risorsa e non una minaccia per i diritti e per la democrazia. Per richiamare Ginevra Cerrina Feroni “l’inquadramento giuridico delle intelligenze artificiali chiama in causa il principio di responsabilità imprescindibilmente connesso con i limiti e la ragionevolezza in tutto e per tutto umani“.
Se desideri maggiori informazioni sull’attualissima tematica “Tecnologia e Diritto”, se hai bisogno di una consulenza legale professionale in merito, per chiarire i tuoi dubbi, mettiti in contatto con il team di avvocati dello studio legale Groppo.