Invisibilità e invisibilizzazione dei crowdworker

di Elinor Wahal

 

 

La capillare diffusione delle nuove tecnologie informatiche, a cui abbiamo assistito negli ultimi decenni, ha influenzato profondamente le dinamiche lavorative globali. Uno dei principali elementi che ha caratterizzato la progressiva espansione delle ICT riguarda la nascita del digital labour, un insieme eterogeneo di attività che si collocano a cavallo tra attività ludiche e lavorative.

In questo contesto una particolare forma di lavoro digitale è costituita dal crowdsourcing, letteralmente “esternalizzazione alla folla”. Esso costituisce una strategia di esternalizzazione 2.0 in cui lavoratori/trici e committenti si incontrano (virtualmente) in specifiche piattaforme che permettono ai crowdworker di svolgere alcune mansioni interamente online. All’interno di questo complesso mercato del lavoro sono particolarmente variabili la retribuzione e la tipologia delle mansioni esternalizzate.

Per quanto concerne il compenso, non tutte le piattaforme prevedono per i lavoratori una retribuzione. Essa è talvolta totalmente assente, e quando presente assume forme anche molto diverse tra loro: in alcuni casi gli utenti ricevono in cambio delle proprie prestazioni un compenso in denaro, ma frequenti sono anche i casi in cui essi siano ricompensati con bonus per acquisti online.

Un altro fondamentale punto di differenziazione rispetto alle varie forme di crowdsourcing è costituito dalla tipologia delle mansioni esternalizzate.

Al di là infatti degli specifici contenuti per i quali è richiesta la collaborazione dei lavoratori, all’interno di tali piattaforme le mansioni possono essere suddivise in due grandi categorie: le mansioni mediamente o altamente qualificate, la cui esecuzione prevede tempistiche più lunghe (anche giorni o settimane) e che generalmente sono meglio retribuite, e le micro-mansioni, che formano il micro-task crowdsourcing, caratterizzato da compiti quasi sempre dequalificati, eseguibili nell’arco di qualche secondo o qualche minuto, che generalmente prevedono una retribuzione estremamente esigua.

Nonostante la strategia del crowdsourcing sia una forma di lavoro digitale meno conosciuta di altre tipologie di digital labour, essa non costituisce affatto un fenomeno minoritario e, al contrario, coinvolge oggi decine di milioni di lavoratori in tutto il mondo. Tra i più frequentati siti di crowdsourcing figurano infatti piattaforme come www.upwork.com (10.000.000 di lavoratori), www.freelancer.com (18.369.772 di lavoratori), www.99designs.com  (950.000 lavoratori) e  www.microworkers.com (758.000 lavoratori).

Una delle più antiche e controverse piattaforme di micro-task crowsourcing è costituita da Amazon Mechanical Turk (Amt). Il sito, nato nel 2005, conta ad oggi più di 500.000 lavoratori.

Nell’opinione comune si è soliti ritenere che la maggior parte delle mansioni esternalizzate sulla piattaforma siano processi ormai interamente automatizzati ed eseguibili in piena autonomia da software e programmi informatici. Ad oggi, al contrario, non si è ancora riusciti ad automatizzare tali processi a costi competitivi, ed essi rimangono saldamente ancorati al lavoro umano. Il Turco Meccanico, da cui Amazon ha tratto ispirazione per il nome della propria piattaforma online, era un automa molto celebre nel Settecento per la sua presunta abilità di giocare a scacchi, in virtù della quale esso riuscì a vincere contro avversari del calibro di Benjamin Franklin e Napoleone Bonaparte (Shedletsky, Lowood 2003). In realtà anche in quel caso, proprio come accade oggi per il crowdsourcing, la presenza umana era decisiva. L’automa infatti presentava una base lignea provvista di un doppio fondo, all’interno della quale poteva stazionare una persona di piccola statura, che riusciva a comandare la scacchiera attraverso un efficiente sistema di calamite. Contrariamente al Turco, il quale era specializzato nell’esecuzione di un solo compito, il gioco degli scacchi, Amt comprende un ventaglio estremamente ricco di compiti, talvolta anche molto diversi tra loro. Tra le mansioni più comuni si possono annoverare la classificazione di testi, immagini o video (il lavoratore deve selezionare, tra diverse alternative possibili, la categoria che meglio descrive il contenuto illustrato), la trascrizione di file audio, brevi traduzioni, la compilazione di sondaggi e questionari e la scrittura di qualche frase o commento. Simili mansioni vengono svolte da un bacino di forza lavoro residente prevalentemente negli Stati Uniti (50,3%) e in India (36,7%), dell’età media di 32,5 anni e con un livello di istruzione considerevolmente elevato: quasi sette lavoratori su dieci infatti sono in possesso di un titolo di studio universitario (Ipeirotis 2010).

Amt, presenta alcuni elementi che lo accomunano alla maggior parte delle piattaforme di crowdsourcing attualmente disponibili online. Esso infatti si pone come un mero intermediario tra committenti e lavoratori, con il solo ruolo di rendere possibile l’incontro tra le parti, e non si assume alcuna responsabilità rispetto al tipo di accordi presi tra committenti e lavoratori. Il sito presenta però anche caratteristiche peculiari, che lo differenziano dalle altre piattaforme concorrenti. In primo luogo esso è caratterizzato da una completa assenza di norme che regolamentino l’ammontare delle retribuzioni corrisposte ai lavoratori. Amt non interviene mai negli accordi presi tra le parti e, contrariamente a molte piattaforme concorrenti, non fornisce nessun vincolo ai committenti circa l’importo dei compensi. Per effetto di una simile deregolamentazione si stima che i lavoratori attivi su Amt percepiscano in media un compenso pari a 1,82$ all’ora (Ross et al. 2009). Un altro elemento peculiare di questo sito è la forte presenza di ricercatori accademici, che utilizzano la forza lavoro attiva in Amt alla stregua di un bacino di rispondenti per i propri sondaggi e questionari. In alcuni casi, tale pratica solleva una serie criticità sul piano epistemologico prima ancora che su quello etico, trattandosi di ricerche il cui oggetto di studio è la stessa piattaforma Amt. Quasi tutte le ricerche empiriche quantitative attualmente disponibili su Amt sono state, infatti, condotte somministrando i questionari come mansioni retribuite attraverso la piattaforma stessa.

Un’altra caratteristica propria di questo sito, che lo differenzia dagli altri del suo genere, è la possibilità che i committenti hanno di non retribuire i lavoratori una volta ottenuto il compito pattuito. Qualora infatti i committenti si dichiarino insoddisfatti del lavoro che è stato loro consegnato, essi possono decidere di “rifiutare” la mansione ricevuta e non retribuire i lavoratori (in questo processo, però, non sono tenuti a motivare la propria insoddisfazione e, di fatto, essi possono comunque usufruire della mansione che è stata loro consegnata). Va anche tenuto presente che i lavoratori di Amt non sono identificabili sulla piattaforma né dai i propri pari, né dai committenti. Al momento dell’iscrizione, infatti, a ogni utente viene assegnato in automatico un codice alfanumerico, che sarà visualizzato dagli altri utenti della piattaforma. Ciò non avviene per i committenti, che possono decidere sotto quale nome essere identificati, e quindi se rivelare o meno la propria identità. Questo elemento contribuisce a un più ampio processo di invisibilizzazione dei lavoratori messo in atto dalla piattaforma. I lavoratori che operano in Amt sono invisibili dal momento che «i prodotti del lavoro sono beni acquistati a distanza rispetto al luogo di lavoro. Sia il lavoro che i lavoratori sono invisibili agli occhi dei consumatori, che tuttavia contribuiscono passivamente a perpetuarne l’invisibilità» (Starr, Strauss 1999: 15).

Come sottolineato da Irani (2015), Amazon mette in atto numerose strategie per alimentare la convinzione che le mansioni svolte dai lavoratori sulla propria piattaforma siano in realtà eseguite in automatico dai computer, e non da lavoratori umani. Su questo genere di ambiguità si fonda il nome del sito, così come il suo slogan, “Artificial artificial intelligence”. Irani (2015) illustra alcune delle strategie con cui la compagnia dissimula l’esistenza di lavoratori che operano sulla piattaforma, a partire dall’interfaccia del sito, costruita in modo tale da rendere invisibile la presenza dei lavoratori, fino alla gestione delle conferenze e delle presentazioni pubbliche di Amazon, in cui i lavoratori sono rappresentati in modo stereotipato come individui esclusivamente appartenenti a minoranze etniche che partecipano ad Amt per puro divertimento. L’ambiguità relativa all’operato umano alla base della piattaforma è riscontrabile anche nel fatto che compagnie quali Amazon e Uber beneficino dei vantaggi finanziari propri delle compagnie classificate come “technology companies”, a discapito delle “labor companies”. Gli investitori infatti stimano più vantaggiose le compagnie che si occupano di tecnologia rispetto a quelle che si occupano di lavoro, dal momento che si ritiene che le prime richiedano un investimento iniziale maggiore ma, a differenza delle seconde, permettano di incrementare i profitti senza aumentare le spese. Per questo motivo «nascondere il lavoro umano è l’elemento chiave grazie al quale queste start-up vengono considerate dagli investitori e, conseguentemente, costituisce la chiave per la speculazione imprenditoriale» (Irani, Sengul-Jones 2015).

A sostegno di questa posizione Irani porta anche la propria personale esperienza, maturata nel corso degli anni in cui l’autrice ha lavorato per Google, con il compito, tra le altre cose, di celare ai pubblicitari e agli utenti internet il lavoro che i lavoratori di Amt effettuavano per verificare che le pubblicità̀ da pubblicare online non contenessero elementi inappropriati:

Mentre il pubblicitario aspettava che le proprie pubblicità venissero approvate, io dovevo strutturare l’interfaccia che spiegava ai clienti che Google stava controllando i link, senza far loro sapere che questo compito era svolto da esseri umani. Il cliente probabilmente pensava che Google avesse individuato qualche algoritmo magico; questa percezione è positiva per gli affari e per il prezzo delle azioni. Una simile percezione incrementa inoltre la fiducia degli americani negli ingegneri come risorsa preziosa e aumenta nei cittadini la convinzione della necessità di promuovere le lauree tecnico-scientifiche. Allo stesso modo, Amt dipinge i programmatori come dei maghi della tecnologia, anche se il lavoro fisico e cognitivo dei crowdworker è alla base di tale magia.

(Irani, Sengul-Jones 2015: 6)

 

Il lavoro effettuato dai crowdworker non è soltanto invisibile, ma è anche deregolamentato e privo di qualsivoglia tutela per i lavoratori. Per questa ragione è importante interrompere il processo di invisibilizzazione dei crowdworker, riconoscendo che le attività praticate su simili piattaforme costituiscono attività lavorative a tutti gli effetti. Nello specifico caso di Amt, poi, dal momento che i ricercatori universitari costituiscono una porzione importante del totale dei committenti operanti sul sito (Silberman 2015), è importante sottolineare che l’accademia non può sottrarsi ad una riflessione seria e critica circa l’eticità di tale piattaforma (Adda et al. 2014; Fort et al. 2011; Horton 2011; Williamson 2014).

 

 

Bibliografia:

Adda G., Sagot B., Fort K., Mariani J. (2011). Crowdsourcing for language resource development: Critical analysis of Amazon Mechanical Turk overpowering use. In LTC 2011: Proceedings of the 5th Language and Technology Conference

 

Bederson B. B., Quinn A.J. (2011). Web workers Unite! Addressing Challenges of Online Laborers. In Proceedings of the 2011 annual conference extended abstracts on Human Factors in Computing Systems, CHI ’11.

 

Brabham, D. C. (2013), Crowdsourcing, MIT Press

 

Cardon D., Casilli A. (2015). Qu’est-ce que le digital labor ? Paris :INA Editions.

 

Estellés-Arolas E., González-Ladrón-de-Guevara F. (2012). Towards an integrated crowdsourcing definition. Journal of Information science. 38(2). 189-200.

 

Fish A., Srinivasan R. (2012). Digital labor is the new killer app. New Media & Society. 14(1). 137-152.

 

Fort K., Adda G., Cohen K. B. (2011). Amazon mechanical turk: Gold mine or coal mine?. Computational Linguistics. 37(2). 413-420.

 

Fuchs C. (2015). Digital Labour and Karl Marx. Routledge

 

Horton J. J., Rand D. G., Zeckhauser R. J. (2011). The online laboratory: Conducting experiments in a real labor market. Experimental Economics. 14(3). 399-425.

 

Huws U. (2009). The making of a cybertariat? virtual work in a real world. Socialist Register. 37(37).

 

Ipeirotis P. (2010). Analyzing the amazon mechanical turk marketplace. XRDS: Crossroads, The ACM Magazine for Students. 17(2).16-21.

 

Irani L. (2015). The cultural work of microwork. New Media & Society. 17(5). 720-739.

 

Irani L. C., Silberman M. S. (2016). Stories We Tell About Labor: Turkopticon and the Trouble with “Design”.

 

Irani L., Sengul-Jones M. (2015). Difference Work: An Interview with Lilly Irani. Catalyst: Feminism, Theory, Technoscience. 1(1). 1-14.

 

Irani L., Silberman M. (2013). Turkopticon: Interrupting worker invisibility in amazon mechanical turk. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems. pp. 611-620. ACM.

 

Ross, J., Zaldivar, A., Irani, L., Tomlinson, B. (2009), Who are the turkers? worker demographics in Amazon Mechanical Turk, Department of Informatics, University of California, Irvine, USA

 

Shedletsky J., Lowood H. (2003), On the Romance of Regicide: The Turk, Kasparov, and Deep Blue, Consultabile alla pagina http://www-sul.stanford.edu/depts/hasrg/histsci/STS145papers/Shedlestky.htm

 

Silberman, M. S. (2015). Human-Centered Computing and the Future of Work. Lessons from Mechanical Turk and Turkopticon, 2008–2015 DISSERTATION (Doctoral dissertation, UNIVERSITY OF CALIFORNIA, IRVINE).

Silberman, M., Irani, L., Ross, J. (2010), Ethics and tactics of professional crowdwork. XRDS: Crossroads, The ACM Magazine for Students, Vol. 17(2), pp. 39-43.

 

Star S., Strauss A., (1999) Layers of silence, arenas of voice: the ecology of visible  and invisible work. Computer Supported Cooperative Work, 8(1): 9–30.

 

Williamson, V. (2014). On the Ethics of Crowd-sourced Research, Political Science & Politics, vol. 49,77-81.

 

Zyskowski K., Morris M. R., Bigham J. P., Gray M. L., Kane S. K. (2015). Accessible Crowdwork?: Understanding the Value in and Challenge of Microtask Employment for People with Disabilities. In Proceedings of the 18th ACM Conference on Computer Supported Cooperative Work & Social Computing. p. 1682-1693. ACM.