Skip to content

“Sweatshops Digitais”: o motor obscuro da revolução algorítmica?

As empresas ativas no desenvolvimento e comercialização de sistemas de Inteligência Artificial (IA) tendem a estar no spotlight em razão do emprego de trabalhadores localizados em países do “Sul Global” para a realização de grande parte do processamento necessário ao funcionamento de serviços de IA, tais como o Chat GPT. A elevada opacidade das cadeias de valor (que a União Europeia vem procurando combater através de propostas atinentes à devida diligência das empresas) contrasta ou minora as alegações de práticas laborais abusivas, incluindo o não pagamento de remunerações (ou o respetivo condicionamento à prossecução de determinados objetivos) e as exclusões injustificadas de taskers (designação dada aos trabalhadores de plataformas pelas empresas deste setor).

Os sistemas de IA generativa, entre os quais os Large Language Models (LLM,) dependem da análise vastíssima de dados, os quais processados e subsequentemente usados para treinar os modelos de IA, através de processos automáticos (na gíria anglo-saxónica, ‘feedstock’, em analogia com a matéria-prima utilizada nos processos industriais).

Estes processos podem ou não ser supervisionados (supervised learning), sendo também possível autonomizar o ‘reinforcement learning’, tradutor dos casos em que o algoritmo que produz o resultado desejado recebe, em resultado, uma “recompensa”. De entre as várias possibilidades, um dos métodos mais utilizados é o da aprendizagem profunda ou deep learning, na base do Chat GPT.

A quantidade não basta. Para o seu bom desempenho, é necessário que estes sistemas sejam treinados com dados de elevada qualidade. Isto porque, quando tal não acontece, podem gerar-se resultados, ora ‘falsos’ ou ‘enviesados’ (com a agravante da ‘reprodução’ ou ‘proliferação’ de vieses refletidos nos dados que servem de feedstock),ora ininteligíveis (por exemplo, uma sequência de palavras sem nexo). Estes riscos são bem expressos pela máxima da computação “Garbage in, garbage out”.

A solução das tecnológicas para esse déficit de dados de qualidade parece, em parte, ter sido o de empregar um verdadeiro ‘exército de trabalhadores’, não raras vezes à margem dos enquadramentos legais em matéria laboral, e remunerados com vencimentos muito baixos (em relação às respetivas médias nacionais). Nestas condições “precárias”, são eles quem transformam conjuntos de “dados brutos” (raw data) em “dados processados”, mais facilmente analisáveis pelos modelos de IA.

Um dos maiores players neste nicho é a Scale AI, uma start-up sediada em Silicon Valley, avaliada em 7 mil milhões de dólares. Em agosto deste ano, a tecnológica iniciou uma parceria com a detentora do Chat GPT, a Open AI (da qual a Microsoft é a principal investidora).

Esta parceria visava a prestação, pela Scale AI, de serviços de data labelling – um estágio no machine learning, no qual são identificados conjuntos de ‘dados brutos’ e lhes são atribuídas etiquetas (labels), que ajudam o sistema informático a contextualizar e interpretar os dados e a realizar aquilo a que se chama ‘fine tuning’ – um método para adaptar modelos de linguagem generalistas, treinados com conjuntos de dados amplos, para tarefas muito concretas, que precisam de ser calibradas com dados mais específicos (sendo que, em regra, esta seleção é realizada por um ser humano).

Contrariamente à convicção de que estes sistemas são “autodidatas” e que depois de programados, funcionam sem intervenção humana, a verdade é que, entre o código fonte destes algoritmos e o produto final, estão inúmeras horas de trabalho humano. A larga maioria do qual é assegurado através de outsourcing, e por trabalhadores de países em desenvolvimento, onde o trabalho precário e a economia paralela são realidades frequentes.

Dominic Ligot, especialista filipino em Ética da Inteligência Artificial, apelidou este tipo de trabalho de ‘Digital Sweatshops’. É sobre elas que importa falar, laborando sobre a cobertura pelo Washington Post, disponível aqui.

Constatando que o recurso ao “trabalho clandestino” – um fenómeno infelizmente comum e que associamos a produtos tangíveis (como ocorreu no escândalo da Nike nos anos 90, envolvendo o recurso a trabalho infantil na produção de calçado) – é também uma realidade comum no mercado do software, hoje exacerbada com a recente revolução algorítmica.

A Remotasks é uma subsidiária da Scale AI, responsável pela atividade do outsorcing (apesar de a ligação entre as duas entidades ser ocultada dos websites e anúncios de ambas). Em particular, a subsidiária encontra-se ativa no crowdwork – uma modalidade de trabalho em plataforma digitais, na qual os taskers (que trabalham como freelancers), realizam tarefas ou projetos pontuais dentro de uma rede descentralizada, a pedido da plataforma (que, por sua vez, é solicitada por uma entidade terceira).

A complexidade e o volume destas tarefas é variável. Em causa pode estar a validação e verificação, interpretação e análise, ou a classificação de grandes volumes de dados linguísticos e audiovisuais, partilhando entre si (via de regra) a característica de serem contextuais, o que os torna facilmente discerníveis e identificáveis para seres humanos, mas não para sistemas de IA. A duração dos trabalhos também é altamente variável, podendo ir, desde alguns minutos ou horas (as chamadas “micro-tarefas”), a projetos que duram semanas ou meses. Quanto à remuneração, é a mesma igualmente variável consoante a complexidade e a duração da tarefa, sem qualquer previsibilidade em relação ao “quanto” e inclusive o “se” do seu recebimento.

O modo de funcionamento da Remotasks é, em parte, a causa do “problema” social-laboral que lhe vai associado. Após a solicitação de uma determinada tarefa, inicia-se como que race to the bottom, traduzida num concurso entre os taskers, dirigido a avaliar e a selecionar aqueles que consigam realizá-la pelo menor valor. Saliente-se que, mesmo após a fixação do valor da tarefa, a plataforma reserva-se o direito de rejeitar o trabalho, sempre que este fique aquém dos padrões de qualidade discricionariamente decididos pela plataforma, sendo, por isso, frequentes as situações de trabalho não remunerado.

De acordo com o The Washington Post, segundo a generalidade dos inquiridos, a plataforma pagou abaixo do prometido (por vezes, o pagamento correspondia a apenas 2% do valor convencionado) ou atrasou o pagamento, sendo a justificação mais recorrente a execução incorreta ou tardia da tarefa. Caso há, porém, de tarefas rejeitadas sem qualquer fundamentação. Importa salientar, aliás, que muitas das tentativas de rastrear estes pagamentos não auferidos levaram a que os trabalhadores vissem a sua conta desativada da plataforma.

Em resposta às polémicas levantadas pela imprensa, a porta-voz da Scale AI, Anna Franko, assegurou que os casos de pagamentos atrasados ou interrompidos são cada vez mais raros. No seu website, a start-up de São Francisco, afirma que os seus colaboradores têm vencimentos condignos (equivalentes a um living wage).

Em 2022, o Oxford Internet Institute, na sua avaliação de conformidade com os padrões laborais nas plataformas de trabalho digital, chamou à atenção para as práticas de “ofuscação” pela Scale AI dos seus processos laborais, e deu à Remotasks uma pontuação de 1 em 10 em métricas como o pagamento integral dos seus trabalhadores.

Devido à natureza dispersa, fragmentada e não duradoura do crowdsourcing, não são conhecidos números mundiais dos trabalhadores que prestam a sua atividade para estas plataformas. A opacidade em relação às etapas e intervenientes envolvidas no funcionamento dos algoritmos de Machine Learning não só tem ofuscado inúmeras potenciais práticas abusivas, como também representa um desafio ao legislador na produção de regulação que responsabilize e permita a prestação de contas por parte das empresas do setor da IA.

en_USEnglish