人工智能背后的“幽灵工人”为何也需要工会

  • 简·韦克菲尔德(Jane Wakefield)
  • BBC科技记者
AI face with man standing by computers

图像来源,Getty Images

人工智能和机器学习有赖于很多人的大规模辛勤工作。

除了科学家,还有成千上万的低收入工作者,他们的工作是对数据进行分类和标记——这是人工智能这类系统的生命线。

但越来越多人质疑,这些所谓的“幽灵工人”是否受到剥削。

当我们把机器训练得更人性化时,是不是也在让人类像机器一样工作?

当人工智能系统越来越多地控制生活的方方面面,这些工人究竟扮演着什么角色呢?

在众包平台中,最成熟的是亚马逊土耳其机器人(Amazon Mechanical Turk,简称MTurk),由线上零售巨头亚马逊网络服务(Amazon Web Services)运营。

还有Samasource、CrowdFlower、Microworkers等其他公司。这些平台都允许企业远程雇用来自世界各地的员工,来完成计算机目前无法完成的任务。

这些任务包括,标记图像、帮助改进计算机视觉算法、为自然语言处理提供帮助,甚至担任YouTube或Twitter的内容主持人。

图像来源,Getty Images

图像加注文字,

18世纪的土耳其机器人愚弄了国际象棋选手,让他们以为自己在与一台机器竞争。

MTurk是以18世纪曾在欧洲巡演的国际象棋机器人命名的,但后来发现,这个机器的背后其实是人。

该平台在其网站上被标记为众包市场,是“将机器学习开发的每一阶段所需的成本和时间最小化的好方法”。

在这个平台上,下单者要求工作人员执行特定的任务。

亚马逊网络服务的发言人表示:“大多数员工将MTurk视为兼职工作或有偿爱好,他们享受可以选择任务的灵活性,可以随心所欲地加班,或者少量工作。”

但对于已经在这个平台工作了六年的谢莉·斯坦利(Sherry Stanley)来说,这更像是全职工作。这份工作帮助她在经济上抚养三个孩子,也让她觉得自己是巨大机器上的一个小齿轮。

她告诉BBC:“土耳其机器人是我在西弗吉尼亚为数不多的一个工作机会,和许多工人一样,我们为自己的工作感到自豪。”

“但我们是亚马逊一时冲动下的产物。亚马逊是世界上最大的公司之一,需要像我这样的员工对工作条件保持沉默。”

她说,如果说出自己被如何对待,就会一直活在“遭报复的恐惧中”。

很难描述斯坦利生活中的典型一天,因为正如她所说,“每天的工作时间都不一样,工资也不一样。”

图像来源,Getty Images

图像加注文字,

这种工作的好处是,可以想做多少就做多少,也可以在家工作。

但她被要求完成的任务多种多样,包括图像标记、帮助智能助手Alexa理解地区方言。

还有一系列她不理解的问题,比如:

  • 为什么有些工作(成果)被拒绝,花了很长时间的工人却不被告知不符合标准的原因?
  • 为什么有些账户突然被冻结,却没有任何通知,没有或官方渠道来挑战这种决定?
  • 为什么申请机构把一些项目的价格定得极低?

“土耳其机器人应该在我们的工作对象、内容、原因和地点等方面拥有更大的透明度:为什么我们的工作(成果)被拒绝,这份工作到底在建设什么,为什么账户被冻结,不付费时数据去了哪里,以及我们在为谁工作。”

Turkopticon是Mturk的工人拥有的最接近于工会的东西,这个组织正在努力让工人们感觉不那么隐形。

斯坦利表示:“Turkopticon是让土耳其机器人变成组织的工具,让他们就工作条件相互交流,并使工作变得更好。”

她正在筹集资金,以帮助该组织创建由工人操作的服务器,承包商可以在那里讨论工作条件。

亚马逊回应BBC,它在2019年推出了一项功能,允许员工看到“下单者的活动水平、批准率和平均付款审核时间”。

它在一份声明中说:“尽管工人的成果被下单者拒绝的整体率很低(小于1%),工人们也获得了一组标准,可以帮助他们确定想要的工作任务,包括下单者接受任务的历史记录。

“MTurk继续帮助各种各样的工人赚钱,并为他们社区的发展做出贡献。”

YouTube禁令

图像来源,SOPA Images

图像加注文字,

在YouTube上,与LGBTQ相关的内容在没有明显原因的情况下被禁,但到底是算法还是背后的人应该受到谴责呢?

赛飞·萨维奇(Saiph Savage)是西维吉尼亚大学人机交互实验室的主任,她的研究发现,对于很多工人来说,工资可能低至每小时2美元,而且他们通常不知道需要在一个特定任务上工作多少个小时。

她在接受BBC采访时说:“他们被告知,这份工作值5美元,但可能需要两个小时。”

“雇主比工人拥有更大的权力,可以突然决定,否定工作(成果),而工人却没有办法对此采取任何行动。”

她还表示,人们往往对这些平台上的员工是谁,以及他们的偏见是什么知之甚少。

她引用了最近一项与YouTube有关的研究,该研究发现,算法已经禁止了一些LGBTQ的内容。

“深究下去,并不是算法有偏见,而是幕后的工作人员,他们在一个需要审查LGBTQ内容的国家工作。”

这种有关偏见的观点是蒙特利尔人工智能伦理研究所(Montreal AI Ethics Institute)的亚历山大·罗耶(Alexandrine Royer)提出的,她写道,迫切需要对这些员工进行更多监管。

她说:“数据工作者负责全球平台上的数据标签和内容审核,非洲和其他地方的数据工作者做出的决策,反馈给了世界各地的互联网用户,并塑造了每天与之互动的算法。”

“在数字经济的阴影下工作,这些所谓的‘幽灵工人’作为在线内容的仲裁者负有巨大责任。”

她还说,谷歌的搜索、推文、产品评论都依赖于这种“看不见的劳动力”。“我们早该监管并适当补偿这些工人了。”