本篇文章2635字,读完约7分钟

雷锋。(公开号码:雷锋。记者:我们都很关注人工智能有多强大。他们可以在围棋、德州扑克和人脸识别中击败人类。然而,人工智能变得聪明起来,这得到了大量数据的支持,这些数据需要被标记。因此,随着人工智能的繁荣,越来越多的人从事数据标注。《连线》杂志的文章介绍了谷歌如何雇佣员工为youtube视频添加注释,以训练人工智能。这篇文章是由雷锋编辑的。

特写

目前,谷歌的“广告质量评估员”已经广泛存在于全国各地。这些临时雇员通常被外部机构雇佣,他们的工作是过滤youtube视频中暴力和敏感的广告信息。目前,这项工作不能单靠电脑来完成,谷歌现在似乎迫切需要这些人的帮助。

Youtube每天销售数百万个视频广告,广告的播放位置将由系统自动分配,因此广告商通常不知道他们的广告将在哪个视频之后播放。最近,这种“不确定性”让谷歌非常头疼,该公司甚至受到了相关方面的审查。

谷歌一直在积极解释这一点,以防止公众舆论的扩大。在他们看来,媒体实际上夸大了视频广告的问题,标记视频的数量还没有达到总数的千分之一。谷歌首席营销官菲利普·辛德勒(philipp schindler)也表示,这个问题不足以培训。

由于谷歌90%以上的收入来自广告,他们也需要迅速解决问题,以防止广告商撤回他们的位置。然而,youtube每天有近60万小时的新视频上传,这使得人工过滤变得困难,而且该软件必须处理数量空前的标签。但问题是,该公司仍需要在人工智能培训方面投入人力。因此,谷歌仍然依靠人工广告标记来建立人工智能学习所需的数据。

特写

评估员任务技术公司将长期雇佣内容管理员,随着人们上传和分享的增加,这项工作变得越来越重要。一些广告评估人员表示,他们的角色不仅仅是在监控视频中,他们还会在用户中阅读评论和标记滥用;将检查谷歌提供的各种网站,以确保符合公司标准;网站也会按类别分类,点击广告链接检查状态是否正常。

具体来说,在某些情况下,评估者需要在不到两分钟的时间内观看几个小时的电影,这意味着这项工作强调数量和速度。此外,他们不只是将视频标记为不合适——他们需要仔细评估,并从标题到内容进行分类。当评估内容与已建立的现有类别不匹配时,他们会将材料标记为“不可用类别”。

几位广告评估人员还表示,该公司要求他们观看内容令人震惊的视频,比如有人试图在车里杀死他的狗——视频中的人放火烧他的车,然后出来用枪自杀。此外,一些人会观看暴力侵害妇女、儿童和动物的视频。事实上,评估者不知道谷歌是如何选择和发布视频任务的——他们只能在开始工作时看到视频的标题和缩略图。

总之,谷歌仍然需要人力来帮助处理youtube的广告问题。公司高管和代表们一再强调,只有机器智能才能解决youtube上的大规模任务问题,但在谷歌机器或其他任何人能够有意识地识别不恰当的言论之前,这类工作仍需要人来完成。

谷歌发言人Chi hea cho说:“我们一直在把科技和人类评论结合起来,对标记的内容进行综合分析,因为对视频的理解是主观的。”最近,我们还增加了人力来加快评估。这些评论有助于我们改进算法。”

据评估人员透露,广告质量评估人员的工作始于2004年。雇主的祖先是亚伯,他每小时付给每个人20美元。然而,2006年,在workforcelogic收购abe后,评估师的工作条件不如以前。2012年,一家名为zero混沌的公司收购了workforcelogic,现在它通过合同雇佣员工。

广告评估员可以随时随地工作,满足每周10小时的最低工作要求。只是这份工作不太稳定。虽然大多数人喜欢这份工作,但他们几乎没有机会成为永久的全职员工。

本次调查中的广告评估者都是通过zero混沌公司雇佣的,每小时收入15美元,每周最多工作29小时。如果你一周工作25个小时,你可以申请福利,但是完成这个工作量相当困难。有些人说他们会被毫无预警地解雇。公司发来的邮件会终止你的劳动关系。

事实上,由于无法直接明确地与谷歌沟通,评估人员会对这份工作感到不安全。谷歌只会给评估员一个工作联系的一般电子邮件地址,并自动回复每个人的电子邮件。也就是说,谷歌会告诉评估人员他们的工作非常重要,并且会非常重视对工作结果的评估,但是他们不会给出详细的原因解释。

谷歌将把审查过的内容整合到广告评估人员的任务中,以进行绩效评估。这些测试将在日常任务中通过邮件发送给评估员,最终结果将用于评估每个人的表现。那些考试不及格的人将面临被开除的风险。

即便如此,每小时15美元仍高于大多数城市的最低工资。有些人会对零混沌提供的工作机会感到高兴。

评估者和人工智能交叉技术公司雇佣临时雇员参与重复的人工智能系统培训任务。几年前,一名广告评估员参与了对微软必应搜索结果的评估,他们每个人每小时浏览多达80页的搜索结果。Linkedin和facebook也将通过类似的任务测试。

临时工作带来的缺乏安全感以及短期合同工的普遍存在让现任和前任员工感到不安。他们认为谷歌正在逐渐失去系统的知识和经验,而这些知识和经验原本是由在工作中投入更多时间的员工掌握的。他们花时间培训新人,然后把他们踢出去,这是浪费时间。

然而,通过人类广告评估者,我们可能会找到能让人工智能更聪明的最佳实践。人工智能需要大量的内容输入,尤其是一些攻击性的内容,因此通过定期输入训练者的数据来训练人工智能更为合适。为机器输入更加多样化的信息,结果自然会更好。

另一方面,人工智能研究人员普遍认为,不良的人类习惯可能不会影响机器学习,但由于特殊的工作环境和经验,可能会产生更微妙的影响。康奈尔大学人工智能教授巴特·塞尔曼说:“人们通常认为训练人工智能模型需要大量的信息输入。”这种观点适用于一般情况,但当涉及到道德判断时,我们应该考虑到在大多数群体中会有明显的根深蒂固的偏见,这表现在人们认为男性比女性更适合某些工作。因此,如果你通过一般或过去的信息输入来训练人工智能,你将不可避免地受到这些信息中隐藏的偏见的影响。”

特写

“你不应该想用普通人的日常做法来训练人工智能的道德。那些对潜在偏见和道德问题有更深刻和更仔细思考的想法就是你想要的信息输入。”塞尔曼说。

谷歌员工喜欢山景总部的优越环境,但典型的广告评估员的生活却远非如此。为世界上最有价值的科技公司工作意味着享受极好的福利和高薪,但也可能意味着作为一名临时工,你只是在训练这些公司的机器做同样的工作。

通过:有线

雷锋文章版权所有。严禁擅自转载。详情请参考转载说明。

来源:搜狐微门户

标题:特写

地址:http://www.shwmhw.com/shxw/60120.html