本篇文章1599字,读完约4分钟
目前,以人工智能为代表的新兴技术正在使许多不可思议的事情成为现实。但是在促进技术进步的同时,如何解决技术带来的社会影响呢?如何避免人工智能技术发展带来的偏见和歧视。这也是全人类共同关心的问题。
2019年底,微软前全球执行副总裁沈向洋宣布离职后,他的行踪备受关注。3月3日,沈向洋加入清华大学拥抱学者的消息传出。
3月5日上午9点,刚刚续签了清华大学高等研究院双职工教授职务的沈向洋博士,通过清华大学快寿官方账户(快寿身份证:清华_ 1911)的直播,为清华学生和网民们开设了一个名为“工程责任人工智能”的专题公开课。在几乎很短的时间内,直播室的观众总数达到了近10万人。
近年来,在科技的大潮中,沈向洋一直倡导构建负责任、可靠的人工智能。他认为,我们不仅应该促进技术进步,还应该认真考虑人类共同面临的可能的社会影响和潜在的挑战,并提前计划。
在演讲的前半部分,沈向洋解释了可解释人工智能对于创建负责任的人工智能的重要性。“人工智能已经开始做出人类无法理解的决定。我们需要打开人工智能的黑匣子,了解人工智能做出这一决定的原因。”
人工智能今天最大的突破是深度学习,但是深度学习最大的问题之一是结果很好,但是人们无法解释。因此,可解释人工智能在下一步人工智能探索中非常重要。沈向洋说:“如果我今天有研究生,我会建议他们朝这个方向努力。”
在演讲的后半部分,沈向洋提出了“技术偏见”的问题。当训练人工智能系统时,一些社会偏见可能导致对数据集中个体的性别、肤色和年龄的假设。然而,在一个多元化的社会中,不同的特征和差异,如肤色和口音也使我们意识到满足所有人的不同需求是非常复杂的。
他举了一个文本搜索中性别偏见的例子。研究小组使用一种叫做“单词嵌入”的自然语言处理工具将单词转换成矢量数字。基于来自新闻数据或网页数据的大量文本数据,每个单词被分配一个相应的矢量编号。通过比较常用词与矢量坐标系中的性别代词“他”和“她”之间的关联程度,研究者发现了一些明显的特征,如“野蛮”和“编织”,它们更接近女性,“英雄”和“天才”更接近男性。
该算法赋予这些词以性别特征的原因是,用于训练该算法的基准数据集通常是来自新闻和网页的数据,因此存在由语言习惯引起的“性别偏见”,并且该算法自然地“继承”了人类对这些词的理解中的性别差异。结果,当微软根据梅林达·盖茨(Melinda Gates)的领英信息用实验算法猜测她的职业时,得到了“老师”的判断,但当角色性别改为“他”时,盖茨夫人的职业就变成了“律师”。
在我们能够解释人工智能并完全消除技术偏见之前,我们还有很长的路要走。为所有人寻求公平待遇需要所有人的共同努力。因此,在课堂上,他介绍了在《计算未来:人工智能及其社会角色》中提出的“六项原则”,该书是他与微软总裁布拉德·史密斯共同编辑的:公平、可靠和安全、隐私和安全、宽容、透明和责任。这六条原则旨在指导人工智能的飞跃和应用,更好地服务于世界。
作为世界一流的计算机视觉和图形专家,沈向洋专注于计算机视觉、图形、人机交互、统计学习、模式识别和机器人技术。他在微软工作了23年,曾经是微软领导层中级别最高的中国人。他被外界誉为“微软在中国的形象大使”。
离开微软后,沈向洋在清华开启了他人生的新篇章。在沈向洋开课前,清华大学的快速报道播出了“沈向洋双职工教授聘任仪式”,清华大学校长邱勇宣布沈向洋为清华双职工教授。
在共同的全纳教育价值观的推动下,清华大学于2019年10月正式落户快手。目前,粉丝数量已经超过150万,一系列优秀课程已经现场直播。
今年2月3日,清华大学全校师生通过学校的网上雨课和快手平台进行了同班,在社会上引起了很大反响。随后,快手与学校在线建立了战略合作关系,双方将在内容共享和直播技术支持方面建立深入合作。沈向洋教授的现场直播让更多渴望了解前沿技术知识的人有机会聆听世界级专家的课程。
来源:搜狐微门户
标题:清华大学沈向洋教授快手直播:要避免传统社会语境里的偏见被带入AI
地址:http://www.shwmhw.com/shxw/4825.html