本篇文章911字,读完约2分钟
算法被描述为一件相当温和的事情——计算过程清晰,步骤可控,结果一目了然。近年来,该算法通常结合大数据,通过评分、排序和评分,建立用户、环境和推荐对象之间的联系,从而进行自动推荐。搜索引擎中的网页展示、电子商务中的商品推荐、社交网络中的“你可能认识的朋友”、内容推荐引擎中的新闻推荐等。都是算法应用的丰富场景。
然而,该算法的广泛应用也带来了一些问题。不久前,伯明翰当地警方表示,他们正在开发一个名为“国家数据分析项目”的系统,旨在通过分析居民的个人数据来预测公民的“犯罪指数”,并指导警方提前干预。尽管警方一再强调,他们不会仅根据风险指数进行逮捕,但这一消息引起了广泛争议。
由于算法的技术门槛,出现问题时很难追究责任,造成的损失也无法赔偿。如何使数据分析系统证明其算法“公平有效”是人们非常关心的问题,也是一个实际问题。2015年,美国芝加哥法院使用的犯罪风险评估算法被证明造成了对黑人的系统性歧视:黑人更有可能被该系统错误地标记为高犯罪风险,并被法官判处更长的刑期。此外,数百万人因为该算法而无法获得保险、贷款、租赁和其他服务,这就像被算法“囚禁”。根据美国皮尤研究中心发布的“公众对计算机算法的态度”报告,58%的受访者认为算法和其他计算机程序总是包含偏见。
显然,算法的设计、目的和数据使用是设计开发者的主观选择,他们的主观偏见可能嵌入算法系统中。数据的有效性和准确性也会影响整个算法的决策和预测的准确性。正是由于设计偏差、数据缺陷以及无法打开透明的“算法黑箱”,算法过滤、算法偏差、算法判别和算法操作频繁发生。近年来,智能推荐系统已经在全球互联网平台上得到发展,其中大部分是基于用户使用痕迹的关联推荐。算法越智能,就有越多的用户可以被“安排”到所谓的“信息茧房”,也就是说,被量身定制的信息困住。久而久之,用户陷入了信息“自我禁锢”的困境,从而失去了了解更广泛事物的机会。因此,人们的视野可能会变得越来越狭窄,他们的思想会变得越来越封闭、僵化甚至两极化。
在大数据背景下,解决算法智能带来的问题是一项不可回避的任务。越来越多的人提出了研究算法治理的思想。虽然这注定是一件非常困难的事情,但也是值得迈出的一步。
来源:搜狐微门户
标题:大数据社会需要考虑算法治理
地址:http://www.shwmhw.com/shxw/32801.html