本篇文章3164字,读完约8分钟
观众在首届中国国际智能产业博览会上体验医疗人工智能产品。
新华社
核心阅读
人工智能技术及其应用的快速发展不仅促进了经济和社会的创新和发展,也带来了安全、伦理、法律法规等方面的风险和挑战。
随着收集的数据越来越多,应用场景越来越多,用户个人信息泄露的风险也越来越大。
人工智能的研究和应用应该有伦理和法律的界限,即应以人类的根本利益和责任为原则。
在刚刚结束的全国人民代表大会上,“扩大‘情报+’”首次被写入今年的《政府工作报告》。人工智能作为未来重要的基础技术,已经连续三年出现在政府工作报告中。可以预见,随着人工智能和大数据的深入应用,生产和生活的数字化改造是大势所趋。
在拥抱人工智能和迈向数字社会的同时,人们也需要面对新技术应用的挑战,如人工智能在安全、伦理、法律法规、社会治理等方面的应用。只有采取预防措施,判断和防范潜在风险,我们才能享受“智能加”的时代红利。
人工智能的应用方兴未艾,但也带来了潜在的安全风险
不久前,人工智能深层变脸技术引起了争议。事实证明,这项技术几乎可以无痕迹地改变视频中人物的面部,这引起了人们对侵犯隐私权和肖像权的关注。更深层次的担忧是这项技术是否会被滥用,这意味着大量的视频将被“移植”?
在今年的全国人大会议上,应用人工智能、大数据等技术带来的安全风险成为代表们关注的焦点之一。中国人民政治协商会议全国委员会委员、360集团董事长兼首席执行官周宏?这意味着安全应该是人工智能发展的基础和前提。全国人大代表、苏宁控股集团董事长张也指出,数据安全是数字中国建设的重中之重。为了发展高质量的数字经济,必须加强数据安全保护和合规共享。
从信息安全的角度来看,目前人工智能应用的主要安全风险点是什么?
中国信息通信研究院移动安全联盟秘书长杨表示,人工智能高度依赖于海量数据收集和训练分析。随着收集的数据越来越多,应用场景越来越多,用户个人信息泄露的风险也越来越大。
“人工智能算法不仅可以直接收集用户的个人信息,还可以深入挖掘和分析看似无关的数据。”杨介绍说,他们进行的一项调查显示,目前滥用个人信息的现象比较普遍。与此同时,人工智能和无处不在的数据收集以及大数据场景中专业化和多样化的数据处理技术使得信息主体难以理解和控制其信息是如何收集和利用的。信息安全保护已经成为人工智能发展中的一个重要问题。
专家说,技术本身是中性的,只要使用得当,人工智能也可以用来提高网络安全水平。例如,人工智能在识别恶意代码方面有很大的优势。
北京神州绿色联盟科技有限公司的安全研究员吴子健说,恶意代码通常是在一些开源代码的基础上修改的,它们通常有相似的行为模式。借助人工智能技术训练的检测工具,可以高效地发现恶意代码。
人工智能技术也广泛应用于企业内部网的安全防护。吴子健介绍说,传统的防护手段是在网络入口处设置防御措施,但内部网之间几乎没有防御措施。使用人工智能和其他技术手段来关联数据可以有效地检测内部网中的异常。与传统方法相比,该方法不仅能发现已知威胁,还能检测未知风险。
吴子健认为,行业需要做更多深入的研究,不断提高人工智能在安全防护中的价值。
我们应该提前判断智能时代的法律和伦理风险,引导人与机器的良性合作
随着人工智能应用的日益广泛,一系列伦理和法律问题也随之产生。例如,当无人驾驶汽车发生交通事故时,如何界定责任,以及如何处理医疗手术机器人的事故...
“人工智能的研究和应用应当有伦理和法律的界限,即应当以人类的根本利益和责任为原则,以实现人类的根本利益为最终目标。这一要求也是由人工智能和人之间的关系决定的。”中国人民大学法学院副教授郭锐认为。
“在当前的技术条件下,智能机器尚不具备做出道德决策的能力,但它们的决策将导致道德后果。”郭锐认为,法律通常针对能够遵循这些原则的主体,即其法律被视为主体的自然人或组织(法人)。然而,考虑到人工智能的特征是对人类智能的模拟、扩展和扩展,伦理原则应该适用于人工智能系统。
北京师范大学哲学系教授田认为,人工智能的主体不是孤立的个体,而是各种相关形式的总和。“人工智能由开发者(包括算法开发者)、制造商、运营商、电信网络服务提供商等组成。在发生交通或医疗事故时,很难界定责任,因为不可能找到某个责任主体。因此,有必要设立一个代理机构来界定责任和权利。”
近年来,学术界和工业界越来越重视人工智能中的伦理和法律问题,并推动了相关技术标准和社会规范的制定。专家表示,人工智能的伦理法则涉及科学、商业、哲学和法律等诸多领域,因此有必要成立一个联盟组织来应对人工智能的发展,吸收各方力量,共同推进相关研究。
郭锐建议,应考虑在开发和部署人工智能方面的权力和责任归属,并应界定技术开发商、产品生产商、服务提供商和用户的权利和义务,以便自动驾驶和无人驾驶飞行器等人工智能应用能够安全着陆。
专家表示,在人工智能大规模进入人们生活之前,应该建立一个相对统一的风险评估指标体系,并设置具体的、可操作的指标,为相关研究和应用提供指导。
专家特别提醒,人和机器各有优势,只有相互理解才能实现人机合作,但人仍然是人机关系的领导者。只有这样,人工智能才能走向人机合作的良性发展道路。
全球人工智能法律治理面临共同问题,目前应加强个人隐私和安全管理
鉴于人工智能应用在安全、伦理等领域的潜在威胁,世界各国都开始研究相关的法律治理。
杨介绍说,各国对人工智能的风险关注程度不同。以安全为例,美国关注人工智能对国家安全的影响。2018年3月,美国国会提出成立国家人工智能安全委员会,并将制定相关法案;欧盟和英国关注人工智能对隐私、就业和伦理的影响;俄罗斯、以色列和印度关注人工智能在国防中的应用及其对军事安全的影响。
北京师范大学刑事科学与法律学院副教授、中国互联网协会研究中心秘书长吴申国表示,中国在规范人工智能的发展方面起步较早。2017年7月,国务院颁布了《新一代人工智能发展规划》;2017年12月,工业和信息化部发布了《推进新一代人工智能产业发展三年行动计划(2018-2020)》,对人工智能产业的标准化发展提出了要求。
“这些政策可以引导和促进相关产业的发展。至于人工智能的技术标准,中国也发布了一些文件。但是,目前的立法中仍然存在较大的空白,这也是人工智能全球法律治理面临的一个普遍问题。”吴申国说:
随着人工智能应用的深入,其相关风险日益突出,加强与人工智能相关的法律治理非常重要。人工智能法律治理的趋势是什么,现实中需要迫切关注哪些问题?
吴申国认为,人工智能立法治理可能有三种趋势:第一,立法将更加细致和有针对性。例如,在自动驾驶、机器人、生物识别等领域发布了一些规范性文件。,立法监督将更加多样化;第二,立法将与产业特征紧密结合;第三,立法将侧重于规范,而监管将侧重于为行业发展提供指导。
“由于法律上有一定的滞后,考虑到人工智能等新技术的广阔应用前景,有必要保留一定的空进行立法,以便尽可能在工业应用和风险预见之间取得适当的平衡。在决定监管什么、如何监管、如何实施时,必须把握好力度,不能影响行业的发展活力。”吴申国说:
杨表示,根据行业调查,目前有必要加强对个人隐私和安全的管理。他建议隐私保护应从立法监督和技术能力提高两个方面入手:一方面,针对我国个人信息保护法律规定的零散性和碎片化,加快统一立法,明确不当数据收集、使用和披露的责任。还需要定义数据所有权等问题;另一方面,我们应该加强新技术在个人隐私保护方面的应用。
合理合法的数据收集是数据利用的前提。专家表示,我们不应该回避智能与隐私保护之间的冲突,而应该积极行动起来,在智能时代找到技术应用与风险保护之间最大的公约数,为智能生活保驾护航。
《人民日报》(2019年3月25日,第19版)
来源:搜狐微门户
标题:“智能+”,更应重视安全挑战
地址:http://www.shwmhw.com/shxw/34024.html