智能化业务场景下的算法合规路径

浏览: 作者: 来源: 时间:2020-10-11 分类:专业研究
综上所述,算法技术的应用和开发可能引发许多问题,尽管各国的相关立法还不够完善,但企业仍有充分理由进行全面的算法合规审查,以减少潜在法律风险,建议时刻关注相关智能化技术合规的立法动态,请律师出具专业的法律意见和分析报告,而出海企业则尤其需要在投资过程中开展目标国家的数据合规预案工作
随着人工智能、大数据、云计算、5G等技术的开发,越来越多的企业加入到智能化进程中,逐渐依赖数据处理作为开展业务的基础。然而技术是一把双刃剑,它既可以成为提升企业运营、生产效率的一把利器,同时也带来不小的社会风险和道德挑战。算法作为智能化技术的核心元素,广泛应用到如线上真金游戏、车联网、社交应用、线上支付等各种智能化场景中。企业通过数据算法总结规律,找到事物背后的联系,进而使其辅助甚至代替进行决策。因此有必要关注智能化技术参与决策后,对法律关系的影响。


 
一、算法技术面临的挑战与风险

在智能化变革的进程中,算法的使用暴露出一系列问题,其中很多是目前各国法律无法规制,甚至未曾涉及的领域。这不仅给立法者提出了新的要求,也给智能化企业带来了额外的合规挑战。

算法的公平性经常受到质疑,“算法歧视”现象广泛存在。为方便大数据运算,企业依据算法将数据基于一定的标准分类,相比在日常生活直观掌握主体信息,这样的分类不可避免地造成算法决策的歧视性结果。例如,谷歌公司的图片软件曾错将黑人的照片标记为“大猩猩”,Flickr的自动标记系统亦曾错将黑人的照片标记为“猿猴”或者“动物”。有些歧视或许无关紧要,但在涉及信用评估、犯罪风险评估、雇佣评估等重大活动时,算法决策的结果将影响甚至决定贷款额度、刑罚选择、雇佣与否,这时候歧视就不再是无足轻重的。

许多新闻媒体、视频应用、社交媒体等会在基于算法的内容推荐上着重考虑用户的喜好,但是容易形成观点和关注度的闭塞,严重的甚至加深党派和政治两极化。再例如,算法代替驾驶员决策驾驶方向,应当如何在诸如“电车难题”等道德难题中决定他人的生命权?如果算法有重大瑕疵,造成生产或交通事故的责任如何在各主体中分担?

尽管上述因算法技术引发的问题还未有统一的立法进行规制,尽管算法开发和使用的责任分担还不够明晰,但这绝不意味着企业可以忽视此方面的合规审查,尤其对于出海企业而言。例如在一些重视判例法律的西方国家,单个“算法歧视”案例就可以产生诉讼,让企业面临巨额赔偿。此外,此类问题可能引发的负面舆论效应也不容小觑,而这些都直接影响到企业的收益。

随着算法深入到人们工作、生活的各个角落,算法给法律所带来的挑战会是全方位的。正是由于算法的普及将会带来的各种社会、伦理、道德问题,算法一定成为未来各国政府将颁布法律的重点规制对象。企业应时刻关注相关智能化技术合规的立法动态,而互联网出海企业则尤其有必要在各个目标国家展开算法合规预案。
 
二、智能内容推荐技术的使用合规

目前,各国法律对算法合规技术有比较详细规定的是智能内容推荐。智能内容推荐是通过分析用户过往的使用习惯,提供用户偏爱内容的一种技术,这项技术现已广泛应用到各种线上应用中并被大众熟知。作为一项技术应用,算法推荐本身是中性的,但失去价值判断的算法内容推荐后果往往是对社会和个人有害,它不仅导致网络沉迷,还会促使“信息茧房”的形成。企业的算法推荐功能的不良后果曾被官方媒体所关注,《人民日报》的评论文章称:“算法不是王法,算法决定内容更不是王道。只有算法回归到服务内容的角色,变得有态度、有深度、有温度,才能让人们在信息的海洋里尽情遨游、在清朗的环境中自由飞翔,才能使网络空间碧波荡漾,激发出源源不断的正能量。”

近年来,国内多部规范性文件已经开始约束算法推荐技术。《电子商务法》要求厂商向消费者提供不基于算法推荐的选项开关。《数据安全管理办法(征求意见稿)》则计划要求向用户以明显标注方式提示利用大数据、人工智能等技术自动合成的新闻、博文、帖子、评论等。

欧盟的《通用数据保护条例》(General Data Protection Regulation)的第13、14、15条则规定了数据处理企业应告知个人数据主体“自动化决策”(此处的自动化决策即包含智能化内容推送)的存在,并告知关于“算法逻辑机制的有效信息”和自动化决策机制的影响和后果。

 
三、智能决策技术的使用合规

如前所述,在涉及金融信用评估、犯罪风险评估、雇佣评估等重大事项的算法活动时,有必要使个体免受任何不公平对待。此外,尽管算法有时可以做出更优的选择,但算法不透明的决策过程让人们天然地不信赖。因而此类重大影响的智能决策系统也成为各国重点立法监管对象。

2020年10月1日年新实施的国家标准《个人信息安全规范》(GBT 35273-2020)要求厂商在基于算法决策时,提供申诉途径,约束自动决策系统。当仅依据信息系统的自动决策而做出显著影响个人信息主体权益的决定,例如基于用户画像决定个人信用及贷款额度,或决定面试筛选结果时,个人信息控制者应向个人信息主体提供申诉方法。

欧盟的《通用数据保护条例》明确赋予了个人数据主体“免受自动化决策权”,个人数据主体有权反对数据控制者完全依靠对个人数据进行自动化处理即对数据主体作出具有法律影响或类似严重影响的决策。但是这种权利的实现存在例外情形,当决策是建立在个人数据主体同意的基础上,或是为了履行与个人数据主体之间的合同所必要,或者决策是欧盟或成员国法律所授权的,同时所处理的个人数据不涉及特殊类别个人数据时,数据主体行使此项权利得不到相应的支持。
 
四、算法合规的立法展望

可以预见的是,算法的公平性、透明性和可责性这三大问题是未来算法合规立法领域需要重点解决的对象。本部分将结合算法技术的特征、相关行业动态和官方文件,对未来算法会如何被监管做出预测和展望。

对于诸如自动驾驶、司法量刑、医疗卫生等算法决策可能造成生命财产重大影响的行业,算法的开发和上市很可能会受到前置性测试的监管。一般意义上,普遍人根本无法理解智能化决策的原理和机制,其自主决策系统常常是在算法这一“黑箱”中做出的,而开放源代码可能也不能完全了解算法的运行机制。所以这类算法的安全管理也很可能会借鉴其他“黑箱”场景下的类似的合规实践经验,让“前置性测试”成为安全和公平管理的有效途径。例如,药品在经过充分测试前也无法知悉其可能的负面影响,所以为确保新药的安全,监管部门要求新药均需要在通过多轮次的临床试验方可投入市场。2018年4月,我国工业和信息化部、公安部与运输部联合发布了《智能网联汽车道路测试管理规范(试行)》的通知,对智能联网汽车的测试提出具体的要求,但我国仍然没有对测试通过后的相关程序予以明确,这也表示监管部门仍然以十分谨慎的态度对待自动驾驶技术。

就解决算法的可问责性问题而言,算法风险的防控有必要建立一套责任体系,让算法的设计者与使用者承担双轨制的责任。可以预期,中国未来的算法合规立法会采取设计问责与应用监督并重的监管路径。在国务院2017年7月发布的《新一代人工智能发展规划的通知》中,提出要“建立健全公开透明的人工智能监管体系,实行设计问责和应用监督并重的双层监管结构,实现对人工智能算法设计、产品开发和成果应用等的全流程监管。”在国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则––发展负责任的人工智能》中也提出“人工智能研发者、使用者及其他相关方应具有高度的社会责任感和自律意识,严格遵守法律法规、伦理道德和标准规范。建立人工智能问责机制,明确研发者、使用者和受用者等的责任。”



鉴于算法核心优质资源集中在科技巨头手中,一些西方国家正在寻求成立专门监督大企业算法的管理机构,这不失为一条有效监管路径。美国新闻集团CEO罗伯特·汤普森呼吁成立“算法审查委员会”,监督科技巨头公司不断增长的权力。英国专门设立数据道德与创新中心,探索并研究如何在数据伦理的框架下,最大化利用包括人工智能在内的数据技术的优势的途径。
 
综上所述,算法技术的应用和开发可能引发许多问题,尽管各国的相关立法还不够完善,但企业仍有充分理由进行全面的算法合规审查,以减少潜在法律风险,建议时刻关注相关智能化技术合规的立法动态,请律师出具专业的法律意见和分析报告,而出海企业则尤其需要在投资过程中开展目标国家的数据合规预案工作。




小今


Elisa Chen


首页上一页 1/35 下一页尾页
共35页到第 确定