算法型信息分发隐私风险及法律对策-尊龙凯时最新

时间:2022-10-13 03:05:14

算法型信息分发隐私风险及法律对策

【摘要】技术的背后是传播权力的扩张,算法型信息分发的迅猛发展,在逻辑维度、主体维度、内容维度以及功能维度给用户带来了隐私风险。网络平台以迎合受众需求、追逐商业价值为出发点,有可能会违背现有法律规定,或是利用法律制度的漏洞和缺陷,规避法律责任。明确网络平台对用户个人敏感信息保护、信息内容服务、算法治理的法律责任,以及增强法律对用户权利的赋予和限制,有助于防范算法型分发带来的隐私风险,实现保护信息产业发展与个人隐私权保护的平衡。

【关键词】算法型信息分发;隐私;法律对策

智能传播时代算法分发技术在新闻业中的应用,给新闻生产带来深刻变革和广泛影响。算法型信息分发的发展与变化是一种重塑传播规则、改变人们认知的全新制度设计,它的影响主要体现在以下四个维度上:逻辑维度、主体维度、内容维度、功能维度。①算法在新闻生产中产生算法风险,其中以数据的收集、处理为基础的算法造成用户隐私风险的显著提升。提高法律的适应性,应尽快在现行法律框架内对隐私权保护的问题进行回应,明晰网络平台的法律责任,实现大数据产业发展和公民权利保护的平衡。

一、算法型信息分发带来的隐私风险

第一,在逻辑维度上,算法智能化效果的提升实现深层监控,披露整合型隐私。算法分发以建立在个人数据收集基础之上的算法生产为前提。当前,伴随万物皆媒时代的到来,信息将被从更多空间、时间维度上获取,不仅数据收集的体量显著增加,而且深层监控得以实现,很多全新领域的数据包括一些极为隐秘的个人数据也将被收集。例如,基于传感器等技术的发展,能够监测用户生理层面的信息。一方面,信息的全面收集并不区分个人敏感信息,许多敏感信息是在用户不知情的情况下被收集的,收集的范围用户不得而知。用户也不知道被收集的信息是否再次流转,如果被流转的信息缺乏有效保护,将进一步增加用户隐私泄露的风险。另一方面,伴随算法模型的智能化升级,对个人数据的全面收集将产生整合型隐私。伴随算法系统运行效果的精确化,算力在广度、深度和准确度方面都在不断提升,单一信息的采集也许并不泄露隐私,但是从海量信息中进行深度挖掘的个人数据,在结构再结构化之后就能够产生整合型隐私,个人隐私信息面临泄露危险。第二,在主体维度上,提供个性化服务的算法模糊公私领域界限,增强隐私风险。智能环境下,无论ogc、pgc,还是ugc、mgc,“它们都将成为网络传播节点,彼此互联互通,构建出分布广泛的网络界面”,②算法技术独立或以人机协作方式侵入私人空间。一是网民以让渡空间隐私权的方式,助力网络企业进入私人空间。空间隐私权是隐私保护的重要内容。而算法以在私密性场景中为用户提供个性化服务的方式满足用户需求,但用户必须同意企业收集社交空间的个人信息才能获取服务。例如,以关联用户微博的连接方式推送个性化新闻,这就给网络服务商进入私人领域提供了机会,造成私人空间隐秘性受到破坏的风险系数上升。二是用户需求的扩容增强隐私信息披露的风险。用户为获取信息服务,愿意主动上传、个人信息,甚至一些用户出于博取眼球、换取经济利益的考虑出让隐私权。而网络企业对社交平台的个人碎片化信息的分析,能够轻易获知信息主体的价值观、政治倾向、兴趣爱好、家庭工作情况、亲友信息等私密信息,造成个人隐私的泄露。部分企业的算法推荐系统为了更深层地洞察用户需求,会提取个人通讯录、手机图片、视频等信息。这部分敏感信息一旦因网民进入公共空间将转化为公共信息,而由于信息主体对其微弱的控制能力,极易导致用户的隐私权益受损。第三,在内容维度上,算法加剧舆论危机产生的风险并诱发舆论暴力。在时空社会学学者看来,一段时间内被嵌入的与网络热点事件相关的信息与事件数量越多,行动者之间的相互依赖则随之增加,事件同步的必要程度也会越大。③由此,网络空间充斥着大量情感因素的数据,用户基于某一网络事件的情感共鸣极易致使涉事主体受到高关注度,产生舆论危机。同时,个体面对海量的信息,很难具备有效处理和筛选的能力,因而会自发地将自己关注的主题与内容向一部分具有专业话语权、有影响力的人或组织靠近。④这就给媒体公司利用话语权的优势通过算法设置议程,推送偏向性信息,影响甚至操纵舆论提供了机会。媒体公司基于追逐商业利益目的,直接推送包含涉事主体隐私的信息,或是在算法技术的支撑下推送低俗甚至虚假信息,致使标题党现象泛滥。这都促进了信息内容在传播过程中的“变异”,对涉事主体的隐私构成二次伤害。伴随舆论危机的爆发,涉事主体的隐私成为公共讨论的议题,网民对隐私信息的大量补充性供给甚至可能演化为舆论暴力。更为严重的是,伴随用户的参与能力以及体验感的增强,网络暴力的危害性也会进一步增强。一方面智能化加工技术使网民能够以修改个人隐私的方式对信息主体进行丑化,尤其是深度伪造技术,这一旦被别有用心之人用于报复,将对信息主体产生严重侵害。另一方面虚拟的网络平台成为对网民产生切实影响的环境,大量适配多样化的场景、沉浸式体验等情感带入强的信息传播增强了用户体验,模糊了虚拟和现实之间的界限。通过这个自由创作与互动反思的过程,受众建构起由符号表征所延伸的自我,沉浸在现实场景和虚拟场景之间不断转换。真实的传统疆界逐渐坍塌,虚拟也不断内爆成为生命体验的现实部分。⑤智能化驱动下的内容生产将刺激网民的情绪化表达,加剧网民对涉事主体的娱乐化、戏谑化等非常态化表达,对信息主体构成反复、严重的隐私侵害,对信息主体隐私造成的侵害威力亦显著提升。第四,在功能维度上,算法的预测功能极易侵犯用户隐私权益,损害自主性,甚至产生带有偏见的预测结果,造成隐私侵害后果的不确定性。伴随算法预测成本的降低以及预测能力的增强,个人数据被使用的情况和场合不断增多,企业可以通过多种设备同时采集用户个人数据,预测用户的偏好,进行个性化推送。但这些个性化推送有可能侵犯用户的隐私权益。不仅如此,作为建构人们认识世界的全新系统,虽然算法声称以追求客观描述为目标,但是对于数据的预测和披露受到干预力量的影响,限制了人们的自由意志,影响人们的价值判断,损害了信息主体的人格尊严。数据的选取夹杂着主观判断,算法黑箱中人为程序的植入,导致预测结果并非建立在纯粹客观、中立的基础之上。即使数据的结果是客观真实的,也可能因为观测主体立场不同,而产生不同的认知。人们更愿意用主观立场,而不是客观事实来判断一个数据预测的真实性,在主观价值介入之后,人们更愿意相信某些数据,而不相信另外一些数据。⑥不论是带有偏见的预测结果还是带有主观立场的预测结果,都压制了我们基于个人自由意志的判断。在这种情况下,无论用户能否察觉,实质上其个人选择都很明显地受到数据预测结果的影响,个人自由意志实际上已经被数据共享的成果所绑架。⑦一旦带有偏见甚至失实的隐私信息被揭露,可能引发歧视,损害个人人格尊严。如果带有偏见的算法被别有用心的人滥用,将可能导致个人身份的污名化,损害信息主体的人格权益。另外,算法预测结果的不确定性加剧了用户隐私披露的风险。从用户单个信息、行为与隐私风险的相关性角度来看,用户难以预料自身的行为或者单个信息将来所产生的隐私侵害后果。例如,一个在脸书上表示喜欢(或不喜欢)“扭扭薯条”的人可能不会料到,这一点竟然会成为对于其智力的预测。⑧智能传播时代,隐私损害后果的滞后性,致使用户对自己创造的数据或是数据使用是否造成隐私泄露风险的预判难以实现,从而削弱了人们的信息自决能力。更何况,由于算法的预测能力基于技术黑箱,预测的结果甚至连企业自身都难以预料,隐私风险也由此进一步加剧。

二、技术霸权与法律规制的缺陷

算法基于用户兴趣对信息进行分发的技术逻辑,被人们称为实现了用户赋权。如果说权力关系在很大程度上是构建在人类思想中的,并且人类思维中的意义建构主要取决于传播网络中信息的处理和图像的流动的话,那么我们便可以认为,权力属于传播网络及其企业主们。⑨也就是说,所谓的用户赋权并没有实现,而是由企业主们掌控传播力,并越来越借助算法扩张这一权力。他们借助算法以掌握信息传播渠道并对数据收集、处理传达信息的方式,影响思维方式,并对用户产生行为导向与价值影响。技术背后是网络巨头的扩张和垄断所产生的算法黑箱,彰显的是传播组织的控制以及日益增强的政治和资本力量的操控能力,传播组织以算法的方式扩张传播权力,影响社会权力结构,侵蚀用户隐私权。媒体公司以追逐商业价值为出发点,“目前平台公司的顶层设计与传统媒体有着悬殊的价值排序,以往的新闻编辑室以客观性等专业主义为主要价值导向,但在算法分发平台设计中,专业价值被置于商业利益之后”。⑩商业利益导向引发实践中媒体公司市场理性与法治理性的矛盾。“法治理性,就是人类在长期的社会实践中总结概括出来的法治原则,用以指导和规范人的行为去更好地适应社会历史发展规律。”“市场理性,就是市场在运行实践中所遵循的规律,政府和经营者必须遵守这一规律,否则企业或产业难以生存与发展。”⑪智能技术环境下,二者冲突加剧。媒体公司为追逐商业利益,借助自身优势地位,规避原本应当履行的法律义务,限制用户隐私权。例如,在知情同意原则上,该原则在实际的法律运用过程中屡屡成为企业隐私侵权的挡箭牌,部分企业甚至将其作为违法收集、处理用户信息的法律依据。一方面,企业为扩张传播力,实现传媒利益最大化,滥用现有法律的规定。另一方面,法律总是滞后于技术发展,企业能够迅速对技术寻求突破,而作为保护用户权利重要手段的法律制度则显得迟滞。当前,我国对个人隐私权的法律保护与人工智能时代技术发展的速度不匹配,法律制度的漏洞和缺陷致使企业趁机规避法律责任。第一,对用户个人信息保护的责任。既有法律对敏感信息采取单一化界定方式,缺乏结合情境的多维度认定,媒体公司处理用户信息的行为主要基于知情同意原则,然而在实践中知情同意原则流于形式,缺乏多元化的知情同意法律责任认定框架。第二,对信息内容服务的责任。由于媒体算法新闻标题党现象严重,存在传播低俗内容、负面情绪以及虚假信息的情形,网络平台缺乏完善的人工干预机制,对平台在重点环节呈现正面信息的执法标准并不明确。第三,算法治理的责任。警惕当前新闻算法分发蕴藏着流量偏向、信息操控、平台利益优先等价值倾向,缺乏达成共识的网络平台算法方面的行业自律规定,进而限制了将成熟的技术性法律规范转化为合理的法律处罚。第四,网络空间用户权利的赋予和限制方面。我国既有法律对删除权的规定主要限制在特殊主体以及特定领域的信息如违法收集的信息上,删除权对象以及义务主体的法律规定存在局限性,删除权具体适用的规则不明确。智能传播环境下对人格权应当给予更加严格的保护,目前“通知 取下”法律规则在人格权领域的适用规则、网络服务商的法律责任的认定无法满足智能传播时代人格权保护的需求,对网络表达新技术的立法缺乏前瞻性。

三、隐私风险防范的法律对策

第一,增强网络平台保护用户个人敏感信息的法律责任。首先,确立个人敏感信息的范围。一般信息出于数据产业利益和信息流通的考虑应当允许企业利用,包含人格尊严,涉及人格利益的敏感信息应当依法进行限制,其中涉及如个体生物信息等敏感信息,需要法律提供超越隐私利益的周延性保护。在依据信息性质不同、确立不同法律保护原则的基础上,结合当前“整合型隐私”的特点,对个人敏感信息的“流动性”,突破单一化方式,进行多维度认定。其次,对敏感信息的法律保护,适用知情同意原则之上更高的保护标准。为提升实践中知情同意原则在个人信息保护上的有效性,对信息收集者的法律义务作出分类规定,其中个人敏感信息只有明确同意才能处理,“适用于比告知同意更严格的标准,如此方能最大限度地保护信息主体的权益”。⑫最后,对于企业敏感信息处理行为设置底线,对数据画像制定技术性法律规范,增强对敏感信息处理行为的风险评估和防范。彭诚信就指出,比如出于对疫情的考虑,需要掌控并公布一定的信息,那也必须依据法律的明确规定予以使用,且对隐私权的主体要做匿名化处理。⑬第二,明确网络平台信息内容服务的法律责任。其一,明确网络平台限制非法信息传播的责任。当前以知情同意以及避风港条款作为认定网络平台法律责任的主要依据,立法应当结合技术发展的新形势,对平台在重点环节(包括服务类型、位置版块等)呈现违法信息的追责行为等法律责任实行综合认定,赋予其合理范围内的注意义务。同时,鉴于算法分发下信息传播内容的用户场景适配性、体验性增强,对隐私主体的侵害力的加剧,增强新闻伦理价值和人文关怀的法治规范,避免新闻平台追逐经济利益诱发或者助推网络暴力,“对发生严重侵权的特定网络空间,网络服务提供者负有合理期限内的持续注意义务”。⑭其二,增强技术性法律规范的制定。应当适时调整审核标准,完善技术保障措施,例如建立假新闻源头黑名单,对当事人隐私设置前置保护程序,健全与人工干预、用户自主选择协调配合的技术性举措等,逐步将企业实践中成熟、有效的技术性措施转化为行业自律规定或技术性法律规范。其三,合理规定平台法律责任。我国《网络信息内容生态治理规定》第十一条规定了鼓励网络信息内容服务平台坚持主流价值导向,优化信息推荐机制。在算法推荐上,法律不仅禁止网络平台传播违法信息,而且增设了要求其传播正能量内容的法律责任。基于此,在机器审核的基础上,应增强平台人工审核比重的法律责任,健全人工干预机制,以实现对信息推送机制的优化。第三,明确网络平台算法治理的法律责任。为了避免算法黑箱产生歧视,实现算法透明,一方面算法规制对用户权利、人格尊严的保护应当明确。建议对预测性算法做出严格的法律限制并借助立法明确算法自动决策使用者的法律责任,赋予用户对算法决策提出合理性质疑的权利,进而为用户的隐私权益寻求法律保护。对此,欧盟gdpr对算法自动决策使用者做出了为决策做出解释的法律要求。另一方面明确算法设计者、数据处理者等相关利益主体的法律义务,加强算法对数据利用层面的规制。美国2017年公布了算法治理七项原则:知情原则、访问和救济原则、可问责原则、解释原则、数据来源处理原则、可审计原则、检验和测试原则。⑮美国计算机协会提出的算法透明和可责性原则值得我国在立法中借鉴和吸收,在此基础上,建立算法审查、监督、问责机制,完善算法监管体系,尤其是对一些采用问题算法的网络平台,借助自律规范,必要时候采取必要的法律手段进行处罚。第四,法律对用户权利的赋予和限制。一是完善删除权。目前我国已经针对未成年人这一特殊义务主体赋予了删除权,应当以特殊义务主体以及敏感信息保护领域为试点继续完善删除权的法律规定,构建完善的删除权权利体系,增强删除权行使过程中的可操作性,借鉴域外先进的立法经验,进一步完善“通知 取下”在人格权领域的适用规则。对此,学者李洋建议,“我国人格权立法上应当引入域外立法经验”,“一旦网络服务商了解到第三方的某一项侵权内容,便应在以后针对同样侵权内容负有主动审查义务”,⑯在此基础上,立法在受害人的救济成本以及企业的经济成本之间寻求平衡。同时,平衡和其他用户知情权、表达权之间的关系,例如通过制度设计,防止官员以主张删除权保护个人隐私为由从事删帖行为,限制公众监督权等的意图。二是规范对网民新型表达方式的法律限制,防止表达权对隐私权的限制。《网络信息内容生态治理规定》第二十一条、第二十三条对利用相关技术进行网络暴力、深度伪造技术进行了法律限制。网民通过智能化的音视频进行表达是公民表达权在网络空间的体现,应当予以尊重,但是无论何种表达形式都不能以侵蚀其他用户的隐私权为代价,立法应当增强前瞻性,及时防范用户新技术滥用带来的法律风险,同时进一步明确法律的适用规则,以平衡用户网络表达权和隐私权保护之间的关系。

作者:夏梦颖 徐家林 单位:华东政法大学