查看原文
其他

【文章精选】闫宇晨丨社交平台私权力的滥用及其治理丨2023年第4期

闫宇晨 公共管理与政策评论
2024-09-23

社交平台私权力的滥用及其治理

◉ 闫宇晨

【摘要】随着大数据与人工智能算法技术的快速发展,平台影响力显著增强,地位明显提高。掌控着算法权力的平台可以影响多种社会主体的决策行为。与此同时,算法造就了一种新的权力形态——平台私权力。近年,平台私权力的不断扩张给社会结构和社会秩序带来了诸多不利影响,然而传统的平台监管体系却未能及时地作出调适,平台私权力滥用的风险显著加剧,在传播领域,社交平台私权力滥用的问题已经开始凸显。正确认识社交平台私权力滥用问题的现实危害,及时防范、化解其带来的不良社会影响,在推进未来国家治理体系现代化进程中将显得尤为重要。应当建立“政府-个人-社会力量”三位一体的新型平台治理模式,借此避免政府事后问责带来的平台监管弊端,也可缓解用户在与平台对抗中的权利保障困难,同时带动其他社会力量共同参与到平台治理当中。

【关键词】私权力;算法权力;社交平台;治理

【作者介绍】 闫宇晨:南京理工大学知识产权学院讲师,iplawchen@njust.edu.cn。

【引用格式】闫宇晨.社交平台私权力的滥用及其治理[J].公共管理与政策评论,2023,12(4):142-153.


—文章结构—


一、问题的提出

二、社交平台私权力的兴起:算法权力的膨胀

(一)社交平台逐渐掌控传播话语权

(二)社交平台正在利用算法权力与政府“分割”公权力

(三)操纵算法权力,铸造社交平台帝国

三、社交平台私权力滥用危害的现实表现

(一)滥用算法过滤技术:阻碍思想交流与进步

(二)滥用算法权力:形成平台垄断造成的危害

四、社交平台私权力滥用问题日益严重的成因探究

(一)社交平台私权力运行处于失范状态

(二)社交平台监管责任严格化与私权力的不当扩张

(三)针对社交平台私权力行使监督约束机制的不足

五、社交平台私权力滥用的治理路径

(一)构建政府治理新模式:建立以算法问责为中心的平台监管制度

(二)鼓励个人参与治理:赋予用户算法解释请求权

(三)引入社会力量共同治理:由第三方设立社交平台监督委员会

六、结论


一、问题的提出


互联网技术在改变人们生活方式的同时也影响着网络社会权力的重新分配,由此引发的问题逐渐被学界关注。随着大数据时代的来临与人工智能算法技术的迅猛发展,各式平台作为大数据的掌控者异军突起,并借助智能算法不断将自我意志贯彻于用户身上,进而影响着人们的决策行为。在资本和技术的双重加持下,网络空间充斥着的各种平台嬗变为控制人们信息获取的主宰,最终膨胀为拥有强大技术实力的私人力量,有学者将这种力量定义为平台的“私权力”。随着平台私权力不断扩张,侵害公民权益和社会公共利益的现象频发,一些大型社交平台甚至开始影响、侵蚀政府公权力,干预国际政治走向。以伊朗“推特革命”事件为例,2009年伊朗大选进入白热化阶段,美国政府突然要求推特总部暂停更新计划,以保证反对派的意见能够在互联网充分传播。在此次事件中,推特通过算法汇集公共舆论并对信息传播进行强制干预,平台的信息传播控制力化身如国家权力般强大的力量,迅速改变了该国的政治态势。有学者指出,正确认识平台私权力的形成并对之进行合理、有效的规范,既是解决许多日益突出的网络问题的基础,也是理解和构建良性网络社会的前提。在众多平台中,社交平台凭借数据优势自建流量门户,挟制其他市场参与者协同行动,形成围绕核心社交平台的数字经济生态系统,并衍生出复杂交错的强大平台私权力,而针对社交平台私权力的行使却缺乏成熟的治理机制和充分的治理能力,这种严重失衡诱发了多种权力滥用的风险。理论界围绕着平台私权力及其背后的算法治理问题进行了诸多有益的探讨,然而,就社交平台私权力滥用及其治理问题鲜有针对性研究,尚缺乏系统性治理方案。


相关研究主要从以下几个方面展开:第一,分析网络平台私权力的生成机理,理解其权力的来源和发生机制,指出“平台行使私权力、实现私主体治理的趋势,必将进一步加强”。研究关注到平台私权力生成、发展趋势及带来的新生治理难题,不过未就此问题提出针对性解决办法。第二,提出平台私权力滥用是因法律规制不足所导致,应通过加重平台责任来规范私权力运行。该研究虽然提出了具体应对方案,但存在两方面缺憾,一是未关注到新技术背景下算法在平台运行过程中的决定性影响,忽视了算法治理对于规范私权力行使的重要作用;二是意图依赖单一的法律路径实现对平台私权力的治理,也未能注意到“平台法律责任严格化”所带来的弊病。第三,有学者指出,平台力量的本质是一种利用算法控制数据的能力,在各类平台中社交平台位处数字经济的枢纽而掌握强大的平台力量,以算法为工具滥用平台力量的现象十分突出。该研究不仅发现平台力量与算法的紧密关系,也提醒我们将社交平台私权力作为治理研究关注对象的必要性与紧迫性。遗憾的是,相关研究将社交平台单纯地理解为垄断性市场主体,又回归到传统竞争法领域对平台力量引发的问题进行规制,未能将平台治理与算法治理共同考察。第四,有研究发现平台是算法的产生基础,平台治理应当与算法治理建立有效联结,而实现算法治理则需要一种多元化方案。具体而言,算法源于社会场景并在实践中不断被优化,要实现对算法权力的有效治理,须整合社会多方力量,以形成立体的协同合作体系来助力算法的演进,借助多元化手段对算法权力运行进行监督。此类研究观察到平台与算法的内在联系,以及算法治理对于平台治理的积极意义,而算法权力治理手段对于平台私权力治理具有重要的借鉴价值。


综上,近年学界围绕网络空间中崛起的平台私权力治理问题展开了多角度讨论,但仍未就治理方案形成一致意见。不仅如此,人工智能时代的来临和算法技术的不断成熟使这一问题更加复杂,算法权力的兴起使得平台私权力得到进一步增强,社交平台私权力滥用带来的社会问题已经凸显,亟须构建一种新型平台治理模式来规范社交平台私权力的行使。本文认为,人工智能时代中平台私权力与算法权力是一体两面的事物,不可分割看待,若要实现对平台私权力的治理,则必须洞悉其背后算法权力的运行机制。在此基础上,应当充分借鉴算法权力的多元治理方案,在社交平台具体运行场景下引入多元主体共同参与治理。本文将以社交平台私权力为关注对象,平台算法权力问题作为研究主线,分析平台私权力的生成、异化及滥用危害,结合媒体平台特点并参照现有算法权力治理路径,提出防治社交平台私权力滥用的新型平台治理模式。


二、社交平台私权力的兴起:算法权力的膨胀


人工智能的核心在于“思考”和“决策”,机器如何进行理性思考并做出合理的决策,其关键则在于算法。近年迅速占领媒体消费市场的新闻聚合平台,正是借助算法实现了互联网海量信息筛选与精准推送,满足了用户从单纯对信息“量”的追求转变为对更优质、更精准内容的渴求。从表面上看,算法仅是一种传播技术工具,能够实现个性化推荐,使得社交平台可以充分了解不同用户的偏好,提高传播效率的同时增强用户黏性,但算法的力量却不止于此——“在一个媒体和代码无处不在的社会,权力越来越存在于算法之中”,谁掌握算法即享有权力。“算法权力正在逐渐形成一种‘准公权力’”,本文将这种“准公权力”称为社交平台的私权力。作为一种技术形态的权力,社交平台私权力是指社交网络服务提供者借助自身数据资源集中优势并利用强大算法决定使用者是否接受特定信息,而拥有的对各类社会主体决策和行为等方面的影响力和控制力。社交平台不断扩张私权力的具体表现有:积极推动媒体间角色的重新分配与权力的流动;通过操纵强大的算法权力,试图与政府“分割”公权力,实现对社会的控制与支配;私权力的持续扩张导致平台向脸书式的社交媒体帝国发展。


(一)社交平台逐渐掌控传播话语权


人工智能与新闻业的深度融合重塑了新闻生产,然而掌握智媒时代话语权的却不再是传统新闻机构,而是拥有强大人工智能技术的社交平台等科技巨头。在媒体融合智能化演进的过程中,原有的传播逻辑结构已经悄然改变。随着算法在新闻来源环节中的运用,社交媒体新闻也不再来源于固定的消息源,公众的广泛参与成为新型新闻传播的内核,所谓人人都可以是新闻记者。然而,传播话语权并未曾向公众转移,掌握算法的社交平台主导了新闻的获取与呈现方式,社交平台通过算法大面积地将非结构化问题进行有效处理,把分散的数据结合起来形成人们所需要的结构性数据,并深度揭示着数据背后存在的问题。与此同时,用户在逐渐走出传统新闻领域,迈向专属于我们每个人的算法新闻世界。随着社交平台不断占据媒体市场,呈现在我们眼前的信息终将演化为算法操纵的结果,其背后的主宰则是拥有雄厚资本力量的社交平台。“在新闻传播史上,每一次传播技术的革新都伴随着受众群体的大规模迁移,促使信息传播的主导权发生转移”,如今,社交平台在逐步掌控着传播话语权。一方面,算法捕捉数据的能力已使社交平台成为独立的信息源,其强大的影响力与传播效果实质上具备了影响公众舆论的能力;另一方面,随着智媒技术的不断进步,传统新闻编辑的职业工作也会进一步被算法所稀释,算法将传统编辑的把关权力进行“程序化收编”,彻底改变新闻传播的路径。传播方式的改变会导致传播权力结构发生相应的变化,掌握算法权力的社交平台将不断增强对媒体行业的控制,最终完成对传播权力的褫夺。


(二)社交平台正在利用算法权力与政府“分割”公权力


随着大数据分析与人工智能技术的进步,算法的社会意义也逐渐显现,政府公共决策等许多重要事项正在从“人类决定”转向“算法决定”,算法被广泛运用于解决社会问题当中。借助平台强大的算法,政府得以分析公民、社会组织等主体的利益诉求和价值取向,精确识别治理需求并科学制定政策方案,为社会治理水平和公共服务能力的提升提供保障。这提醒我们,应当肯定社交平台参与社会治理所展现出的积极作用。例如,在新冠疫情期间,社交平台运用算法权力帮助政府实现对公民个人信息的大量采集与公民个人行为的精确监控,政府通过微信平台提供的用户活动轨迹、健康码扫描结果等迅速筛查隐患,极大地提高了疫情防控效率。但与此同时,算法权力的出现也引发了社会权力结构的变化,彻底改变了原有的“权力-权利”格局,使得传统权力格局发生权力主体去中心化、权力作用范围不断拓展及权力互动的双向变迁。


从网络社会的权力观来看,权力主要呈现出分散化和平面化的特点。其一,在传统社会中,公权力为政府专属掌控,其他社会主体只是公权力规制的对象。网络社会的崛起使得公权力在不断向其他的社会主体分散,尤其是掌握着专业化网络技术的平台,逐渐成为新的权力主体;其二,在权力分散化的影响下,公权力从科层化向平面化发展。网络社会中政府公权力转移的具体表现为由控制型向分权型发展,政府在治理网络社会时更多是采用一种合作治理的模式。回归到现实,虽然各国政府普遍意识到算法参与公共决策的重要作用,主动依靠数字技术和人工智能提高为公众服务的质量,试图依托算法来行使公权力完成人工智能时代的数字化转型。但由于技术鸿沟的存在,政府发现只有平台等科技巨头才能掌握这种高度复杂的技术,政府根本无法单独行使算法支配下的权力。此种权力配置模式,犹如后现代权力理论主张者福柯所言的“去中心化”的权力模式:“不要在它们中心,在可能是它们的普遍机制或整体效力的地方,分析权力的规则和合法形式”,在该模式下政府只是权力的一个有限场域,权力存在于一个交织的网络,国家的运行需要多权力主体来共同努力。


在传播领域,政府要求社交平台履行监管责任就是权力分割模式的典型代表。由于社交平台的“全民工具”属性,平台内信息规模庞大且传播迅速,边缘信息量更是难以估测,政府根本无法做到实时跟踪来履行监管责任,只得将该责任转移给平台,从而提高行政效率、降低行政管理成本。实践中,政府借助行政规章立法权与执法权不断扩张平台注意义务,推动平台责任认定的严格化。例如,我国《互联网信息服务管理办法》规定平台对九类禁止性信息负有主动审查义务,新浪微博就曾因对用户发布信息未尽审查义务而被国家网信管理部门约谈,令其立即自查自纠,全面深入整改。2010年以来,国家版权局、公安部、工信部每年都会联合发起“剑网行动”,不断加大网络版权执法监管力度,强化平台监管责任,若平台违反内容审查义务其后果是将直接承担行政责任。从表面上看,政府仅把监管责任转嫁给了平台,实际上政府要求平台履行普遍性审查义务的做法,是通过让平台承担协助甚至替代自身执法的机制,把政府监管权力“分割”给了平台。值得注意的是,此种权力分割模式存在明显的弊端:其一,平台被推向监管的前线,事实上行使公权力的平台却不受行政法治的约束,这极易造成对用户私权利的侵蚀。近年社交平台“有偿删帖”“买热搜”“恶意封号”等违规现象时有发生就是这种弊端的直接表现;其二,此种模式导致本已拥有强大算法权力的平台获得进一步扩张的空间。平台获得充分的法律授权去审查用户言论、限制用户行为,并且声称自己在履行政府所要求的监管责任。


马克斯·韦伯有言:“权力意味着在一种社会关系里哪怕是遇到反对也能贯彻自己意志的任何机会。”在网络世界中,攫取了政府公权力的平台拥有绝对的权威,用户必须遵守平台规则,否则将受到制裁。2021年1月,一群暴民冲击了美国国会大厦,试图推迟对拜登总统选举胜利的确认,袭击发生后的几天,脸书、推特等社交平台便宣布禁止特朗普在其平台上发言,以阻止他发布可能鼓励进一步暴力的信息,而特朗普的反抗却未有任何实际效果。可见,社交平台私权力已经成为网络社会权力格局中的重要一极,在分散化、平面化的国家横向权力模式中“分割”政府公权力后,能够对社会言论进行有力控制,甚至可以对政府权力享有者进行管制和约束,这是以往国家权力运行中不曾出现过的现象。


(三)操纵算法权力,铸造社交平台帝国


数字经济在深刻改变人们生产生活方式与社会治理模式的同时,平台化的趋势也愈发明显,平台经济正在以惊人的速度和规模发展,“通过现代金融工具创新和国际资本市场融资,单个平台经济可以快速扩张为富可敌国的超大型跨国企业”。2019年是脸书成立的15周年,《连接》杂志系统地展示了该社交平台的“帝国全景图”。经历十几年的发展,脸书从最初的社交媒体业务扩展到网络游戏、智能广告、卫星通信、人工智能等九个业务领域,囊括100多项产品与功能,有研究发现从经济规模、用户数量、政治参与度等层面,可将脸书形象地描绘为一个互联网时代的国家。如今的脸书拥有用户量超过世界人口的1/3,发行货币可以在49个国家流通,曾向世界多国派驻外交代表进行政治谈判,甚至能够通过商业运营获得某项征税权。学者将其称为“脸书斯坦”(facebookistan),以此来形容该社交平台如同一个集权主义的封建帝国。本文将从互联网规则形成的角度进一步剖析平台是如何摆脱政府监管,建构网络世界的“帝国”规则体系。


其一,平台成为网络世界规则的立法者、裁判者和执行者。网络法学界有一句常被人引用的名言:“代码即法律。”这句话深刻反映出在大数据技术和人工智能广泛应用的时代,谁掌握分析数据的算法技术,谁就能决定人类社会的秩序。不幸的是,我们的政府和监管系统并未能跟上网络发展的步伐,拥有技术实力的平台抢先拟定了虚拟世界的规则。不仅如此,平台同时充当了规则的裁判者和执行者,现实中,平台几乎都会在用户协议中规定,平台享有最终的规则裁判权,若用户被判定未遵守相关管理规定,平台即可予以处罚。例如,知乎规定“知乎有权对用户使用知乎的情况进行审查和监督,如用户在使用知乎时违反任何上述规定,知乎或其授权的人有权要求用户改正或直接采取一切必要的措施”。既是规则的制定者,又是规则的裁判者和执行者,平台在网络世界便享有了不容置疑的权力。


其二,平台凭借强大的算法权力在不断拓展新的业务领地,在新领地上迅速制定和实施自己的规则,它蚕食着政府权力的同时树立着自己的权威。与此同时,传统法律制度对于平台私权力近乎疯狂的扩张却显得办法不足:政府难以逾越与平台算法权力间的技术鸿沟,从而无法有效监管平台私权力运行的具体事务。平台封闭式的独立运行体系也使得外部监督介入异常困难,这进一步巩固了平台在网络世界中的独裁地位。Demos智库社交媒体分析中心的研究人员指出,脸书这类社交平台已强大到无法进行有效监管的地步,因为我们缺乏针对这样一个巨无霸公司的监管体系。不仅如此,平台借助算法权力逃避政府监管很可能只是其摆脱传统制度束缚的第一步,不受监督的权力必然导致滥用,平台会通过“媒体俘获”“舆论俘获”“学术俘获”等方式影响和控制社会,甚至公开挑战政府的公信力和监管权威。有媒体人曾发出这样的感叹:“一个一统天下的腾讯,对国家绝对是一种危害。不信走着瞧。它今天可以对媒体露出狰狞威权,明天就会对国家权威提出挑战。”


三、社交平台私权力滥用危害的现实表现


(一)滥用算法过滤技术:阻碍思想交流与进步


在纸质媒体与电视广播媒体时代,言论的传播须经过特定的编辑审查,发生不当言论的概率被大大降低。自融媒体时代以来,社交平台作为言论媒介,其影响力与日俱增,一方面,“人人都是发言者”的传播方式使得平台成为人们言论赖以生存的“基础设施”,平台采用必要的技术措施有着充足的正当性基础。以算法过滤技术为代表的审查手段,对于降低用户言论的危险程度,防止其对民主政治与社会秩序造成破坏性影响至关重要。另一方面平台也决定着言论的命运,“技术运用过程中无法逃避的命运是技术反过来吞噬孕育技术的自由”,平台的算法过滤技术运用不当必然会导致侵害用户言论现象的发生。


首先,技术从未实现真正的“中立”,以算法为内核的过滤技术带有设计者的特定偏好与价值倾向,审查结论可能只是算法偏见的结果。平台根据自己特定的偏好对用户言论内容进行挑选和分级,而后利用算法进行比对与过滤。由于算法难以感知人类多元化的价值判断模式,这样类型化、序列化的过滤方式便带有平台鲜明的价值取向,得出的结果则是平台认为“正确的”言论。这样事先锁闭言路的做法不仅会阻碍思想的交流与进步,还会带来算法传播中的文化区隔与分层,引发社会分层与社会公平的问题。


其次,如何划定“过滤”的界限是一个模糊而带有法律不确定性的问题,各国根据自身国情努力在为平台构建合理的注意义务范畴,但实际效果却并不理想。例如,2019年欧盟《数字化单一市场版权指令》的第17条要求平台利用过滤技术履行监管责任,但对于该技术所应达到的“必要和相称”“最佳努力”等条件,具体含义模糊不清,引致各方的批评与质疑。我国立法也要求平台采取适当的过滤技术来履行注意义务,但何为“适当”则在司法实践中产生了不同的做法,各级法院判决的表述及其释义也不尽相同,如平台应尽到“与信息管理能力相适应的注意义务”“合理的注意义务”“更高的注意义务”等。平台须遵守的规则与司法裁判相关认定标准尚未达成统一,这也给实践造成了诸多困境。


再次,平台上发布的作品存在大量的“为介绍、评论某一作品或者说明某一问题,在作品中适当引用他人已经发表的作品”情形,此类行为被归于促进公共文化传播与思想进步的合理使用行为。然而,合理使用的判断被认为是著作权法中最为复杂的问题之一。在现有技术条件下准确区分思想与表达,识别出何为作品侵权、何为作品的合理使用几乎无法实现。过滤技术的不当使用会将大量合理使用排除在正当情形之外,妨害自由的思想表达,甚至阻碍创新进步。


最后,仍须注意的是,相较于传统的言论审查,过滤技术是基于代码的秘密措施。该技术对于公众而言十分隐蔽,甚至是不可知晓的,公众会在毫无意识的情况下“被过滤”了发言。当隐蔽的过滤技术措施侵害言论自由时,公众浑然不知侵害的发生,遑论表达权利的救济。


(二)滥用算法权力:形成平台垄断造成的危害


数字经济时代,平台的发展呈现出垄断的趋势。平台利用自身先进入市场的优势轻易获得某个领域的垄断地位,之后不断将算法权力所带来的优势向其他领域扩展,形成跨行业的垄断。此种垄断带来一系列危害:其一,平台经济具有天然的垄断属性,一旦形成规模,就会竖起较高的进入壁垒,加大其他主体进场难度。其二,对于平台而言,其垄断的首要表现是数据垄断,平台在运营过程中收集了大量用户数据,且一次收集之后,可以实现多次零成本使用。数据使用过程中,还会产生新的数据,平台通过先进的算法不断优化对于数据的利用,在此过程中竞争优势也得到强化。其三,在已有数据优势下,平台可以将其业务延伸到相关领域,数据的跨市场使用将带来新的范围经济,在该领域形成新的垄断。平台涉及业务领域越多,用户涵盖范围与黏性越大,用户转换成本不断升高直接导致算法权力对行为支配的发生。最终,平台垄断会造成“赢者通吃”的局面。数字平台垄断不但会打压竞争对手、抑制行业创新、侵害消费者福利与用户个人隐私,甚至会危害国家政治安全。


在众多平台中,脸书社交媒体业务扩张与垄断的形成十分典型。脸书于2012年收购了正在急剧扩张的图片分享类社交平台Instagram,又于2014年以190亿美元收购即时通信类社交平台WhatsApp,到2019年,脸书已占据全球2/3的社交媒体市场。与此同时,脸书在借助平台垄断优势滥用算法权力,从事非法行为。例如,有媒体曝出有多达8700万脸书用户的资料,在未获得用户授权的情况下被脸书泄漏给第三方数据分析公司“剑桥分析”。相关数据经过算法处理,被用于向用户精准地推送政治广告甚至假新闻。资料显示,2016年特朗普竞选团队涉嫌利用这些数据进行政治宣传,帮助特朗普赢得美国总统大选。社交平台业务近年来的无序扩张也引起了各国政府的关注与警惕,针对社交平台的反垄断规制不断升级。2020年美国联邦贸易委员会(FTC)针对脸书发起反垄断诉讼,这是自1998年微软遭到反垄断调查以来20多年间规模最大的反垄断案,FTC指控脸书收购潜在竞争对手,扼杀潜在创业公司,要求其剥离部分业务。2021年欧盟委员会首次对脸书涉嫌违反竞争法展开正式调查,以裁定该社交巨头是否从事扭曲分类广告业务的行为,削弱竞争对手并非法获利。总的来看,垄断性的平台企业滥用优势地位不但不会激励市场创新,相反,若不加以约束和规制,还将对社会健康发展造成极大的危害。


四、社交平台私权力滥用问题日益严重的成因探究


(一)社交平台私权力运行处于失范状态


作为现代互联网发展重要的基石,美国《传播风化法》(CDA)第230条所规定的平台注意义务被世界各国所效仿。该法奠定了媒体监管责任的理论框架基础,具体而言:(1)平台不应被看作是第三方传输信息的发行者或发言人;(2)平台无须为以下事项承担法律责任:认为网络用户传输淫亵、肮脏、过度暴力、骚扰或其他令人反感的内容所自愿采取的限制性行为。其合理性在于:第一,平台并非信息传输内容事实上的发布者,也并未进行传统意义上的内容编辑行为,也就不应承担出版发行责任;第二,在信息爆炸的网络时代,如果要求平台对海量信息的适当性负有审查责任,平台只得采取更为严苛的技术手段来限制用户言论,缺乏信息管控能力的平台很可能沦为政府控制言论的工具。然而,进入算法驱动人工智能发展的时代,算法不仅赋予了平台强大的信息处理能力,也给平台带来了全新的信息内容编辑方式。如今,平台开始大肆宣扬算法即“编辑”,其利用算法对数据进行分析的行为,应当受到言论自由的保护。


当我们把平台算法即言论的主张与230条款框架下的平台监管责任共同考察,可以发现,社交平台私权力运行处于一种失范的状态:其一,当平台滥用私权力发布不当信息而应受到法律规制时,算法即言论的主张成为平台抗辩的武器,平台认为对信息内容的编辑如同在发表言论一般,应当受到言论自由的保护;其二,当我们要求平台承担更多监管责任,应当履行主动审查等义务时,平台则声称自己不是信息的编辑发布者,除遵守避风港原则外,无须承担更多责任。如此,在现行媒体监管责任体系中平台占尽好处:一边以“发言者”的身份来抵制国家对算法权力规制,为自己私权力的滥用挣得“合法”空间;另一边,又主张自己不是真正的“发言者”,以此逃避承担媒体监管责任。正如同斯特尔森所指出的那样,社交媒体在一开始就声称:“我们不是媒体公司,我们是科技公司。”然而,他们深知自己有权利和能力像传统媒体那样,可以选择发布什么、不发布什么,可以编辑内容,但他们故意说,“我们选择不参与这种内容歧视,我们让所有人都拥有发声的平等权利”。


(二)社交平台监管责任严格化与私权力的不当扩张


从责任理论角度出发,平台的行为属于私人行为,若行为不当则应当承担相应的民事责任。然而,在平台监管责任上出现了这样一种怪象:不涉及任何公权力行为的平台时常因审查不当而被追究行政责任,甚至刑事责任。究其根本,在传播领域盛行的“数字守门人”理论是造成社交平台监管责任严格化的重要原因。


现实中,平台被认为是拥有发现和控制信息传播能力的“最佳实践者”,应当负有与其经营活动内容相适应的注意义务,正所谓“谁经营,谁负责”。一方面,如果平台不肩负起信息监管责任,那么政府无论如何也无法承受庞大信息量带来的监管压力与执法成本。政府直接介入内容审查当中,还可能会陷入侵犯公民言论指责的泥潭;另一方面,随着过滤技术的发展,平台对用户上传内容的审查能力极大增强,治理不良信息内容的责任也理所应当地落到了平台肩上。此外,公众普遍不满互联网发展初期法律给予平台的豁免特权,主张平台承担的并非一般性的注意义务,应是更高监管层级的主动审查义务。实践中,近年各国不约而同地开始加强平台监管责任,虽然在私法层面上仍大致豁免平台负有主动审查的义务,但间接地通过公法规范增加其监管责任,责任严格化的趋势十分突出。例如,2018年德国《社交媒体管理法》正式实施,该法要求拥有一定用户数量的社交平台应当严格审查并及时清理涉及“仇恨、煽动性言论、虚假新闻内容”,否则将面临高额的罚金。2019年英国在《在线社交媒体平台行为准则》中要求立法强化社交平台的自我监管,倡导社交平台要承担在其平台上发布不良言论的责任。我国在平台责任严格化方面似乎走得更远,平台在被政府监管部门约谈后,整改不当则会受到被问责,乃至被关停的处罚。


然而,政府监管部门未曾充分预见的是,监管责任从政府直接向平台过渡的做法危害甚巨。第一,平台为避免遭受处罚将会采取更为严格的审查标准,如前述,滥用算法过滤技术不仅会给公民言论带来巨大的伤害,而且会将新闻传播中大量存在的合理使用行为排除在外。第二,政府监管部门在“传递”公权力的同时,却未有效建立针对平台私权力行使的监督约束机制。由于大量用户内容处于监管的模糊地带,需平台自由裁量作出判断,这一过程很容易引发平台“执法权”的滥用。平台为实现商业目标,会借履行监管责任之名而滥用其私权力,动辄对用户进行警告或处罚,甚至肆意删除用户信息、封禁用户账号。


(三)针对社交平台私权力行使监督约束机制的不足


1.政府监管层面:对社交平台的行政管控力不足


在未来法治中,技术革新和权力结构的变化使我们必须重新思考对权力的监管方式,除对公权力的运行进行规制外,应更加重视对私权力的约束。在此过程中,如何将传统权力规制手段延伸到对平台私权力的规制当中是一个重要的问题。“阳光是最好的防腐剂”,现代法治权力运行体系告诉我们,若想对权力进行有效监管,权力的公开、透明是实现权力被监督与被问责的重要基础。因此,算法权力运行的透明、公开、能够被合理说明以及符合程序正当既是克服“算法黑箱”的重要手段,也是对平台私权力管控的基本前提。然而,实现算法透明与能够被理解可谓困难重重。一方面,算法自身复杂性不断加深,传统算法向深度学习算法进化,多次迭代后的算法使其开发者也难以理解。政府对平台算法运行过程与结果更是难以建立起清晰的认识,导致行政管控的依据严重不足。另一方面,算法透明、可被解释须以算法公开为基本路径,而实现算法公开与保护平台知识产权之间存在严重冲突。实践中,平台为保持市场优势地位与防止不当竞争,一般将算法视为核心经营信息并作为商业秘密保护。政府通过何种方式实现算法公开尚缺乏充分的政策性考量与法理支撑。可见,政府对于平台私权力的监管,从理论认识层面再到实践方法上都缺少有益的经验。


2.用户监督维权层面:通过用户协议难以起到权利保障作用


根据“数字守门人”理论,若平台作为信息管控的“最佳实践者”而未尽到合理的注意义务,会被课以相应的过错责任。因而平台为避免承担不利后果须主动履行一系列监管行为,如实名登记、身份审核、信息管理、发现违规行为后及时制止,以及对用户进行相应处罚等。在具体操作层面,平台会将上述公法规范的要求转化到用户协议中:若平台发现用户发布危害信息、不实信息或陷入用户纠纷等违规行为,有权对其采取不利措施。但这些看似平等、公平的协议,本质上却是为维护平台利益而进行的单方面规则输出。


第一,网络世界的规则往往涉及大量专业术语且内容庞杂,客观上,用户面对复杂的条款事项很少会仔细阅读协议内容,难以理解的技术类词汇也使其不能真正了解权利保障事项。第二,用户对协议无法产生合理信赖,实践中平台会频繁变更协议内容,而用户只得被动接受。当协议变更后,用户已经丧失了最初的信赖基础,但用户黏度、退出成本等因素又导致用户不得不遵守后续规则。第三,用户缺乏必要的议价谈判能力与内在激励。现实中,用户几乎不会就早已被格式化的协议条款与强大的平台展开对话。类似于《微博社区公约》这样在互动参与机制下建立的权利保障协议还十分稀少,也并未形成普遍的行业惯例。如此,用户协议实质上已退化为一种简单地“选择进入/退出”机制(opt in/out)。用户选择“进入”社交平台就必须遵守协议,否则将无法享受平台所提供的服务。可见,所谓用户协议往往不是建立在平等协商基础上的契约,用户与平台之间利益的严重失衡导致其无法真正起到权利保障的作用。


五、社交平台私权力滥用的治理路径


隐匿在社交平台私权力背后的算法权力,是一种复杂而又难以理解的技术权力,高度专业化的代码语言使得私权力长期处于“黑箱”中运作,外界无法窥探其实际运行过程以及建立起有效监督约束机制,这是权力滥用的一个重要原因。美国学者弗兰克·帕斯奎尔曾指出,要实现对技术权力的有效治理,必须聚焦算法权力的运作过程和背后的责任问题。本文认为,应将平台定位为实现算法透明的责任主体,围绕其建立“政府-个人-社会力量”三位一体的治理模式,借平台责任将可理解性与可问责性相勾连,以实现规范私权力行使的治理目标。


(一)构建政府治理新模式:建立以算法问责为中心的平台监管制度


如前所述,各国政府不断加重社交平台监管责任的做法,使得平台私权力获得进一步扩张的空间,算法权力也不断向更为细致的生活领域深入。但由于技术鸿沟的存在及相关监督约束机制的不足,这种事后问责的平台监管模式无法实现对私权力运行过程进行考察,故存在“算法暴政”的风险。政府在将公权力分割给平台的同时,应当就平台算法权力运行建立相应的算法问责机制,即政府监管部门在公共领域通过组建专门机构和人员构成问责主体,追究算法使用者或控制者责任的一种算法治理模式。其核心机制在于算法使用者或控制者有义务报告并证明算法系统设计和决策应用的合理性,且有义务减轻算法可能带来的任何负面影响或潜在危害。这样做,不仅能够克服传统治理模式的弊病,也具有充分的理论依据与可行性方案。


其一,从理论层面来看,建立平台算法问责机制符合主客观相一致的归责原则。在主观责任方面,算法看似是一种中立的计算机软件技术,实则带有研发方的主观意图,具有很强的价值倾向性。事实上,几乎每一个机器学习算法都是含有偏见的。平台出于商业目的与竞争需求,在算法设计、布局时就将主观意图植入其中:算法过滤、分层、排序等各个环节都隐藏着平台的价值理念。因此,平台对于算法运行的结果应当是有基本预见的,这是平台承担法律责任的根本性依据。在客观责任层面,平台作为经营者与算法的实际使用者,管理和操纵着算法的运行。实践中,在与用户相关度较高的搜索算法、用户画像算法和个性化推荐算法中,平台干预控制效果十分明显,故其理应对此承担算法问责后果。


其二,从实操层面来看,现实中存在与主客观相一致责任原则相适应的算法问责实施方案。首先,政府监管部门可以事前建立算法评估、审计相关备案制度,获取平台算法设计的相关信息,为问责提供基本事实依据;其次,可以视情况要求平台对其所运行的算法进行合理解释,这一环节既保障了平台进行自我救济的合法权利,也维护了算法问责的程序正义;最后,政府监管部门可以就前两个环节进行对比考察,重点分析可回溯的信息能否与平台解释形成对应关系,进而追究平台虚假备案或虚假解释的违法责任。


(二)鼓励个人参与治理:赋予用户算法解释请求权


在传播领域中,算法将输入数据与输出数据两端进行勾连,通过把关、映射、修辞、决策等功能应用于新闻创作与传播,但对于外界而言最终看到的却只是算法决策的结果,中间过程即使是专业新闻记者和编辑也难以理解其中的原理,这就会形成算法权力的黑箱。由于黑箱的不透明和信息掌握的不对称,用户不知晓算法决策的权重因素,只能看到平台操纵算法运行的结果,这既是滋生平台私权力滥用的土壤,也是造成用户权利保障困难的重要原因。因此,用精确的说明与用户可理解的方式,向用户解释算法实际运行状况以期获得理解和信任成为合乎逻辑的治理方式选择。有学者指出,应当赋予用户算法解释请求权以对抗不公,即通过赋予个人对算法决策的解释权利进而实现对算法权力滥用的适度制约。在具体实施层面,欧盟《通用数据保护条例》(GDPR)及其实施细则对于建立用户算法解释请求权具有很高的借鉴价值。


首先,GDPR确立了用户算法解释请求权的权利内涵,该法第13条、14条、22条搭建起了用户对于算法行使知情权、异议权、表达权等基本权利框架体系;其次,平台算法具有专业性与复杂性的特征,所以很可能导致用户维权成本高、外部监督困难,故GDPR特别赋予了用户对于算法提出异议并获得实质性人工干预的权利;最后,为避免平台遭受到大规模的算法诉讼纠纷,阻碍平台创新和技术发展,欧盟立法者也做出了一定的妥协,GDPR将用户算法解释请求权适用范围限定在“仅基于自动化的数据处理”,在相当程度上弱化和限制了该项权利。


(三)引入社会力量共同治理:由第三方设立社交平台监督委员会


面对平台强大的算法权力与商业资本实力,人们意识到仅仅依靠用户个人的力量还无法对前者行为进行有效纠偏,有必要拓展用户的维权途径,为用户与平台抗衡增添筹码。有研究人员提出,应当引入第三方力量来监督和审查科技公司的算法工作机制,以此确保人工智能使用的透明度和公平性。2017年,伦敦阿兰·图灵研究中心和牛津大学共同组建的研究小组呼吁创建一个值得信赖的第三方机构,该机构有权对争议性的算法结果进行独立调查。该机构专家沃奇特说:“我们希望看到的结果是,一个值得信赖的第三方机构或监管部门,有权对算法进行调查和审计,以确定算法是否真的透明和公正。”


在社交媒体领域,脸书在涉嫌私权力滥用的巨大争议下,于2019年宣布成立独立内容监督委员会,旨在化解人们对平台上虚假新闻和平台自身不当行为的担忧。设立监督委员会规制社交平台私权力有以下几点优势:第一,从机构性质上看,该机构定位为独立于平台的监督机构与用户权利救济机构,运行资金来源于专设信托基金,保证其审查决定不受平台的干扰。第二,从机构人员组成上看,监督委员会由人工智能技术专家、法律专家、政府前总理、诺贝尔奖获得者等具有较高社会公信力的代表组成。这样的人员组成不仅可以很好地处理算法等技术类问题,裁决结果也更容易获得公众的理解和信任。第三,从机构权力上看,监督委员会接收用户上诉后所做出的结论,可以否决平台意见并提出修改建议,脸书CEO扎克伯格说:“如果有人不同意我们的某项决定,他们可以先向我们上诉,而且很快就能进一步上诉到这个独立委员会。这个委员会的决定将具有约束力,即便我或‘脸书’的其他人不同意也不行。”


六、结论


在算法社会中掌控算法权力的平台,随着能力和地位的不断提升,私权力滥用的风险也在显著加剧。在互联网传播领域,以230条款为代表的传统媒体监管责任难以起到权力规制作用,社交平台私权力滥用的现象逐渐浮出水面。“权力要想不被滥用,就必须接受监督”,寻求人工智能时代背景下平台私权力滥用的治理路径,对于促进媒体行业发展、维护政府监管主体地位、保障用户个人权利,以及推进治理体系和治理能力现代化都尤为重要。本文建议采取“政府-个人-社会力量”三位一体的治理路径:第一,建立平台的算法问责制度应当是优化政府对于平台私权力治理的关键一环。算法问责直击私权力运行的底层技术逻辑,可以推动政府从粗犷式的平台监管走向精准监管,通过政府积极备案与平台解释说明相结合的监督机制,也使平台在一定程度上主动避免私权力滥用的发生。第二,人工智能时代,用户依靠传统法律制度导致权利保障不足的现象十分突出。立法赋予用户算法解释请求权,可以为处在弱势地位的用户增添一道权利保护的屏障,也可有效缓解处于扩张中的平台私权力对用户权利的侵蚀。第三,引入社会力量监督平台私权力运行,一方面可以消弭“技术鸿沟”带来的政府监管困难,另一方面也有利于平台监管获得良好的社会效果。然而,实现对平台私权力的综合治理,须多个维度的观察与学科知识整合,笔者冀望抛砖引玉,以求教于方家。


扫描二维码免费下载全文


本期目录

更多精彩 敬请关注

专题研讨:中国传统治道


徐国冲、潘玲珑丨改革是怎样练成的?——基于中国历史上重大改革的定性比较分析

刘开君丨从士绅到新乡贤:乡村精英治理的传承与流变——基于晚清以来浙江上虞乡村治理的案例分析

罗雪飞丨帝制中国治道观的意涵及其现代启示——以《资治通鉴》和《续资治通鉴》为中心的考察


论文


王法硕、张嘉玲丨互联网+政务服务”政策再生产及其影响因素——基于机器学习与定性比较分析的实证研究

郭晟豪、郭峻豪丨公共部门中的领导风格对公共服务动机的影响与差异——一项基于元分析的检验

林亚清、蓝浦城丨公务员公共服务动机何以影响其变革行为?——工作重塑的中介作用和变革型领导的调节作用

张理政、王洁晶丨教育程度使流动人口社会融入路径呈现差异?——基于多群组结构方程模型的实证分析

何彬丨俘获如何影响环境监管效果?——一个混合研究

樊凡、陈毅丨村治研究中的本土化概念生产:问题与反思

闫宇晨丨社交平台私权力的滥用及其治理


方法


臧雷振、陈腾霄丨Q方法:方法论视域下的内在张力与发展限度

微信推送·2023年第61期
编辑:张精富

继续滑动看下一个
公共管理与政策评论
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存