1. 引言
《连线》杂志的网络总监杰森·坦兹写到:“从旧的角度看,程序员就像上帝,制定者控制计算机的法律。而现在他们就像父母或训狗师。正如任何父母或者狗主人可以告诉你的那样,他们由此陷入了一种神秘得多的关系。”不仅训练的性质是神秘的,连结果都是神秘的。[1]尽管坦兹的观点有些过于夸张,但是在当下算法社会环境之下用户的权利正在以一种非常隐秘的方式被让渡。算法的规则制定者是资本方,而并非掌握在用户的手中。于是在我们毫不知情的状况之下,我们的知情权已经被让渡了出去
2. 房间里的大象:算法背景下知情权的让渡
(一)算法运行机制:伪中立的算法
麦克卢汉曾经说:“媒介是人的延伸”,而算法以其“技术中立性”为新闻的想象力与“在场”提供了空间 ,同时也在一定程度上促进了新闻客观性的“回归”。[2]算法的出现确实补足了新闻与信息中信息生产与分发偏见,对于信息生产来说,算法的出现的确替代了人脑的功能,即信息的筛选与发布。但是算法的出现并非中立的或者是一种伪中立的存在,算法被创造之初就带有着偏见,它的行为规则是掌握在少数人手中的。
有国外研究团队通过选取并考察了微软和Facebook等大公司支持的图像训练数据集MSCOCO发现,一些标签和性别绑定的程度十分突出,比如站在厨房里、做家务、照看小孩子的就被认为是女性,开会、办公、从事体育运动的则是男性。有超过45%的动词和37%的名词,会展现2:1的性别比例差(Zhao, Wang, Yatskar, Ordonez & Chang, 2017)。
无独有偶,国内热议的“哈尔滨太会整活了”的二创作品中,常会出现将哈尔滨与南方有课进行拟人化的表现形式,其中最为出名的就是“尔滨少爷与南方小土豆”。而这种以娇妻文学为营销核心的结果实际上是算法与用户共同造成的。因为算法认为多数人喜欢的内容就是用户喜欢的,反而忽视了少数人的意见。于是这类视频就开始在抖音上不断重复。但是事件发展到现在,才有人开始对于关于“尔滨少爷”的男性角色产生质疑,认为这种将城市形象拟人化是“娇妻文学”的典型代表,忽视与弱化哈尔滨女性角色的同时忽视了南方旅游者中的男性角色。在关于“尔滨少爷与南方小土豆”狂欢之后才能看到被众多“娇妻文学”帖子中淹没的关于女性角色推广的旧帖子,而这些帖子就是被算法忽视的。在所有的用户中,并非所有的女性都喜欢这种男性角色的拟人化表达,而算法根据数据与推算认为这些包含着“娇妻文学”与“言情小说”的符号与标签将会带来互联网的狂欢,因此对相关信息进行大批量的推送,而这就是算法带有的偏见。因此以“标签化”以及“精准推送”为优势的算法实际上也正因“标签化”与“精准推送”而被诟病。
这件事看似是符合大众审美迎合主流价值观,实际只是算法计算出这些内容最易换取流量而进行推送。所以,算法并非中立的。尽管今日头条在创立之初就秉持着“算法中立”的原则,但是算法的偏好往往掌握在资本家以及算法工程师的手中或者掌握在大多数人手中,但是大多数人的观点真的是正确的吗?
(二)被蒙蔽的用户:算法社会中的囚徒困境
用户在信息流中可以看到哪些信息很大程度上取决于算法的“幕后决策”,而算法恰恰是隐藏其内部工作原理的“黑箱”[3]。这种黑箱影响着用户对平台两方面的知情权:首先,关于被平台摄取的用户隐私究竟被平台拥在了哪里;其次,关于所谓按照用户画像精准推送的,实际上是用户不需要的信息,被包裹在“信息茧房”的用户有权利知道茧房外面的信息。
1、用户隐私去向问题
用户隐私去向问题始终是在算法社会中无法规避的问题。所有主流平台正在以了解、为用户画像为由获取用户信息,但是关于这些用户信息的取向用户是不知情的。滴滴就在用户信息去向问题上出了很大的纰漏。在滴滴存在的8条违法事实中,其中就包含:过度收集用户剪切板信息,应用列表信息83.23亿;过度收集乘客人脸识别信息1.07亿条,年龄段信息5350.92万条,收集司机学历信息14.29万条。[4]这已经是滴滴对用户隐私的过度采集,并且关于这些隐私信息夫人过度采集,都是隐性的,并且用户对于这些信息的使用毫不知情。因此滴滴在该事件中不仅侵犯了用户的隐私权,同时用户知情权也是未能得到保证的。
2、用户信息获取问题
在美国记者库柏首次提出“知情权”的概念中提到:“公民有权知道其应该知道的信息”而关于什么是“应该知道的信息”实际上应该是由用户和平台双向选择的,但是针对这一问题,平台往往是缺位的。
平台算法往往打着用户画像与标签化的旗号,却在实际运行的过程中“夹带私货”。最为常见的方式就是对平台内容做竞价排名。关于这一点在微博上尤为突出,广告主向微博购买广告位,按照价格排名,除了某些偶发新闻事件,微博排名几乎象征着背后资本的购买价格,价格越高自然排名越高。奔驰近期的热搜词条#全新长轴距E级车#就因为竞价排名出现在热搜词条中。然而对于不购买奔驰的用户来说,这个词条就是没意义的。同理,那些通过购买“帮上头条”等以资本介入的形式出现在热搜词条中的信息,对于部分用户来说也是无意义的。
总而言之,我们看到什么样的内容完全取决于算法为我们推荐什么样的内容,而这些内容只是我们“喜欢看到的”而不是我们“需要看到的”。通过人类学以及标签对用户进行划分是不合理的,同时资本家利用算法总会给更具有流量价值以及资金的博主给与流量,希望通过“大众”一词来规避风险,但是忽视个用户作为个体喜好,进而让用户的思维变得单一。当然,平台给与用户搜索与选择的权利。历史的每一次变革实际上都会为人类带来选择,但遗憾的是,人类每次都会做出错误的选择。
3. 算法透明的实施困境:用户与平台的双向阻碍
早在算法技术没能发展的17、18世纪,知情权就已经提上了公民权利保障的日程。1766年瑞典颁布的《信息自由法》最早给予了出版商“向政府索要信息的权利”,而被视为“透明性”观念在法律条款上的最早体现。在早些时候信息自由比知情权更受学界认可。透明性的核心概念就是“开放”与“问责”与“知情权”有着异曲同工之妙,但是“透明性”的优势在于,它包含着公众对于信息的问责,也就是说,公民本应该有着向政府以及公共问询的权利。
2022年丰县八孩时间被自媒体曝光之初,徐州丰县通报“生育八孩女子”情况为:患有精神疾病,已对其进行医治。视频在网络流传发酵之后,网友对事件细节产生质疑借此多方面对徐州丰县的通报产生质疑。随后,该事件在徐州市中级人民法院一审宣判,新华社发表《“丰县生育八孩女子”事件相关案件一审及后续情况六问》,从而使主流媒体重新建立了公信力。而算法作为平台运行的基本准则,对于平台来说仍然需要公信力,在与用户建立信任的过程中,算法的公开透明,让公众获悉算法的运行逻辑本应该是建立公信力中作为重要的一步。但是在媒介发展让不成熟的当下,关于算法透明这一说法是否合理让然存在着争议。
(一)用户监督的主动性缺席
8月28日,中国互联网信息中心发布第52次《中国互联网络发展状况统计报告》。《报告》显示,截止2023年6月,我们网民规模达到10.79亿,其中50岁以上老年人占比29.9%。[5]从媒介素养层面来看,老年人对信息接收能力较差,并不具备主动监督媒介的能力。同时,在使用媒介的过程中,很多人也会忽视媒介对自身权利的侵犯。
17、18世纪的美国关于信息自由的提议中就存在关于公众因政治素养不足而无法进行权利表达的情况。对于技术水平要求高的算法技术来说,想要获悉算法的基本运营逻辑仍然是具有门槛的。
《人物》发表了文章《外卖骑手,困在系统里》,美团已经向用户公开了自己的算法逻辑。“如果公众对算法透明的兴趣和要求不够强烈,或者顶层设计者(运营部门)看不到‘新闻透明性’原则可能会给平台流量带来显著提升,算法公司都不会在新闻生产或分发层面采用‘新闻透明性’原则。”[6]也就是说,对于算法背后的逻辑,如果平台不主动提起,那么那些对于技术兴致缺缺的人就会忽视算法对自身权利的侵害转而享受算法带来的优势。
(二)仅依靠透明算法是无效的
仅仅依靠透明算法是无效的。在带着偏见的算法逻辑之中,算法本身可能并没有什么问题,在美团向用户公开的外卖配送中“预估到达时间”的算法规则中可以看出来,算法在计算“预估到达”时间时有考虑到“城市特性保护”、“分级保护”以及‘分距离保护’如此看来这套模式是考虑到骑手送达时间的影响因素,如此观之,算法也不是全然冰冷的。但是尽管21年美团以及其他平台公开了算法,也未能让算法黑箱真正的公开给公众,公众对于算法的认知程度仍然存在问题。算法的公开只是公众打开黑箱的第一步,但是黑箱背后究竟是什么?从美团公开算法以来,仍有外卖骑手被困在算法之中,这其中的原因是什么?依然无从知晓。但是这看似公平的算法在运行过程中仍然包含着人的因素,而算法规则的使用权仍然把握在资本的受众。算法忠于目标,而目标却是人设定的。
(三)公司商业机密的保障
当然,这种算法透明性问题涉及到公司的隐私,因此网友所说的对于算法的“开源”是有失偏颇的。归根结底,这件事情的本质就是要解决算法对于用户知情权的保障。从公司掌握的技术层面来讲,公开算法并没有实际意义,只不过让用户清楚算法是如何运行的。但是这种伦理问题的本质在于,技术手段是否对用户的各项权利形成危害。与其向公众公开算法,不如调整算法的运行逻辑,让算法更加贴近用户的喜好达到双赢的效果。
4. 铁笼还是乌托邦:关于算法与公众知情权保障的未来畅想
算法黑箱的问题并不是不能解决的。2018年实施的《欧洲通用数据保护条例》(GDPR)第22条规定:“应该采用适当的保障措施……保证数据主体获得对此类评估之后达成的决定的解释,并对决定做出质疑”这是欧洲在保障公民算法解释权上的一种有益的探索。技术本身就是中性的,而它的好坏取决于人对它的使用。算法技术或者说技术在创立之初就是为了能够保障用户获取信息的权利,吊轨的是,最终影响着公众知情权保障的仍然是算法本身。所以算法的出现究竟是铁笼还是乌托邦,仍然需要平台与用户之间互相平衡与妥协。
(一)细化用户协议,告知用户去向
关于用户隐私的录用与摄取,不止关乎用户的知情权,同样关乎用户的隐私。面对大量文字包含在内的用户协议,以及官方话术,用户是难以了解自身信息去向的。因此,平台不仅需要通过文字形式完善用户协议的内容以对用户进行保障,还需要再用户使用平台的过程中提示用户信息的取向并且以通俗易懂的形式告知用户。同样以抖音为例,可以开通属于抖音的健康保障账号,作为公益广告的形式植入用户的算视频中,或者可以联系大V与KOL帮助平台做信息取向的科普并广而告之。
同时,应该给予用户不提供隐私的权利。早期的天涯论坛与知乎是允许匿名信息的存在的,但是当下用户在使用平台时不仅需要向用户提供互联网IP还要提供后台数据与手机号码,被用于发展熟人关系。比如,用户手机里面的联系人很可能成为抖音的联系人,而部分用户实际上是排斥这种熟人关系的。所以打着“标签化”的旗号并不一定对所有用户都适用。
(二)挖掘算法透明与流量之间的关系,达到与用户知情的平衡
目前关于流量与算法公开之间的关系是无从考证的,因此平台可以借此机会发现新的契机。尽管孙曌闻在田野调查研究中认为:效率至上的商业话语对“算法透明性”的推行造成了多重阻碍。[6]但是关于平台以“透明化”为主要方向未尝不是一种新的尝试,也可以作为吸引的用户的手段。在这个层面上仅仅吸引用户作为“受众”已经没有意义了更多的是吸引更多的创作者进行内容的创新。以抖音为例,可以帮助用户了解抖音的媒介推荐规则,给与用户更多的选择权。在这一点上,小世界APP就达到了这样的效果,小世界作为播客APP的自我定位是:“想做你手机里最好用的APP”然而事实是他们也做到了这一点。除了用户收藏夹中关注的播客内容,小世界首页的推荐几乎是没有标签化的。因为平台本身就是做深度播客的内容所以能帮助用户更好的获知自己需要的内容,这就是商业平台对于用户知情的尊重。
但是面对这种透明我们仍然要谨防的一点是,商业平台巧妙运用规则的“议程设置”下的“透明”。也就是打着“透明化”的幌子来对公开的算法进行设置。“当商业因素而非行业规则或道德规范成为推动‘算法透明性’的主要动机时,媒体或平台的‘算法透明性’本质上则成为了公司的一种经营策略,即一种策略性的‘算法透明’——只展示可能对公司形象以及用户信任产生积极效果的信息,而遮盖一些可能造成负面影响的信息”。[6]
美团公开自身算法之后,不少平台紧随其后公开自身的算法规则。但事实是,用户并没有成为这次事件的既得利益者。滴滴在被罚之后仍然存在极大的问题,现在面临着用户打车越来越贵而司机挣得越来越少,而关于平台的算法以及平台的定价机制对于用户和司机来说仍然是不透明的。
而关于算法社会对于用户来说究竟是牢笼还是乌托邦可见一斑,牢笼是真的,而乌托邦只不过是资本打造的“楚门的世界”我们就是被困在虚拟环境中的算法囚徒。
5. 小结
公众知情已经是信息社会最为基本的权利之一,当知情权都难以保障之时其他的权利或多或少都受到威胁。尽管算法存在自身的逻辑,实际上仍是由人来操控的,更新算法的运行逻辑,保障用户需求仍然是平台需要重点关注的问题。而用户应该学会利用算法,规避算法之中出现的漏洞,这样才能实现与平台间更好的合作。想让算法得到更加有效的利用,发展人–机一体化,平台与用户仍然有很长的路要走。