数字化时代,算法如何干扰你的决策?

文|王俊景 倪可馨(实习)

脸书(Facebook)五千万用户数据泄露事件“激起千层浪”。脸书用户发起了“删除脸书”(#deletefacebook)活动,特斯拉创始人埃隆·马斯克也为此在脸书上关闭了特斯拉和SpaceX两家公司的主页。

可能你没有脸书账号,但下面这些情况你是否次曾相识?

搜索过的商品出现在淘宝首页的“猜你喜欢”,点赞过一次萌宠视频就会收到来自抖音的更多推送,点击头条明星八卦会刷到更多娱乐新闻。

你喜欢什么,首页就拼命给你推送什么,似乎通过一块屏幕就能传达出你想要的世界的模样。而带给你这样“美妙”感觉的,正是更懂你的算法。

算法如何了解你的全部?

算法比你自己更了解你自己。

今天的网络世界里,构成一个网民个体的,不是身体发肤,而是数据。

虽然数字化的个体只是一串串0和1的存储字符,但用户信息在大数据算法的支持下显露无遗。仅是购物数据一项,就能提供足够丰富的个人信息,比如真实姓名、联系方式和购物偏好等。在你的聊天记录、通话时长、地理位置和社交行为等信息提供的支持下,数据拥有者足以推断出你的生活习惯,甚至价值观。

在大数据的逻辑里,一切都靠数据说话。通过浏览网页、使用App,你“主动献上”自己的数据,你提供的数据越多,平台对你的了解就越完整。整合后的数据较为精准、详细,之后通过各种建模分析,足够刻画一个“数字化的你”,甚至比你自己更了解你自己。

而驱动数据并支撑这类精准“用户画像”的核心是算法。

算法是系统计算的具体步骤,常用于计算、数据处理和自动推理。算法不需要后台人工控制就可以根据获取的一个或多个预设变量值,自动推算出可能的结果并推送给用户。

然而对于用户来说,目前大部分算法只能看到数据输入过程和输出结果,中间不透明的过程只有少数“局内人”掌握。这个中间过程就是马里兰大学教授弗兰克·帕斯奎尔(Frank Pasquale)提出的“算法黑箱(Black Box)”。“黑箱”不仅意味着算法有我们不能观察的“隐层”,还意味着我们也无法理解机器和人工智能提供算法的逻辑。

脸书用户数据泄漏事件恰好反映出了一个痛点:普通人对于数据隐私的不安全感大部分来自对“算法黑箱”的各种“无从得知”。用户们不知道自己的哪些数据被记录,在何时被调用,不知道算法如何设计和整合数据,不知道数据被谁读取和使用,又被传输给了谁,用作什么目的。

正如帕斯奎尔教授在《黑箱社会》一书中说,“在大数据时代,我们只是信息的产生者,却不知道我们的信息将被用于何处,又会产生什么样的后果。”

算法怎样干扰你的决策?

似乎控制了数据和算法,就控制了人的思想。

算法专家凯文·斯拉文在TED演讲中说,“算法提炼自这个世界,来源于这个世界,而现在则开始塑造这个世界。”

此次脸书数据泄露事件的爆料者怀利(Christopher Wylie)透露,非法获取这5000万份数据的政治咨询公司剑桥分析(Cambridge Analytica),通过对脸书用户数据建立模型,分析政治偏好和预测投票选择。借助Facebook的广告投放系统,这家公司可以对每个用户定制有高度针对性的新闻推送和广告,潜移默化地干扰人们对英国“脱欧”公投和美国2016年总统大选等事件的看法。

那么他们具体怎样“操盘”选票?剑桥分析有三大宝:心理学模型、大数据分析和定向广告。

在英国电视四台(News 4)的一段暗访视频中,“剑桥分析”市场总监特恩布尔坦言,剑桥分析会根据用户在社交网络上的数据,定向传达信息。比如,通过心理学模型算法筛选出的严谨型的人,会在推荐内容中增加展示恶性抢劫案的画面。针对摇摆州犹豫不决的中间选民,则推送有针对性的新闻乃至假新闻。强调形势的严峻性,从而潜移默化地影响和操控他们的心理。而针对容易被煽动起来的“少数裔”,就推送种族歧视言论。

“总之就是投其所好,实施高度精准的个性定制”,特恩布尔说。然而用户却对互联网公司的“润物细无声”毫不知情,人们的行为方式、看法甚至思想观念,都可以通过数据的过滤及呈现,潜移默化地被控制和影响。隐性洗脑在大数据时代已经成为现实,似乎控制了数据和算法,就控制了人的思想。

因此,我们不难发现,脸书泄露事件反映出一个基本事实:算法本身并不中立,算法由人构想、设计、使用,在文化、政治、价值认同等方面很可能出现偏差。因此算法是可操控的,完全有可能被用作“隐形”的恶意武器,成为操控决策的工具。

如何不被算法“绑架”?

今天的网络世界里,构成一个网民个体的,不是身体发肤,而是数据。

虽然扎克伯格在国会“过堂”时向用户诚恳道歉,表示脸书未来会加强对用户数据隐私的保护,但不可否认的是,包括脸书、谷歌在内的大多数互联网企业越来越依赖这种“黑箱”策略,并将“黑箱算法”看作是让其处于行业竞争优势的秘密武器,没有哪个企业愿意主动公开解释自己的算法过程。正如《经济学人》所说:“数据是新时代的石油”,掌握着油田的开采技术的“大佬”们自然不会将自己的秘密公开。

针对“算法黑箱”带来的风险,欧盟将于今年5月25日生效《统一数据保护条例》(GDRR),这一法案中要求科技公司解释其所有算法的输出原理,并且用户有权在对算法决策不满意时选择退出。比如公众有权利要求各种系统、应用程序停止记录和使用自己的行为数据。

同时,这项法案要求用户行为数据被采集之后,也不能永久保留,其时限最多为一年半。同时,用户可以要求相关企业将其数据彻底删除。这意味着数字化时代下,我们拥有了“被遗忘权”,可以自行选择让自己从互联网上“消失”,不再被算法绑架。

《未来简史》曾预言,未来的时代将会进入算法社会。在算法驱动下,各类App和网站让我们的生活更加便利,但同时算法“黑箱”也让用户和科技公司之间的不对称性更加隐蔽。

而解决算法黑箱带来的风险,更需要各国政府从法律层面加强监管,避免相关算法被恶意设计或使用。在这一点上,欧盟出台的《统一数据保护条例》率先迈出一步,在算法方面要求企业把选择权还给用户,这给了自然人数据主权更多的尊重和保护。只有把算法关进笼子,才能保证用户做出忠于自己的判断,减少对未来科技的焦虑。

而拥有算法技术的科技企业,也要给算法赋予正向价值观,用企业责任弥补信息不对称,增加用户对未来科技的信心。


评论一下
评论 0人参与,0条评论
还没有评论,快来抢沙发吧!
最热评论
最新评论
已有0人参与,点击查看更多精彩评论