新浪科技 互联网

ProPublica为什么是Facebook等科技巨头最怕的媒体?

新浪综合

关注

来源:36kr

原标题:ProPublica 为什么是 Facebook、Amazon等科技巨头最怕的新闻媒体?

ProPublica被Fast Company形容为科技巨头最怕的“看门狗”(新闻术语,指新闻媒体替公众监督政府、企业,调查社会问题)。

ProPublica是我非常喜欢的一个媒体。简单形容其模式,有两个关键词,一是“数据新闻”,二是“公共媒体”。数据新闻指的是生产方式,ProPublica一直是数据新闻界的典范,除了讲好故事,还以数据、图表、街景图等多元化的方式生产和呈现新闻。公共媒体则指盈利模式,ProPublica基本不靠广告盈利,收入来自基金和众筹,并且在逐渐减少单个基金的占比。

接下来我们要看到的这篇报道,编译自Fast Company,介绍了在科技时代,当真相掩藏在 Facebook、Amazon 等科技巨头的“黑箱”中,ProPublica 如何用数据和算法行使监管职责。如何告诉大众,你的生活究竟如何被科技巨头影响。

作者 | KATHARINE SCHWAB

编译 | 痕痕

Facebook像个政治战场,俄罗斯的特工试图影响选举,假新闻泛滥,政治候选人利用广告来触达不确定的选民。我们不知道Facebook隐藏的黑箱算法中发生了什么,它控制着整个News Feed。政客们遵守规则吗?我们能信任 Facebook 去监管他们吗?我们真的有什么选择吗?

要想“对付” Facebook 的科技巨头,也许只能以其人之道还其人之身——用类似的技术去刺探黑匣子里在发生什么,收集数据,不断验证假设,就像早期天文学家探测太阳系一样。

这就是 ProPublica 的记者 Julia Angwin 团队采用的策略。Julia Angwin 是普利策获奖者,她的团队里包括程序员、记者、研究员。他们专门调查影响人们生活的算法,包括 Facebook 的新闻源,Amazon 的定价模型,软件如何确定汽车保险费,甚至软件如何决定犯人被关押的时间。为了研究这些算法,他们使用机器学习和聊天机器人等新技术。

Angwin 表示,他们得不断地建立新算法,这是个资源密集型、非常具有挑战性的任务,很少有普通媒体愿意投入金钱和人力去做。但这个任务显然很重要,Angwin 认为他们需要为立法者提供科技巨头在进行不法行为的具体证据。

ProPublica 在最初没有使用技术作为调查工具。团队在 2016 发出了一篇关于犯罪风险评分的轰动性报道。报道显示这些评分由一种算法产生,用来给法官决定保释和入狱判决,而评分充斥着系统性的种族主义:黑人男子通常被认为比具有类似犯罪历史的白人更高的风险。不过根据信息自由法的要求,这篇报道是以传统调查报道的方式呈现的。

Angwin 团队第一次在调查中搭建算法,是针对 Amazon 的定价体系。ProPublica 的程序员测试了很多假设—— Amazon 的东西在移动端比 PC 端更贵,Prime 会员比非会员看到的价格更高等等。最终他们发现 Amazon 给用户优先推荐的是自有品牌产品,而不是性价比最高的产品。

不可避免的,记者们把目光投向了 Facebook,更确切的说,是用户们最常接触的 News Feed。

但破解 News Feed 并非易事,因为 News Feed 是 Facebook 的独创 ,和任何普通人一样,Angwin 团队对 Facebook 如何掌握用户数据,以什么算法决定 News Feed 给用户看什么一无所知,只能另寻办法。

他们的重大突破源于得到了一份泄密文件,讲述 Facebook 的秘密审查制度。相关报道发出后,读者告诉 Angwin 他们有过 Facebook 不遵守(自己设立的)规则的经历。读者提供的素材让 ProPublica 能进一步调查,而且为了获取更多证据,他们建了自己的 Facebook Messenger 聊天机器人,号召更多读者来提供证据。

使用聊天机器人,显然是为了更广泛地收集证据。团队需要获取、评估读者提供的例子,是否能证明 Facebook 违反了自己设立的审查制度。

团队里的程序员 Varner 精心设计了机器人的问题,他认为在 Facebook 这个大家讨论的平台上接收这些信息具有重要的意义。而对于已经不使用 Facebook 的人群,他们也提供了独立调查表格。

在收集到的几千份回复中,可用的约有 900 个,团队最终选出了 49 个典型案例,来证明 Facebook 不遵循自己的规则。作为此报道的回应,Facebook 把“年龄”作为受保护群体的条件,加入了审查制度,这意味着“黑人小孩”将成为保护群体,不会再看到仇恨言论(Hate Speech)。然而,由于这个制度只针对群体,而不针对个人,因此仍有许多人会看到仇恨言论

Angwin 认为,虽然 Facebook 声称他们通过抽样调查来检查 News Feed 里的新闻是否符合审查制度,但他们的数据设置方式都是秘密的,凌驾于司法之外。“他们可以随便怎么说,说他们在执行审查制度,但我们需要有能力搞清楚他们究竟怎么做。”

接着,ProPublica 开始调查 Facebook 上的广告,这次他们采用的办法是自己购买广告。他们发现在 2016 年,Facebook 允许广告商排除特定种族、年龄的受众,比如允许房地产广告商专门投放给“犹太人仇恨者”,或者防止老年人看到招聘广告。

在 ProPublica 爆炸性的报道后,Facebook 称他们建立了一个系统拒绝歧视性广告(虽然 Angwin 测试了一遍,发现平台仍允许房产广告向特定种族投放)。Facebook 取消了像“Jew Haters”这样的标签,并承诺将更好地监控广告目标类别。但 Facebook 否认只向某一年龄段的人发招聘广告是违法的,诉讼已经开始。

“这么多的个人数据被用来决定看什么广告,听起来非常无所谓,直到你意识到你看不到招聘广告是因为你太老了。” Angwin 说。

该团队目前在操作的项目是,调查政治广告在 Facebook 上是如何运作的。和上次主动买广告不同,这次他们建了个浏览器插件,挑选你看到的 News Feed 广告,并用机器算法识别这个是否为政治广告。

本周他们发表了一些关于政治广告的报道,称不少美国政治广告没有包含强制性的“我赞同这个信息”的免责声明,而这个声明通常在电视、印刷广告中都有。

这个政治广告收集插件符合最严格的隐私标准,也在德国、瑞士、意大利、丹麦等 8 个国家亮相。ProPublica 为每个国家建立了自定义算法,可以识别这些国家政治广告的独特风格。

Angwin 认为,把假设变成故事不是最重要的,更重要的是要有具体的证据,要让立法者能采取行动。“有很多人在写:技术平台,他们的权力太大了!但这还不够具体,决策者也不能对此采取任何行动。所以我们要把更多数据放到桌子上来。”

她称这些数据为“小数据”,和 Facebook、Google、Amazon 等公司的数据比起来,这些数据的确不值一提。但这已经比一般记者所能获得的数据更多了。“每一家科技公司都应该得到同等力度的审查,非科技公司也一样,因为技术在入侵一切。”

抗争的一部分还包括教育人们算法会给他们带来多大的影响,团队的一位记者 Tobin 认为,让更多人意识到这一点,也能给他们带来更多新闻源。“我们希望人们多说。”

“同时也希望人们愤怒。”Angwin 补充道,“Outrage is the new porn,这是我在 2017 年的箴言。不少政治广告就是虚假广告、垃圾软件、垃圾邮件,因为这些能诱导用户去点击。”

Angwin 的小团队、以及越来越多的记者和巨头抗争的画面看起来有些悲凉,他们的报道让一些人认识到了算法的“两面三刀”,但我们也不禁要问,我们能做什么?我们真的能做出真的改变吗?

“我总是用环境的比喻来安慰自己,我们的河流一直在着火,然后人们过了 50 年才意识到,我们不应该让河流被污染。” Angwin 说,“我想人们只是需要一段时间才能清醒。”

本文翻译自 www.fastcodesign.com,原文链接。如若转载请注明出处。

加载中...