ProPublica为什么是Facebook等科技巨头最怕的媒体?

发布时间:2018-03-01 15:38

  ProPublica被Fast Company描述为科技巨头最怕的“看门狗”(旧事术语,指旧事媒体替公家监视当局、企业,查询拜访社会问题)。

  ProPublica是我很是喜好的一个媒体。简单描述其模式,有两个环节词,一是“数据旧事”,二是“公共媒体”。数据旧事指的是出产体例,ProPublica不断是数据旧事界的典型,除了讲好故事,还以数据、图表、街景图等多元化的体例出产和呈现旧事。公共媒体则指盈利模式,ProPublica根基不靠告白盈利,收入来自基金和众筹,而且在逐步削减单个基金的占比。

  接下来我们要看到的这篇报道,编译自Fast Company,引见了在科技时代,当本相掩藏在 Facebook、Amazon 等科技巨头的“黑箱”中,ProPublica 若何用数据和算法行使监管职责。若何告诉公共,你的糊口事实若何被科技巨头影响。

  Facebook像个政治疆场,俄罗斯的奸细试图影响选举,假旧事众多,政治候选人操纵告白来触达不确定的选民。我们不晓得Facebook躲藏的黑箱算法中发生了什么,它节制着整个News Feed。政客们恪守法则吗?我们能信赖 Facebook 去监管他们吗?我们真的有什么选择吗?

  要想“对于” Facebook 的科技巨头,也许只能以其人之道还其人之身——用雷同的手艺去刺探黑匣子里在发生什么,收集数据,不竭验证假设,就像晚期天文学家探测太阳系一样。

  这就是 ProPublica 的记者 Julia Angwin 团队采用的策略。Julia Angwin 是普利策获奖者,她的团队里包罗法式员、记者、研究员。他们特地查询拜访影响人们糊口的算法,包罗 Facebook 的旧事源,Amazon 的订价模子,软件若何确定汽车安全费,以至软件若何决定监犯被关押的时间。为了研究这些算法,他们利用机械进修和聊天机械人等新手艺。

  Angwin 暗示,他们得不竭地成立新算法,这是个资本稠密型、很是具有挑战性的使命,很少有通俗媒体情愿投入金钱和人力去做。但这个使命明显很主要,Angwin 认为他们需要为立法者供给科技巨头在进行犯警行为的具体证据。

  ProPublica 在最后没有利用手艺作为查询拜访东西。团队在 2016 发出了一篇关于犯罪风险评分的惊动性报道。报道显示这些评分由一种算法发生,用来给法官决定保释和入狱判决,而评分充溢着系统性的种族主义:黑人须眉凡是被认为比具有雷同犯罪汗青的白人更高的风险。不外按照消息自在法的要求,这篇报道是以保守查询拜访报道的体例呈现的。

  Angwin 团队第一次在查询拜访中搭建算法,是针对 Amazon 的订价系统。ProPublica 的法式员测试了良多假设—— Amazon 的工具在挪动端比 PC 端更贵,Prime 会员比非会员看到的价钱更高档等。最终他们发觉 Amazon 给用户优先保举的是自有品牌产物,而不是性价比最高的产物。

  不成避免的,记者们把目光投向了 Facebook,更切当的说,是用户们最常接触的 News Feed。

  他们的严重冲破源于获得了一份泄密文件,讲述 Facebook 的奥秘审查轨制。相关报道发出后,读者告诉 Angwin 他们有过 Facebook 不恪守(本人设立的)法则的履历。读者供给的素材让 ProPublica 能进一步查询拜访,并且为了获取更多证据,他们建了本人的 Facebook Messenger 聊天机械人,号召更多读者来供给证据。

  利用聊天机械人,明显是为了更普遍地收集证据。团队需要获取、评估读者供给的例子,能否能证明 Facebook 违反了本人设立的审查轨制。

  团队里的法式员 Varner 细心设想了机械人的问题,他认为在 Facebook 这个大师会商的平台上领受这些消息具有主要的意义。而对于曾经晦气用 Facebook 的人群,他们也供给了独立查询拜访表格。

  在收集到的几千份答复中,可用的约有 900 个,团队最终选出了 49 个典型案例,来证明 Facebook 不遵照本人的法则。作为此报道的回应,Facebook 把“春秋”作为受庇护群体的前提,插手了审查轨制,这意味着“黑人小孩”将成为庇护群体,不会再看到仇恨言论(Hate Speech)。然而,因为这个轨制只针对群体,而不针对小我,因而仍有很多人会看到仇恨言论

  Angwin 认为,虽然 Facebook 声称他们通过抽样查询拜访来查抄 News Feed 里的旧事能否合适审查轨制,但他们的数据设置体例都是奥秘的,超出于司法之外。“他们能够随便怎样说,说他们在施行审查轨制,但我们需要有能力搞清晰他们事实怎样做。”

  接着,ProPublica 起头查询拜访 Facebook 上的告白,此次他们采用的法子是本人采办告白。他们发此刻 2016 年,Facebook 答应告白商解除特定种族、春秋的受众,好比答应房地产告白商特地投放给“犹太人仇恨者”,或者防止老年人看到聘请告白。

  在 ProPublica 爆炸性的报道后,Facebook 称他们成立了一个系统拒绝蔑视性告白(虽然 Angwin 测试了一遍,发觉平台仍答应房产告白向特定种族投放)。Facebook 打消了像“Jew Haters”如许的标签,并许诺将更好地监控告白方针类别。但 Facebook 否定只向某一春秋段的人发聘请告白是违法的,诉讼曾经起头。

  “这么多的小我数据被用来决定看什么告白,听起来很是无所谓,直到你认识到你看不到聘请告白是由于你太老了。” Angwin 说。

  该团队目前在操作的项目是,查询拜访政治告白在 Facebook 上是若何运作的。和前次自动买告白分歧,此次他们建了个浏览器插件,挑选你看到的 News Feed 告白,并用机械算法识别这个能否为政治告白。

  本周他们颁发了一些关于政治告白的报道,称不少美国政治告白没有包含强制性的“我附和这个消息”的免责声明,而这个声明凡是在电视、印刷告白中都有。

  这个政治告白收集插件合适最严酷的隐私尺度,也在德国、瑞士、意大利、丹麦等 8 个国度表态。ProPublica 为每个国度成立了自定义算法,能够识别这些国度政治告白的奇特气概。

  Angwin 认为,把假设变成故事不是最主要的,更主要的是要有具体的证据,要让立法者能采纳步履。“有良多人在写:手艺平台,他们的权力太大了!但这还不敷具体,决策者也不克不及对此采纳任何步履。所以我们要把更大都据放到桌子上来。”

  她称这些数据为“小数据”,和 Facebook、Google、Amazon 等公司的数据比起来,这些数据简直何足道哉。但这曾经比一般记者所能获得的数据更多了。“每一家科技公司都该当获得划一力度的审查,非科技公司也一样,由于手艺在入侵一切。”

  抗争的一部门还包罗教育人们算法会给他们带来多大的影响,团队的一位记者 Tobin 认为,让更多人认识到这一点,也能给他们带来更多旧事源。“我们但愿人们多说。”

  “同时也但愿人们愤慨。”Angwin 弥补道,“Outrage is the new porn,这是我在 2017 年的规语。不少政治告白就是虚假告白、垃圾软件、垃圾邮件,由于这些能诱导用户去点击。”

  Angwin 的小团队、以及越来越多的记者和巨头抗争的画面看起来有些悲惨,他们的报道让一些人认识到了算法的“阳奉阴违”,但我们也不由要问,我们能做什么?我们真的能做出真的改变吗?

  “我老是用情况的比方来抚慰本人,我们的河道不断在着火,然后人们过了 50 年才认识到,我们不应当让河道被污染。” Angwin 说,“我想人们只是需要一段时间才能清醒。”

上一篇:分众传媒:年末广告翘尾行情分众量价齐升逻辑

下一篇:非常时代(北京)影视广告传媒股份公司申请新三板