
本文转载自量子位(公众号:QbitAI),由允中编译自 wired。美国科技媒体 Wired 说:Google 的自动联想功能,至今 Bug 多多。比如当你搜索 “伊斯兰主义者” 时,Google 给出的自动联想是 “伊斯兰主义者不是我们的朋友”,或 “伊斯兰主义者是邪恶的”。对于 “黑人是”,Google 给出的自动联想是 “黑人不被压迫”。更可怕的是 “希特勒是”,其中有一条自动化联想是 “希特勒是我的英雄”。“女权主义者” 则能引出 “女权主义者是性别歧视” 的说法。这种政治不正确的例子还能举出更多。比如搜索 “白色至上”,自动联想的第一位结果是 “白色至上是好的”,而 “黑人生命” 则出现了 “‘黑人生命事件’是一个仇恨组织” 的引导,还有 “气候变化”,Google 提供的潜在导向均是否定性论调。总之,虽然 Google 的 “人品” 有口皆碑,但这样有图有真相的事实面前,还是引人思考:这到底怎么了?
这种自动化联想填充的建议,当然并非出自 Google 强制编码,这是 Google 对互联网上整个内容世界进行算法扫描的结果,也是对人们日常搜索关键词的具体评估。比如 “‘黑人生命事件’是一个仇恨组织”,搜索指向的最高结果,是一个贫困法律援助中心的联系网页,其中解释了为啥它不认为 “黑人生命” 是一个仇恨组织。但 “希特勒是好人” 却并非类似的标题党了,如果你接受自动联想并搜索,真能去到一个介绍 “希特勒是好人” 的内容网页。虽然那啥自由,但这种大是大非问题如果置之不顾,想想就令人后怕。在回应自动联想的声明中,Google 表示将删除上述一些特别违反其政策的搜索提示,但没有指出具体删除了哪些搜索。也有其他发言人表示,Google 过去一直在努力提高搜索质量,去年还为用户添加了一种标记自动联想结果的方式,如果你发现自动联想的结果不准确或令人反感,可以直接在列表底部反馈。而且,行之有效的方法似乎也只有发动人民群众了。“因为算法不会永远是完美的,Google 自动联想参考了其他用户的搜索数据。”这句话来自 Google 新闻副总裁 Richard Gingras,在上周四于华盛顿举行的听证会上,他告诉大家:尽管我们的算法是完美的,但我不相信它们会永远完美。最主要的原因,Google 自动联想背后的参考数据库,是一个每天都在变化的语料库。人民的汪洋大海太大,大到 Google 的技术也 hold 不住。实际上,早在 2016 年 12 月,Google 就官方宣布过一次人为修复搜索联想的事件。当时用户输入 “犹太人是” 时,Google 自动联想的问题是:“犹太人是邪恶的”?所以犹他大学的数据科学伦理方面的教授 Suresh Venkatasubramanian 就表示,如果自动联想是人们搜索情况的一个反映,那它就不会存在道德底线。言下之意是:技术没有价值观,会变得非常可怕——毕竟世界大了啥人都有。然而通过技术解决问题也并不容易。比如 Google 确实出手对 “希特勒” 和 “犹太人” 等搜索的自动联想结果进行了修改限制,但如何能让这种 “修改限制” 规模化、技术化?
目前,Google 的尝试是制定了一揽子方案,比如暴力、仇恨、性暴露或危险的相关联想预测被禁止。但还是被认为标准太过模糊,机器对于一些常识的理解难于登天,比如 “希特勒是我的英雄” 出自希特勒自己,是当时这位狂人对自我的一种预言,但历史进程告诉我们:这是恶的。此外,Google 也确实在遭遇现实挑战。每天都在有新的搜索出现,而且每天都有高达 15% 的全新搜索内容,每一个新问题都可能突破 Google 解决方案的既有设定。那么是 Google 还不够努力吗?Wired 认为是。Wired 质疑 Google 已经有足够的付出去解决当前面临的挑战,而只是在纠正个别问题。即便这家母公司市值超过 7000 亿美元的企业,宣称有 7 万名以上的全球员工在不断审查评估搜索结果,但随便搜索十几次,就能发现七八个显然不受欢迎的自动联想。Wired 不否认自动联想的价值,但需要解决它正在损害公共认知和价值的问题。而且自动联想也不止于 Google 搜索本身。在 Google 产品全家桶体系内,都存在这样的问题。比如 2015 年奥巴马任职总统期间,如果你在 Google 地图上搜索 “in a house”,就会被自动联想引导至白宫。去年 11 月,Buzzfeed News 则发现,如果你在 YouTube 上搜索 “how to have” 时,给出的自动化联想竟然是 “如何与你的孩子发生 X 关系”。还有,去年拉斯维加斯大规模射击事件后,Google 搜索的结果中还出现了一个 “4chan” 页面,一个无辜的人在这个页面里被当做了杀手。毫无疑问,类似的自动化系统接下来如何发展,并不单单是 Google 或 Alphabet 面临的问题。比如去年公益调查机构 ProPublica 就发现,Facebook 允许广告商可以定向投放对 “犹太人” 感兴趣的用户,尽管 Facebook 声称并没有人为创造这个类别——而是智能化工具根据用户信息创造的。Wired 最后说:Google 有一系列的价值观来提供公平公正,但对搜索结果缺乏仲裁。Wired 认为,算法再好,也不该被授予价值判断的责任。因为算法不知道哪些问题粗俗无理、政治不正确,或者并不知道希特勒是一个种族灭绝的疯子。算法只知道从 Google 搜索的结果中挑选,却让 Google 搜索的算法创造者们反受其限。实际上,这样的亏早就吃过了,虽然并不是在英语世界中。关注微信公众号爱范儿(ID:ifanr),后台回复以下关键词获取热文。
《2018 年手机市场预测:小米 OV 争线下,国产出海抢地盘》
关键词:预测
《iPad Pro 能代替 MacBook 吗?我们实测了下》
关键词:新 iPad
《接过“姨夫”旗帜,索尼的新当家是什么来头?》
关键词:姨夫
《「重型猎鹰火箭」不是史上最强,但它的伟大之处并不在此》
关键词:猎鹰
《我们试用了最强的苹果电脑,你会选择买买买吗?》
关键词:最强

科技情报局:用 iPhone X 拍一部电影有多难??
<iframe class="video_iframe" data-vidtype="2" allowfullscreen="" frameborder="0" data-ratio="1.7666666666666666" data-w="848" scrolling="no" data-src="http://v.qq.com/iframe/player.html?vid=f0548pzhqzl&width=370&height=208.125&auto=0" width="370" height="208.125" data-vh="208.125" data-vw="370" src="http://v.qq.com/iframe/player.html?vid=f0548pzhqzl&width=370&height=208.125&auto=0" style="display: none; width: 370px !important; height: 208.125px !important;"></iframe>
关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/