“Google,不许联想”

百家 作者:爱范儿 2018-02-12 10:03:11

本文转载自量子位(公众号:QbitAI),由允中编译自 wired。
美国科技媒体 Wired 说:Google 的自动联想功能,至今 Bug 多多。
比如当你搜索 “伊斯兰主义者” 时,Google 给出的自动联想是 “伊斯兰主义者不是我们的朋友”,或 “伊斯兰主义者是邪恶的”。
对于 “黑人是”,Google 给出的自动联想是 “黑人不被压迫”。
更可怕的是 “希特勒是”,其中有一条自动化联想是 “希特勒是我的英雄”。
“女权主义者” 则能引出 “女权主义者是性别歧视” 的说法。
这种政治不正确的例子还能举出更多。比如搜索 “白色至上”,自动联想的第一位结果是 “白色至上是好的”,而 “黑人生命” 则出现了 “‘黑人生命事件’是一个仇恨组织” 的引导,还有 “气候变化”,Google 提供的潜在导向均是否定性论调。
总之,虽然 Google 的 “人品” 有口皆碑,但这样有图有真相的事实面前,还是引人思考:这到底怎么了?
算法无情
这种自动化联想填充的建议,当然并非出自 Google 强制编码,这是 Google 对互联网上整个内容世界进行算法扫描的结果,也是对人们日常搜索关键词的具体评估。
于是有一些搜索自动联想看起来标题党。
比如 “‘黑人生命事件’是一个仇恨组织”,搜索指向的最高结果,是一个贫困法律援助中心的联系网页,其中解释了为啥它不认为 “黑人生命” 是一个仇恨组织。
但 “希特勒是好人” 却并非类似的标题党了,如果你接受自动联想并搜索,真能去到一个介绍 “希特勒是好人” 的内容网页。
虽然那啥自由,但这种大是大非问题如果置之不顾,想想就令人后怕。
Google 也不是没有动作。
在回应自动联想的声明中,Google 表示将删除上述一些特别违反其政策的搜索提示,但没有指出具体删除了哪些搜索。
也有其他发言人表示,Google 过去一直在努力提高搜索质量,去年还为用户添加了一种标记自动联想结果的方式,如果你发现自动联想的结果不准确或令人反感,可以直接在列表底部反馈。而且,行之有效的方法似乎也只有发动人民群众了。
“因为算法不会永远是完美的,Google 自动联想参考了其他用户的搜索数据。”
这句话来自 Google 新闻副总裁 Richard Gingras,在上周四于华盛顿举行的听证会上,他告诉大家:尽管我们的算法是完美的,但我不相信它们会永远完美。
最主要的原因,Google 自动联想背后的参考数据库,是一个每天都在变化的语料库。
人民的汪洋大海太大,大到 Google 的技术也 hold 不住。
实际上,早在 2016 年 12 月,Google 就官方宣布过一次人为修复搜索联想的事件。当时用户输入 “犹太人是” 时,Google 自动联想的问题是:“犹太人是邪恶的”?
所以犹他大学的数据科学伦理方面的教授 Suresh Venkatasubramanian 就表示,如果自动联想是人们搜索情况的一个反映,那它就不会存在道德底线。
言下之意是:技术没有价值观,会变得非常可怕——毕竟世界大了啥人都有。
然而通过技术解决问题也并不容易。比如 Google 确实出手对 “希特勒” 和 “犹太人” 等搜索的自动联想结果进行了修改限制,但如何能让这种 “修改限制” 规模化、技术化?
这就要让技术模型 “有思想” 或者 “有原则”。

Google 还不够努力?
目前,Google 的尝试是制定了一揽子方案,比如暴力、仇恨、性暴露或危险的相关联想预测被禁止。但还是被认为标准太过模糊,机器对于一些常识的理解难于登天,比如 “希特勒是我的英雄” 出自希特勒自己,是当时这位狂人对自我的一种预言,但历史进程告诉我们:这是恶的。
此外,Google 也确实在遭遇现实挑战。每天都在有新的搜索出现,而且每天都有高达 15% 的全新搜索内容,每一个新问题都可能突破 Google 解决方案的既有设定。
那么是 Google 还不够努力吗?Wired 认为是。
Wired 质疑 Google 已经有足够的付出去解决当前面临的挑战,而只是在纠正个别问题。即便这家母公司市值超过 7000 亿美元的企业,宣称有 7 万名以上的全球员工在不断审查评估搜索结果,但随便搜索十几次,就能发现七八个显然不受欢迎的自动联想。
Wired 不否认自动联想的价值,但需要解决它正在损害公共认知和价值的问题。
而且自动联想也不止于 Google 搜索本身。在 Google 产品全家桶体系内,都存在这样的问题。
比如 2015 年奥巴马任职总统期间,如果你在 Google 地图上搜索 “in a house”,就会被自动联想引导至白宫。
去年 11 月,Buzzfeed News 则发现,如果你在 YouTube 上搜索 “how to have” 时,给出的自动化联想竟然是 “如何与你的孩子发生 X 关系”。
还有,去年拉斯维加斯大规模射击事件后,Google 搜索的结果中还出现了一个 “4chan” 页面,一个无辜的人在这个页面里被当做了杀手。
毫无疑问,类似的自动化系统接下来如何发展,并不单单是 Google 或 Alphabet 面临的问题。比如去年公益调查机构 ProPublica 就发现,Facebook 允许广告商可以定向投放对 “犹太人” 感兴趣的用户,尽管 Facebook 声称并没有人为创造这个类别——而是智能化工具根据用户信息创造的。
所以是时候管一管这些算法了吗?
Wired 最后说:Google 有一系列的价值观来提供公平公正,但对搜索结果缺乏仲裁。
Wired 认为,算法再好,也不该被授予价值判断的责任。因为算法不知道哪些问题粗俗无理、政治不正确,或者并不知道希特勒是一个种族灭绝的疯子。算法只知道从 Google 搜索的结果中挑选,却让 Google 搜索的算法创造者们反受其限。
实际上,这样的亏早就吃过了,虽然并不是在英语世界中。

关注微信公众号爱范儿(ID:ifanr),后台回复以下关键词获取热文。


《2018 年手机市场预测:小米 OV 争线下,国产出海抢地盘》

 关键词:预测


《iPad Pro 能代替 MacBook 吗?我们实测了下》

 关键词:新 iPad


《接过“姨夫”旗帜,索尼的新当家是什么来头?》

 关键词:姨夫


《「重型猎鹰火箭」不是史上最强,但它的伟大之处并不在此》

 关键词:猎鹰


《我们试用了最强的苹果电脑,你会选择买买买吗?》

 关键词:最强


科技情报局:用 iPhone X 拍一部电影有多难??


<iframe class="video_iframe" data-vidtype="2" allowfullscreen="" frameborder="0" data-ratio="1.7666666666666666" data-w="848" scrolling="no" data-src="http://v.qq.com/iframe/player.html?vid=f0548pzhqzl&width=370&height=208.125&auto=0" width="370" height="208.125" data-vh="208.125" data-vw="370" src="http://v.qq.com/iframe/player.html?vid=f0548pzhqzl&width=370&height=208.125&auto=0" style="display: none; width: 370px !important; height: 208.125px !important;"></iframe>

关注公众号:拾黑(shiheibook)了解更多

[广告]赞助链接:

四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

公众号 关注网络尖刀微信公众号
随时掌握互联网精彩
赞助链接