对科技公司而言 面部识别技术究竟是好还是坏?

百家 作者:腾讯数码 2018-12-15 10:15:42


本文由腾讯数码独家发布


谷歌全球事务高级副总裁Kent Walker在一篇有关人工智能在亚太地区应用的博文中,提到谷歌如何运用人工智能击退病魔和自然灾害,同时也强调谷歌在认清并解决面部识别带来的问题前,不会通过Google Cloud提供面部识别的通用API。


Walker表示,与其它公司不同,谷歌对待面部识别相关的技术和政策非常谨慎。面部识别和许多多功能技术一样,其应用必须符合谷歌的原则和价值,不应出现应用不当的情形。


在停止为美国国防部提供人工智能分析无人机视频的服务后,谷歌又经历了1400名员工联名请愿停止Dragonfly项目一事,现在的谷歌变得愈发谨慎了。


谷歌的行为也引发了业内对面部识别技术的思考,毕竟该技术还不够成熟,存在潜在危险。在本月初由布鲁金斯学会于华盛顿举办的活动中,微软总裁Brad Smith提出面部识别的应用可能存在高风险,比方说面部识别可以限制个人行动自由,使用面部识别的组织机构中必须不能存在对性别、民族、人种的歧视现象,这些机构也必须明确了解人工智能的局限性。


Smith表示,微软曾拒绝客户应用面部识别技术的需求,因为这种行为存在侵犯人权的风险。今年6月,微软还取消了为美国移民与海关执法局提供人工智能工具的合同。


Smith认为科技给大规模监视带来了新途径,国家、政府可以在任何地方监视任何人。如果科技公司不谨慎思考技术带来的后果,那可能到2024年我们会赫然发现自己正身处《1984》的世界中。


在本月于蒙特利尔举办的NeurIPS 2018大会期间,Salesforce首席科学家Richard Socher也在VentureBeat的采访中表达了他的担忧。Salesforce至今都没有在其人工智能客户关系管理产品Einstein Vision中使用面部识别技术,这是因为如果人工智能基于人脸判断的事项越来越重要,那造成的后果也将不堪设想。


错误频发


但,不是所有公司都这样谨慎。


今年夏天亚马逊为美国多地的执法机关提供了Rekognition服务,该服务可以通过亚马逊网络服务在云端进行图像分析。之后奥兰多市想续订这项服务,便开展了由警方志愿者参与的面部识别实验,同时华盛顿州开发了基于Rekognition的应用,由司法助理管理30万张犯罪嫌疑人的扫描照。


在一项由美国民权联盟开展的Rekognition测试中,将25000张罪犯面部照片同国会成员官方照进行了对比,结果Rekognition错将28名国会成员识别为了罪犯,而其中38%都属于有色人种。不过亚马逊对这项测试的结果颇有微词。


今年6月亚马逊网络服务总经理Matt Wood就表示,Rekognition在保护儿童、发展教育方面对社会有实际贡献,该服务还能完成多重认证、快捷搜寻图像、防范快递偷盗行为。


在今年8月的一篇博文中,亚马逊还提到网络服务客户Marinus Analytics用Rekognition找回了遭到人口买卖的受害者,让他们重新与家人团聚。而Thorn等公益组织利用Rekognition找到并解救了许多遭受性虐待的儿童。


Matt Wood表示,目前还没有任何客户利用亚马逊Rekognition进行不法行为,应用新技术当然会伴随着风险,任何选择了这项技术的组织都必须自愿承担可能的风险和公众的谴责,亚马逊网络服务也始终严肃对待其必须承担的责任。

但不是所有公司都像亚马逊这样严肃。


在The Intercept今年9月的一篇报道中,提到IBM与纽约市警察局合作,开发了可以通过肤色、发色、性别、年龄和各种面部特征进行搜索的系统。纽约市警察局提供了约50个摄像头拍到的几千张图像,该系统则通过人工智能从图像中识别衣服颜色和其它身体特征。


IBM发言人表示,该系统仅用于合理评估,但在IBM 2017年推出的Intelligent Video Analytics 2.0产品中就出现了类似的监视摄像功能,该功能会自动给用户打上“亚裔”、“黑人”、“白人”等标签。


潜在的偏见


就算不考虑上文中Socher提到的伦理问题,面部识别技术的准确性也有待考量。


2012年的一项研究显示,面部识别公司Cognitec提供的面部算法在美国黑人中出现错误的概率要比白人高5%到10%。而2011年的研究发现,中国、日本、韩国开发的面部识别技术在识别白人、东亚人时容易出现错误。今年2月,麻省理工学院媒体实验室在研究中发现,由微软、IBM和旷视科技(Megvii)开发的面部识别技术会出现性别识别错误,其中包含7%的浅肤色女性、12%的深肤色男性和35%的深肤色女性。


上述只是面部识别算法出错的冰山一角。近期有报道称,伦敦警察厅应用的面部识别系统错误率高达90%。在去年进行的有关面部识别技术的众议院监管委员会听证会上,美国联邦调查局承认其识别犯罪嫌疑人用的面部识别算法存在15%的错误率。弗吉尼亚大学对华盛顿大学开发的ImSitu和由Facebook、微软、MightyAI联合注资的COCO展开了一项研究,结果显示这两大图像数据库存在性别偏见,比如搜索与购物有关的图片时显示的图片都是女性,搜索与教练有关的图片时显示的都是男性。


而最恶劣的一起事件发生在2015年,一名软件工程师发现谷歌Photo的图像分类算法将美国黑人识别为了大猩猩。


即便是美国最大的随身摄像头供应商Axon的CEO Rick Smith也表示,面部识别技术还不够准确,不能参与执法。他表示,面部识别技术还不够成熟,实际应用中谁也不希望看到由技术错误导致的灾难性后果,也不希望在长期应用中出现引发公众不满的意外事件。


继续发展


过去十年间,面部识别技术出现了数不尽的错误,但这不意味着这项技术不会向着更准确、偏见更少的方向发展。


今年6月,微软和多位人工智能公平领域的专家合作,校订并扩展了Face API的数据库。Face API是一款微软Azure API,为搜索、识别、分析人脸图像提供算法。有了这些肤色、性别、年龄的新数据后,Face API识别深肤色男女的错误率下降了20倍、识别女性的错误率下降了9倍。


位于旧金山的用户原创短视频初创公司Gfycat也表示,今年会应用更严格的搜索方法,提高对亚裔的面部识别算法准确率。


此外,还将出现一批弱化算法偏见的工具,加速改善人工智能的公正性。

今年5月,Facebook发布了Fairness Flow,用于自动识别算法是否基于用户的种族、性别、年龄给出了带偏见的判断。Accenture也推出了一套可以自动监测人工智能算法偏见的工具,帮助数据科学家弱化偏见。微软在今年5月也给出了自己的解决方案,谷歌则在9月推出了What-If Tool,监测TensorFlow机器学习框架是否存在偏见。


IBM也不甘示弱,在今年秋天推出了AI Fairness 360,该工具在云端自动监测人工智能如何给出决策和建议,以减少偏见。近期其Watson与云平台小组也开始关注如何削弱人工智能偏见,特别是如何在面部识别过程中弱化偏见。

但尽管如此,我们还有许多问题留待解决。


Smith在今年早些时候的博文中表示,尽管人工智能偏见正在弱化、面部识别结果越来越公平,但仍然存在失败的可能,面部识别与许多人工智能技术一样,即便不含偏见也会发生错误。所有技术都是一把双刃剑,技术越强大,带来的好处或坏处就越多,就面部识别技术而言,如何在应用技术的同时保护隐私权和话语权等基本人权,也是亟待解决的课题。

关注公众号:拾黑(shiheibook)了解更多

[广告]赞助链接:

四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

图库
公众号 关注网络尖刀微信公众号
随时掌握互联网精彩
赞助链接