Open AI发表论文剑指AI技术恶意使用的后果,不仅危害财产,还可能造成恐慌

年度订阅用户可加入科技英语学习社区,每周科技英语直播讲堂,详情查看“阅读原文”
Open AI 于 2018 年 2 月 20 日发表了一篇关于“恶意使用 AI 技术”的论文(The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation),同时这篇论文也指出如何预防潜在恶意使用 AI 技术的方式。与 Open AI 一同完成此论文的包括牛津大学人类未来研究所、剑桥大学现存风险研究中心、美国智库“新美国安全中心”以及电子前沿基金会等机构。

论文指出,包括机器学习在内的不少 AI 技术都在以极快的速度发展着。医疗、翻译等越来越多的领域都将会被AI技术所改变,在这种情况下,对AI技术的恶意使用也就越来越值得警惕,这便是Open AI 这篇论文的研究意义。
Open AI 将滥用 AI 技术的威胁分成了三种:
数字安全:使用 AI 来自动执行网络攻击中所涉及的任务,这会加大网络攻击的效率,尤其是那些劳动密集型的网络攻击。同时 Open AI 也表示,网络黑客们也有可能利用 AI 来合成人类的指纹、声纹,也有可能用 AI 来自动寻找软件漏洞。
物理安全:使用无人机以及其他无人设备进行攻击。这种威胁会对民众造成人身伤害,尤其是当自动驾驶、自动飞行等系统遭到恶意使用时,其造成的损害不可预计。
政治安全:使用 AI 来执行监视、游说、欺骗,从而造成公众恐慌、社会动荡等危害。这种恶意使用 AI 的方式对一些权力集中的国家格外有效。
为了应对这三种威胁方式,Open AI 提出了四种预防计划:
1. 决策者应与技术部门保持密切联系,并分配预算以支持研究人员调查、缓解潜在的恶意行为。
2.AI 技术的研究者应该认真地考虑其研究方向的两面性,并将其负面影响作为优先和研究重点来考虑,在该技术真正威胁到人类之前,主动与相关人士接触。
3. 实践出真知,解决威胁的最好办法就是多去使用。如数字安全领域,研究者应多去参与防御性工作,以让技术达到更高的成熟度。
4. 扩大利益相关者群体,与更多行业的专家进行交流,从而更全面地预防 AI 的恶意使用。
Open AI 的论文并不是十分乐观,该机构指出,随着 AI 系统的多样性增加,威胁的种类也在增多。首先,现有的攻击方式会扩大,这是因为 AI 带来了巨大的劳动成本缩短。其次会因为 AI 技术而引入新的攻击方式,而且是不可预测的。其三,AI 技术进步的同时,其他软件、硬件技术也在进步,所以很有可能会改变现有攻击方式的典型特征,从而躲过传统的监测机制。
此外,Open AI 的董事会成员伊隆·马斯克宣布退位,但是仍会赞助该企业。董事会席位与业务管理层的性质不同,马斯克的离开并不会改变 Open AI 的研究方向,同时这也会减轻马斯克身上的压力,从而投入更多精力于负债累累的特斯拉上。
-End-
参考:
https://arxiv.org/ftp/arxiv/papers/1802/1802.07228.pdf


关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/
关注网络尖刀微信公众号随时掌握互联网精彩
- 1 《求是》发表习近平总书记重要文章 7904089
- 2 销售直言不建议买35万玛莎拉蒂 7808406
- 3 警方通报老人坐门口吃橘子被打倒 7711954
- 4 明年经济工作政策取向确立这八个字 7616576
- 5 柬军士兵猛烈扫射 一只鸡意外抢镜 7521628
- 6 曝iPhone20将搭载无开孔屏 7424934
- 7 泰柬冲突急转直下 世界三个没想到 7332923
- 8 9天涨粉400万的“蛋神”发声 7237388
- 9 金建希被曝曾深夜激烈怒斥尹锡悦 7143778
- 10 如何让你我的钱袋子鼓起来 7042205







DeepTech深科技
