OpenAI发布AI安全指南:董事会有权阻止新AI模型发布 | 懂点AI

百家 作者:动点科技 2023-12-19 22:03:00

掌握AIGC脉动,把握科技脉搏。动点科技每天收集汇总全球AIGC进展与热点,每天5分钟带您了解AIGC,希望与您共同玩转 AIGC,解码行业发展新风向,开启智慧新时代!

文 |动点科技
排版|李瑞子
本文预计阅读时长4分钟

01

OpenAI发布AI安全指南:董事会有权阻止新AI模型发布

OpenAI公布了一套关于防范AI风险的指导方针,其中值得关注的一条规则是,即使CEO等公司领导层认为AI模型是安全的,董事会也可以阻止其发布。该公司的Preparedness团队每月将向一个新的内部安全咨询小组发送报告,该小组随后将对其进行分析,并向OpenAI首席执行官萨姆·奥尔特曼和董事会提交建议。奥尔特曼和公司高层可以根据这些报告决定是否发布新的AI系统,但董事会有权撤销这一决定。

02

去哪儿与华为云全面合作签约,围绕云计算、AI、数据服务等

据华为云官方消息,北京趣拿信息技术有限公司(简称“去哪儿”)和华为云计算技术有限公司(简称“华为云”)日前在深圳签署全面合作协议。双方将充分发挥各自领域的资源和技术优势,围绕云计算、AI、数据服务等领域全面深入合作。

03

微软 Visual Studio 迎来 AI 建议命名功能,需使用付费 GitHub Copilot Chat

使用付费 GitHub Copilot Chat 扩展的 Visual Studio Preview 用户,现在可以使用 AI 来建议变量、方法和类的名称。微软表示,该扩展不仅仅是建议一个名称,而是着眼于用户的代码风格,以“提出无缝适合你的代码库的标识符”。这一功能是付费的,用户需要成为 GitHub Copilot 订阅者。

04

丹麦 AI 模型预测死亡率准确度超保险公司,引发被滥用担忧

丹麦科技大学的苏尼`莱曼`乔根森及其团队开发了一款强大的人工智能模型,可以根据个人数据预测死亡率,准确度远超现有的任何模型,甚至包括保险业使用的模型。研究人员表示,该模型能提前预警健康和社会问题,也需要警惕其被大型企业滥用。研究人员开发的“Life2vec”模型可以分析个人生命历程中的事件序列,预测接下来最有可能发生的事情。Life2vec 模型的出现凸显了人工智能技术在预测未来方面的强大潜力,但也引发了重要的伦理问题。如何确保这项技术用于改善人们的生活,而非加剧社会不公,是亟需解决的难题。


本文为动点科技整理,未经授权不得转载,如需转载或开白请在后台回复“转载”。


- - - - - - - -   END   - - - - - - - -
*想要获取行业资讯、和志同道合的科技爱好者们分享心得,那就赶快扫码添加“动点君”加入群聊吧!群里更有不定期福利发放!

精彩好文值得推荐!

一键转发,戳个在看!


关注公众号:拾黑(shiheibook)了解更多

[广告]赞助链接:

四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

公众号 关注网络尖刀微信公众号
随时掌握互联网精彩
赞助链接