麻省理工学院的研究人员发布了人工智能风险库

【阿里云】云服务器经济型e实例/2核2G/3M/40g,新人专享渠道特惠价只要99元!特惠热卖中。

个人、公司或政府在使用人工智能系统或制定规则来管理其使用时应该考虑哪些具体风险?这不是一个容易回答的问题。如果人工智能控制着关键基础设施,那么显然会对人类安全构成风险。但如果是用于评分考试、整理简历或在移民检查时验证旅行证件的人工智能呢?这些人工智能各自都有不同的风险,尽管风险同样严重。

麻省理工学院的研究人员发布了人工智能风险库

麻省理工学院的研究人员发布了人工智能风险库

在制定监管人工智能的法律(如欧盟人工智能法案或加利福尼亚州的 SB 1047)时,政策制定者一直在努力就法律应涵盖哪些风险达成共识。为了为他们以及整个人工智能行业和学术界的利益相关者提供指导,麻省理工学院的研究人员开发了他们所谓的人工智能“风险存储库” ——一种人工智能风险数据库。

麻省理工学院未来科技小组研究员、人工智能风险存储库项目负责人彼得·斯莱特里 (Peter Slattery) 告诉 TechCrunch:“这是一次尝试,旨在严格整理和分析人工智能风险,将其整合成一个公开、全面、可扩展且分类的风险数据库,任何人都可以复制和使用,并且会随着时间的推移不断更新。”“我们现在创建它是因为我们的项目需要它,并且意识到许多其他人也需要它。”

斯莱特里表示,人工智能风险库包含 700 多种人工智能风险,按因果因素(例如故意性)、领域(例如歧视)和子领域(例如虚假信息和网络攻击)分组,其诞生源于了解人工智能安全研究中重叠和脱节的愿望。虽然还有其他风险框架,但它们仅涵盖了库中确定的风险的一小部分,斯莱特里表示,这些遗漏可能会对人工智能的发展、使用和政策制定产生重大影响。

“人们可能认为人们对人工智能风险已经达成了共识,但我们的研究结果表明并非如此,”Slattery 补充道。“我们发现,平均框架仅提及了我们确定的 23 个风险子域中的 34%,近四分之一的框架覆盖不到 20%。没有任何文件或概述提及所有 23 个风险子域,最全面的文件或概述仅覆盖 70%。当文献如此分散时,我们不应该假设我们对这些风险的看法是一致的。”

为了建立该存储库,麻省理工学院的研究人员与昆士兰大学、非营利性未来生命研究所、鲁汶大学和人工智能初创公司 Harmony Intelligence 的同事合作,搜索学术数据库并检索了数千份与人工智能风险评估相关的文件。

研究人员发现,他们调查的第三方框架比其他框架更频繁地提到某些风险。例如,超过 70% 的框架包括人工智能对隐私和安全的影响,而只有 44% 的框架涵盖了虚假信息。虽然超过 50% 的框架讨论了人工智能可能造成的歧视和虚假陈述形式,但只有 12% 的框架谈到了“信息生态系统的污染”——即人工智能生成的垃圾邮件数量不断增加。

“研究人员、政策制定者以及任何从事风险研究的人都应该知道,这个数据库可以为开展更具体的工作提供基础,”斯莱特里说。“在此之前,像我们这样的人有两种选择。他们可以投入大量时间审查分散的文献以形成全面的概述,或者他们可以使用有限数量的现有框架,这可能会错过相关风险。现在他们有了一个更全面的数据库,因此我们的存储库有望节省时间并加强监督。”

但会有人使用它吗?的确,当今世界各地的人工智能监管充其量是一团乱麻:各种不同的方法,目标不统一。如果以前就有像麻省理工学院这样的人工智能风险存储库,它会改变什么吗?会吗?这很难说。

另一个值得思考的问题是,仅仅就人工智能带来的风险达成共识是否足以推动对其有效监管。许多人工智能系统的安全评估都存在很大的局限性,而风险数据库不一定能解决这个问题。

不过,麻省理工学院的研究人员计划尝试一下。未来科技实验室负责人尼尔·汤普森 (Neil Thompson) 告诉 TechCrunch,该小组计划在下一阶段的研究中使用该存储库来评估解决不同人工智能风险的效果。

“我们的资料库将帮助我们进行下一步研究,届时我们将评估不同风险的应对效果,”汤普森说。“我们计划利用这一点来识别组织响应中的不足之处。例如,如果每个人都关注一种风险,而忽视了其他同样重要的风险,那么我们就应该注意并加以解决。

© 版权声明

相关文章

暂无评论

暂无评论...