如何在部署之前评估通用人工智能模型的可靠性

【阿里云】云服务器经济型e实例/2核2G/3M/40g,新人专享渠道特惠价只要99元!特惠热卖中。

基础模型是大规模深度学习模型,已在大量通用、未标记的数据上进行了预训练。它们可应用于各种任务,例如生成图像或回答客户问题。

如何在部署之前评估通用人工智能模型的可靠性

如何在部署之前评估通用人工智能模型的可靠性

但这些模型是 ChatGPT 和 DALL-E 等强大人工智能工具的支柱,它们可能会提供错误或误导性的信息。在安全攸关的情况下,例如行人接近自动驾驶汽车,这些错误可能会造成严重后果。

为了帮助防止此类错误,麻省理工学院和麻省理工学院-IBM Watson AI 实验室的研究人员开发了一种技术,用于在将基础模型部署到特定任务之前评估其可靠性。

他们通过考虑一组彼此略有不同的基础模型来实现这一点。然后他们使用他们的算法来评估每个模型学习到的关于同一测试数据点的表示的一致性。如果表示一致,则意味着该模型是可靠的。

当他们将他们的技术与最先进的基线方法进行比较时,发现他们的技术在各种下游分类任务中能够更好地捕捉基础模型的可靠性。

有人可以使用这种技术来决定是否应在特定环境中应用模型,而无需在真实数据集上进行测试。当数据集可能因隐私问题而无法访问时,例如在医疗保健环境中,这可能特别有用。此外,该技术还可用于根据可靠性得分对模型进行排名,使用户能够选择最适合其任务的模型。

“所有模型都可能出错,但知道何时出错的模型更有用。量化不确定性或可靠性的问题对于这些基础模型来说更具挑战性,因为它们的抽象表示难以比较。我们的方法可以量化表示模型对任何给定输入数据的可靠性,”资深作者 Navid Azizan 说道,他是麻省理工学院机械工程系和数据、系统和社会研究所 (IDSS) 的 Esther and Harold E. Edgerton 助理教授,也是信息和决策系统实验室 (LIDS) 的成员。

与他一起撰写了一篇关于这项工作的论文的还有主要作者、LIDS 研究生 Young-Jin Park、麻省理工学院-IBM Watson AI 实验室的研究科学家 Hao Wang 和 Netflix 高级研究科学家 Shervin Ardeshir。该论文将在人工智能不确定性会议上发表。

衡量共识

传统的机器学习模型经过训练可以执行特定任务。这些模型通常根据输入做出具体预测。例如,模型可能会告诉您某张图片中是否包含猫或狗。在这种情况下,评估可靠性可能是查看最终预测以查看模型是否正确。

但基础模型则不同。该模型使用通用数据进行预训练,其创建者并不知道它将应用于哪些下游任务。用户在模型经过训练后,可将其调整到特定任务。

与传统的机器学习模型不同,基础模型不会给出“猫”或“狗”标签等具体输出。相反,它们会根据输入数据点生成抽象表示。

为了评估基础模型的可靠性,研究人员采用了集成方法,训练了几个具有许多共同属性但彼此略有不同的模型。

“我们的想法就像衡量共识一样。如果所有这些基础模型都为我们数据集中的任何数据提供了一致的表示,那么我们可以说这个模型是可靠的,”Park 说。

但他们遇到了一个问题:如何比较抽象的表现形式?

“这些模型只是输出一个由一些数字组成的向量,所以我们无法轻松地比较它们,”他补充道。

他们使用一种称为邻域一致性的想法解决了这个问题。

在他们的方法中,研究人员准备了一组可靠的参考点来测试整个模型。然后,对于每个模型,他们调查位于该模型测试点表示附近的参考点。

通过观察邻近点的一致性,他们可以估计模型的可靠性。

对齐表示

基础模型将数据点映射到所谓的表示空间。可以将此空间视为一个球体。每个模型将相似的数据点映射到其球体的同一部分,因此猫的图像放在一个地方,狗的图像放在另一个地方。

但是每个模型都会在自己的范围内以不同的方式映射动物,因此虽然猫可能被归类在一个范围的南极附近,但另一个模型可能会将猫映射到北半球的某个地方。

研究人员使用邻近点作为锚点来对齐这些球体,以便使这些表示具有可比性。如果某个数据点的邻居在多个表示中保持一致,那么人们应该对该点的模型输出的可靠性充满信心。

当他们在广泛的分类任务上测试这种方法时,他们发现它比基线更加一致。此外,它不会因具有挑战性的测试点而失败,而其他方法则不会。

此外,他们的方法可用于评估任何输入数据的可靠性,因此可以评估模型对特定类型的个体(例如具有某些特征的患者)的效果。

王说:“即使所有模型的整体表现都很平均,但从个人的角度来看,你还是会选择最适合自己的模型。”

然而,他们必须训练一组基础模型,这在计算上非常昂贵,因此存在一个限制。未来,他们计划寻找更有效的方法来构建多个模型,或许可以通过对单个模型进行小幅扰动来实现。

“目前趋势是使用基础模型的嵌入来支持各种下游任务——从微调到检索增强生成——量化表示级别的不确定性这一主题变得越来越重要,但具有挑战性,因为嵌入本身没有基础。相反,重要的是不同输入的嵌入如何相互关联,这项工作通过提出的邻域一致性得分巧妙地捕捉到了这个想法,”斯坦福大学航空航天系副教授 Marco Pavone 表示,他没有参与这项工作。“这是朝着高质量嵌入模型不确定性量化迈出的有希望的一步,我很高兴看到未来的扩展可以在不需要模型集成的情况下运行,从而真正使这种方法能够扩展到基础规模的模型。”

这项工作部分由麻省理工学院-IBM Watson AI 实验室、MathWorks 和亚马逊资助。

© 版权声明

相关文章

暂无评论

暂无评论...