该倡议建立在新加坡早期的 AI 测试工作之上,包括 AI Verify 工具包以及面向大型语言模型应用的入门套件。AI Verify Foundation 是一家由新加坡支持的组织,拥有包括 IMDA、Google、Microsoft 和 IBM 在内的一流成员。该组织已开发用于 AI 测试与治理的开源工具。其产品包括用于治理测试的 AI Verify 工具包,以及结合基准测试与红队(red teaming)方法论的 Project Moonshot。
所提议的标准旨在补充 ISO/IEC 42001——国际人工智能管理体系标准。它可能有助于为符合诸如欧盟《AI Act》以及加州拟议的 SB-53(涉及 AI 安全与监管监督)等监管要求制定技术条件。该框架涵盖包括安全在内的质量特征,并采用诸如对基于提示的文本到文本(text-to-text)生成式人工智能系统进行红队测试等方法。这一发展可能会扩大 AI 保障服务的市场,使专业机构能够帮助组织满足不断涌现的全球基准要求。
