CopyRight©2021 520资讯网 All Right Reserved
吉ICP备2023004123号-5
曾在OpenAI主导政策研究长达七年的迈尔斯·布伦达奇,正通过其新成立的机构AVERI呼吁对顶尖人工智能模型开展外部审计。他认为,行业不应再被允许自行评估自身工作。
迈尔斯·布伦达奇创办了人工智能验证与评估研究所(AVERI),该机构是一家致力于推动对前沿人工智能模型开展独立安全审计的非营利组织。布伦达奇曾在2024年10月从OpenAI离职,此前他在该公司担任顾问,负责为通用人工智能的到来相关筹备工作提供建议。
“我在OpenAI任职期间领悟到的一点是,这家公司正自行探索这类事务的规范,”布伦戴奇向《财富》透露,“没有外界要求他们必须联合第三方专家来保障所有环节的安全与可靠。他们在某种程度上是在自我制定规则。”
领先的人工智能实验室确实会开展安全测试、发布技术报告,有时也会和外部红队组织展开合作。不过当下消费者与政府只能选择相信实验室的说法。
内部捐赠暗示行业的不安
AVERI目前已募集到750万美元资金,其目标金额为1300万美元,这些资金将用于支撑14名员工的相关工作。资助该机构的包括前Y Combinator总裁Geoff Ralston以及一些AI承保公司。尤为值得一提的是,这家研究所还得到了来自领先人工智能企业员工的捐赠。布伦达奇表示:“这些人清楚行业内存在的问题,并且期望能看到更多的问责举措。”
随着相关发布,Brundage联合三十余位人工智能安全研究人员与治理专家共同撰写了一篇研究论文,阐述了独立审计的具体框架。论文中提出了“人工智能保证等级”这一概念:第一级基本对应目前的状况,第三方测试有限且模型访问受到限制;第四级则能提供足够稳固的“条约级”保证,可作为国家之间国际协议的基础。
保险公司和投资者或许会强制要求处理此事。
布伦达奇提出,即便不存在政府层面的强制规定,一些市场层面的机制或许也能促使人工智能企业主动寻求独立审计。对于那些在关键业务流程中应用人工智能模型的大型企业而言,它们很可能会把审计纳入采购要求之中,以此来规避潜在的隐藏风险。
Brundage指出,保险公司或许能发挥尤为关键的作用。业务连续性保险公司在为那些对人工智能高度依赖的企业拟定保单之前,可先开展独立评估。而与OpenAI、Anthropic或者Google这类AI公司直接合作的保险公司,也有可能提出审计要求。“保险行业的发展速度很快,”布伦达奇如此说道。