英国人工智能安全研究所(AI Safety Institute)推出了一个新平台
,英国研究允许企业在公开发布人工智能模型之前对其进行测试
。人工 这个名为Inspect的安全平台是一个软件库,旨在评估人工智能模型的所推试工能力,在推理和自主能力等方面对它们进行评分。出人 目前,工智开发人员缺乏可用的型安安全测试工具。上个月 ,全测MLCommons发布了一个大型的具平以语言模型为重点的安全测试基准。 Inspect就是英国研究为了填补这一空白而开发的亿华云,它是人工开源的,所以任何人都可以用它来测试他们的安全人工智能模型
。 企业可以使用Inspect来评估人工智能模型和外部工具使用的所推试工提示工程。该工具还包含包含标记样本的出人评估数据集,因此开发人员可以详细检查用于测试模型的工智数据
。 它被设计为易于使用 ,并提供了用于运行整个过程中提供的各种测试的解释器 ,香港云服务器包括模型是否托管在AWSBedrock等云环境中。 安全研究所表示 ,开放测试工具的决定将使全球的开发人员能够进行更有效的人工智能评估
。 英国科技大臣MichelleDonelan表示:“作为英国在人工智能安全方面不断发挥领导作用的一部分,我已批准人工智能安全研究所的测试平台开源我之所以对此充满热情,并将Inspect开源,是因为如果我们抓住人工智能的风险 ,我们可以获得非凡的免费模板回报 。” 安全研究所表示 ,它计划在未来开发除Inspect之外的开源测试工具。该机构将在今年4月签署一项联合工作协议后 ,与美国同行合作开展相关项目。 人工智能安全研究所主席Ian Hogarth表示:“在人工智能安全测试方面的成功合作意味着有一个共享的、可访问的评估方法 ,我们希望Inspect能成为人工智能安全研究所、研究机构和学术界的基石。我们希望看到全球人工智能社区不仅使用Inspect进行自己的模型安全测试
,高防服务器而且帮助适应和建立开源平台,以便我们能够全面进行高质量的评估
。” OpenUK首席执行官Amanda Brock表示,安全研究所新平台的成功只能通过已经承诺使用该测试工具的公司数量来衡量
。 Brock说:“由于英国在监管方面的立场缓慢
,这个平台必须取得成功,英国才能在未来的人工智能领域占有一席之地
。现在所有人的目光都集中在韩国和下一届安全峰会上,看看世界是如何看待这一点的建站模板