译者 | 布加迪 审校 | 重楼 现代技术远非万无一失——比如说
,信任我们可以看到 ,工智众多漏洞不断涌现出来
。处理虽然通过设计保证安全的数据系统是一条屡试不爽的最佳实践
,但这么做可能会分流来自其他方面的中毒资源
,比如用户体验(UX)设计、信任性能优化以及与其他解决方案及服务的工智互操作性。 因此 ,处理安全常常退居次席,数据只满足最低限度的中毒合规要求
。如果涉及敏感数据,建站模板信任这种取舍尤其令人担忧,工智因为这类数据需要与其重要性相对应的处理保护。如今,数据在人工智能和机器学习系统中,中毒安全措施不到位的风险越来越明显。在这类系统中
,数据是其功能的基础。 人工智能/机器学习模型立足于核心训练数据集,这些数据集通过监督式学习和非监督式学习不断更新。机器学习是实现人工智能的亿华云主要途径
,机器学习支持深度学习,以开发人工智能的许多功能。数据越多样化
、越可靠
,模型的输出就越准确、越有用 。因此在训练期间,这些模型需要访问大量的数据。 另一方面,依赖大量数据也带来了风险,因为未经验证或审查不力的数据集增加了结果不可靠的香港云服务器可能性 。众所周知
,生成式人工智能
、尤其是大语言模型(LLM)及其分支(比如人工智能助手)特别容易受到恶意篡改模型的攻击。 最阴险的威胁之一是数据(或数据库)中毒,即攻击者试图改变模型的行为 ,导致模型生成不正确
、有偏见甚至有害的输出。这种篡改行为带来的后果可能波及整个应用程序,高防服务器破坏信任 ,并给个人和组织都带来系统性风险 。 数据中毒攻击有多种类型 ,例如: 随着人工智能模型被深深地嵌入商业系统和消费者系统中,充当助手或生产力倍增器
,针对这些系统的攻击正成为一个重大问题。 虽然企业人工智能模型可能不会与第三方共享数据 ,但它们仍然会获取内部数据以改进输出。它们需要访问敏感信息宝库 ,这使得它们成为高价值目标。消费者模型面临的风险进一步加大,因为它们通常与其他有关方共享用户的提示(通常充满敏感数据)。 机器学习/人工智能模型的预防策略需要开发人员和用户都加强安全意识。主要策略包括如下
: 构建通过设计保证安全的人工智能/机器学习平台不仅大有助益,还势在必行。就像虚假信息会影响人们做出有害和极端的行为一样
,中毒的人工智能模型也会导致有害的结果。 随着世界越来越关注与人工智能开发相关的潜在风险
,平台创建者应该扪心自问:自己是否做了足够的工作来保护模型的完整性。消除偏见、不准确和漏洞以免它们造成危害需要成为开发方面的一个核心优先事项 。 随着人工智能进一步融入到我们的生活中
,确保人工智能系统安全只会越来越重要
。企业、开发人员和政策制定者还必须共同努力,确保人工智能系统能够抵御攻击。这样一来,我们才可以在不牺牲安全
、隐私和信任的情况下发掘人工智能的潜力。 原文标题 :Untrustworthy AI: How to deal with data poisoning,作者:Márk Szabó