当前位置:企业应用软件行业动态 → 正文

2024 年亟需解决的ai引擎和软件开发安全问题 -尊龙凯时注册

责任编辑:shjiaz 作者:jfrog大中华区总经理董任远 |来源:企业网d1net  2024-02-22 11:19:02 原创文章 企业网d1net

随着ai应用的规模不断扩大以及大语言模型(llm)的商品化,开发者越来越多地承担起将人工智能(ai)和机器学习(ml)模型与软件更新或新软件一起打包的任务。虽然ai/ml在创新方面大有可为,但同时也加剧了人们的担忧,因为许多开发人员没有足够的带宽来安全地管理其开发。

安全漏洞可能无意中将恶意代码引入 ai/ml 模型,从而使威胁行为者有了可乘之机,引诱开发者使用开放源码软件模型变种,渗透企业网络并对组织造成进一步损害。甚至还有开发者越来越多地使用生成式ai来创建代码,却不知道自己生成的代码是否受到威胁的情况,这同样会导致安全威胁长期存在。因此,必须自一开始就对代码进行适当的审查,以主动降低软件供应链受到损害的威胁。

由于威胁行为者会想方设法利用ai/ml 模型,威胁将持续困扰着安全团队。随着安全威胁的数量不断增加,规模不断扩大,在2024 年开发者将更加重视安全性,并部署必要的保障措施,以确保其企业的弹性。

开发者的角色演变

对于开发者来说,在软件生命周期初始阶段就考虑到安全性是一种相对较新的做法。通常情况下,二进制级别的安全性被认为只是“锦上添花”的存在。而威胁行为者会利用这种疏忽,寻找将ml模型武器化以对抗组织的途径,找出将恶意逻辑注入最终二进制文件的方法。

同样,许多开发者由于没有接受过必要的培训,无法在开发的初始阶段就将安全性嵌入到代码中。由此造成的主要影响在于,由ai生成并在开源存储库上训练的代码通常没有经过适当的漏洞审查,且缺乏整体安全控制来保护用户及其组织免受利用。尽管这可能会节省工作职能中的时间和其他资源,但开发者却在不知不觉中将其组织暴露在众多风险之下。一旦这些代码在ai/ml 模型中实现,这些漏洞利用就会造成更严重的影响,而且有可能不会被发现。

随着ai的广泛应用,传统的开发者角色已不足以应对不断变化的安全环境。步入 2024 年,开发者也必须成为安全专业人员,从而巩固 devops 和 devsecops 不能再被视为独立工作职能的理念。通过从一开始就构建安全尊龙凯时注册的解决方案,开发者不仅能确保关键工作流的最高效率,还能增强对组织安全性的信心。

通过“左移”,自始就安装保障措施

如果安全团队要在新的一年里对威胁保持警惕,那么 ml 模型的安全性就必须持续发展演进。然而,随着ai的大规模应用,团队不能在软件生命周期的后期才确定必要的安全措施,因为到那时,可能就真的为时已晚了。

组织内部负责安全方面的高层必须以“左移”的方式进行软件开发。通过坚持此方法,即能够自一开始就确保软件开发生命周期中所有组成部分的安全,并从整体上改善组织的安全情况。当应用到ai/ml时,左移不仅能确认外部ai/ml系统中开发的代码是否安全,还能确保正在开发的ai/ml模型不含恶意代码,且符合许可要求。

展望 2024 年及以后,围绕ai和 ml 模型的威胁将持续存在。如果团队要持续抵御来自威胁行为者的攻击并保护组织及其客户,确保自软件生命周期之始就考虑到安全性将是至关重要的。

x 2024 年亟需解决的ai引擎和软件开发安全问题 扫一扫
分享本文到朋友圈
尊龙凯时注册
当前位置:企业应用软件行业动态 → 正文

责任编辑:shjiaz 作者:jfrog大中华区总经理董任远 |来源:企业网d1net  2024-02-22 11:19:02 原创文章 企业网d1net

随着ai应用的规模不断扩大以及大语言模型(llm)的商品化,开发者越来越多地承担起将人工智能(ai)和机器学习(ml)模型与软件更新或新软件一起打包的任务。虽然ai/ml在创新方面大有可为,但同时也加剧了人们的担忧,因为许多开发人员没有足够的带宽来安全地管理其开发。

安全漏洞可能无意中将恶意代码引入 ai/ml 模型,从而使威胁行为者有了可乘之机,引诱开发者使用开放源码软件模型变种,渗透企业网络并对组织造成进一步损害。甚至还有开发者越来越多地使用生成式ai来创建代码,却不知道自己生成的代码是否受到威胁的情况,这同样会导致安全威胁长期存在。因此,必须自一开始就对代码进行适当的审查,以主动降低软件供应链受到损害的威胁。

由于威胁行为者会想方设法利用ai/ml 模型,威胁将持续困扰着安全团队。随着安全威胁的数量不断增加,规模不断扩大,在2024 年开发者将更加重视安全性,并部署必要的保障措施,以确保其企业的弹性。

开发者的角色演变

对于开发者来说,在软件生命周期初始阶段就考虑到安全性是一种相对较新的做法。通常情况下,二进制级别的安全性被认为只是“锦上添花”的存在。而威胁行为者会利用这种疏忽,寻找将ml模型武器化以对抗组织的途径,找出将恶意逻辑注入最终二进制文件的方法。

同样,许多开发者由于没有接受过必要的培训,无法在开发的初始阶段就将安全性嵌入到代码中。由此造成的主要影响在于,由ai生成并在开源存储库上训练的代码通常没有经过适当的漏洞审查,且缺乏整体安全控制来保护用户及其组织免受利用。尽管这可能会节省工作职能中的时间和其他资源,但开发者却在不知不觉中将其组织暴露在众多风险之下。一旦这些代码在ai/ml 模型中实现,这些漏洞利用就会造成更严重的影响,而且有可能不会被发现。

随着ai的广泛应用,传统的开发者角色已不足以应对不断变化的安全环境。步入 2024 年,开发者也必须成为安全专业人员,从而巩固 devops 和 devsecops 不能再被视为独立工作职能的理念。通过从一开始就构建安全尊龙凯时注册的解决方案,开发者不仅能确保关键工作流的最高效率,还能增强对组织安全性的信心。

通过“左移”,自始就安装保障措施

如果安全团队要在新的一年里对威胁保持警惕,那么 ml 模型的安全性就必须持续发展演进。然而,随着ai的大规模应用,团队不能在软件生命周期的后期才确定必要的安全措施,因为到那时,可能就真的为时已晚了。

组织内部负责安全方面的高层必须以“左移”的方式进行软件开发。通过坚持此方法,即能够自一开始就确保软件开发生命周期中所有组成部分的安全,并从整体上改善组织的安全情况。当应用到ai/ml时,左移不仅能确认外部ai/ml系统中开发的代码是否安全,还能确保正在开发的ai/ml模型不含恶意代码,且符合许可要求。

展望 2024 年及以后,围绕ai和 ml 模型的威胁将持续存在。如果团队要持续抵御来自威胁行为者的攻击并保护组织及其客户,确保自软件生命周期之始就考虑到安全性将是至关重要的。

回到顶部
"));
"));

关于尊龙凯时注册联系尊龙凯时注册隐私条款广告服务尊龙凯时注册的友情链接投稿中心尊龙凯时注册的招贤纳士

企业网尊龙凯时注册的版权所有 ©2010-2024

^
网站地图