从风险到责任:艾哈迈德·沙迪德谈构建安全的AI辅助开发工作流程
简单来说
“Vibe 编码”正在迅速普及,但专家警告说,传统工具会给企业代码带来安全性和保密性风险,凸显了加密的、硬件支持的“机密 AI”解决方案的必要性。
近几个月来,“vibe coding”(一种以人工智能为先导的工作流程,开发者利用大型语言模型(LLM)和智能体工具来生成和优化软件)逐渐受到关注。与此同时,多份行业报告指出,尽管人工智能生成的代码速度快、使用方便,但往往会带来严重的安全和供应链风险。
Veracode的 研究发现,LLM生成的代码中近一半存在严重漏洞,人工智能模型经常生成不安全的实现,并且除非明确提示,否则会忽略诸如注入漏洞或弱身份验证等问题。 学术研讨 还指出,基于代理的系统中的模块化人工智能“技能”可能存在漏洞,这些漏洞可能导致权限提升或暴露软件供应链。
除了输出不安全之外,还存在一个常被忽视的系统性保密风险。目前的AI编码助手在共享的云环境中处理敏感的内部代码和知识产权,而服务提供商或运营商可以在推理过程中访问这些数据。这引发了人们对大规模暴露专有生产代码的担忧,这对个人开发者和大型企业来说都是一个相当严重的问题。
在接受独家专访 MPost, 艾哈迈德·沙迪德创始人 OLLM——这项保密人工智能基础设施计划——解释了为什么传统的人工智能编码工具对企业代码库来说本质上存在风险,以及保密人工智能(即使在模型处理期间也能保持数据加密)如何为现实世界软件开发中的安全、负责任的编码提供可行的途径。
AI编码助手如何处理敏感的企业代码?为什么存在风险?
目前大多数编码工具只能提供一定程度的数据保护。企业代码在发送到服务提供商服务器时通常会进行加密,一般通过 TLS 协议。但代码到达服务器后,会在内存中解密,以便模型可以读取和处理。此时,诸如专有逻辑、内部 API 和安全细节等敏感信息就会泄露。 呈现 系统里都是明文格式的。风险就在这里。
代码在解密过程中可能会经过内部日志、临时内存或调试系统,这些系统客户难以查看或审计。即使服务提供商保证不会保存任何数据,处理过程中仍然会发生泄露,而短暂的时间窗口足以造成盲点。对于企业而言,这会带来潜在风险,使敏感代码在缺乏专有控制的情况下被滥用。
你为什么认为主流人工智能编码工具从根本上来说对企业开发不安全?
大多数流行的AI编码工具并非为企业风险模型而设计;它们只注重速度和便捷性,因为它们主要基于包含已知漏洞、过时模式和不安全默认设置的公共代码库进行训练。因此,它们生成的代码通常存在以下问题: 漏洞 除非经过彻底检查和纠正。
更重要的是,这些工具缺乏正式的治理结构,因此在早期阶段无法真正强制执行内部安全标准,导致软件的编程方式与后续的审计或保护方式脱节。最终,团队会习惯于处理他们几乎无法理解的输出结果,而安全漏洞却在悄然增加。这种缺乏透明度和技术复杂性的双重影响,使得在安全至上的领域运营的组织几乎无法获得标准的支持。
如果服务提供商不存储或训练客户代码,为什么这还不够?还需要哪些技术保证?
政策保障与技术保障截然不同。即使服务提供商保证不会保留用户数据,用户数据在计算过程中仍然会被解密和处理。调试过程中的临时日志仍然可能造成数据泄露,而政策无法阻止或证明其安全性。从风险角度来看,仅凭信任而没有验证是不够的。
企业应该更关注那些可以在基础设施层面建立的承诺。这包括机密计算环境,在这种环境中,代码不仅在传输时加密,而且在使用过程中也进行加密。硬件支持的加密环境就是一个很好的例子。 可信执行环境这创建了一个加密环境,即使是基础设施运营商也无法访问敏感代码。该模型在此安全环境中处理数据,远程认证允许企业以加密方式验证这些安全措施是否生效。
此类机制应成为基本要求,因为它们将隐私变成可衡量的属性,而不仅仅是一种承诺。
在本地或私有云上运行人工智能能否完全解决保密风险?
在私有云上运行人工智能有助于降低一些风险,但并不能彻底解决问题。除非采取额外的保护措施,否则数据在处理过程中仍然非常容易被泄露。因此,内部访问、配置不当以及网络内部的移动仍然可能导致数据泄露。
模型行为是另一个需要关注的问题。尽管私有系统会记录输入或存储数据用于测试,但如果没有强有力的隔离措施,这些风险依然存在。业务团队仍然需要加密处理。实施基于硬件的访问控制并明确数据使用限制对于安全保护数据至关重要。否则,这些措施只能规避风险,而无法真正解决问题。
对于编码工具而言,“机密人工智能”究竟意味着什么?
机密人工智能是指在计算过程中管理数据安全的系统。它允许数据在隔离环境中(例如基于硬件的可信执行环境)以明文形式进行处理,以便模型能够对其进行操作。硬件隔离机制确保平台运营商、主机操作系统或任何外部方都无法访问这些数据,同时提供加密可验证的隐私保护,且不影响人工智能的功能。
这彻底改变了编码平台的信任模型,因为它允许开发者在不将专有逻辑发送到共享或公共系统的情况下使用人工智能。此外,由于访问边界由硬件而非策略构建,该过程也增强了问责机制的清晰度。一些技术更进一步,将加密计算与历史跟踪相结合,从而可以在不泄露输入的情况下验证输出。
虽然这个术语听起来很抽象,但其含义很简单:人工智能辅助不再需要企业为了提高效率而牺牲机密性。
目前使用保密人工智能有哪些利弊或局限性?
如今最大的权衡之处在于速度。隔离在可信执行环境中的人工智能系统可能 丰富的行业经验 与未受保护的结构相比,由于硬件级内存加密和认证验证,速度会稍有延迟。好消息是,随着时间的推移,新型硬件正在缩小这一差距。
此外,由于系统必须在更严格的环境下运行,因此需要更多的工作准备和妥善规划。成本也必须考虑在内。机密人工智能通常需要 专用硬件 例如,NVIDIA H100 和 H200 等专用芯片以及相关工具,这些都会增加初始成本。但必须权衡这些成本与代码泄露或不遵守法规可能造成的潜在损失。
保密人工智能目前还不是普遍的系统要求,因此团队应该在隐私和问责制至关重要的场合使用它。许多此类限制将会得到解决。
您认为监管机构或相关标准是否会很快要求人工智能工具在处理过程中对所有数据进行加密?
欧盟人工智能法案和美国国家标准与技术研究院人工智能风险管理框架等监管框架已经发挥了重要作用。 强调 关于高影响力人工智能系统的风险管理、数据保护和问责制,随着这些框架的发展,那些有意暴露敏感数据的系统越来越难以在既定的治理预期下得到合理化。
标准制定组织也在为人工智能在使用过程中如何处理数据制定更清晰的规则,从而奠定基础。这些规则在不同地区的推广速度可能有所不同。不过,企业应该预料到,处理纯文本数据的系统将面临更大的压力。这样一来,保密人工智能就不再是预测未来,而是更多地与监管的发展方向保持一致。
对于开发人员和 IT 领导者而言,“负责任的氛围编码”目前是什么样的?
负责任的编码理念意味着对每一行代码负责,从审查人工智能建议到验证安全隐患,以及考虑每个程序中的每一个极端情况。对于组织而言,这需要明确的…… defi制定特定工具审批政策和敏感代码的安全路径,同时确保团队了解人工智能辅助的优势和局限性。
对于监管机构和行业领导者而言,这项任务意味着制定清晰的规则,使团队能够轻松识别哪些工具是允许使用的以及可以在哪些情况下使用。敏感数据只能进入符合隐私和合规要求的系统,同时还应培训操作人员和用户,使其了解人工智能的强大功能及其局限性。人工智能如果使用得当,可以节省人力和时间,但如果使用不当,也会带来代价高昂的风险。
展望未来,您认为人工智能编码助手在安全性方面会如何发展?
AI 编码工具将从单纯的建议发展到实时验证代码编写过程,同时遵守规则、授权库和安全约束。
安全性至关重要,它将被更深入地融入这些工具的运行机制中,通过将加密执行和清晰的决策记录设计为常规功能来实现。随着时间的推移,这将使人工智能助手从风险转变为安全开发的辅助工具。最佳系统将是兼具速度和控制力的系统。而信任将取决于工具的实际运行情况,而非开发者的承诺。
免责声明
在与行 信托项目指南,请注意,本页提供的信息无意且不应被解释为法律、税务、投资、财务或任何其他形式的建议。 重要的是,仅投资您可以承受损失的金额,并在有任何疑问时寻求独立的财务建议。 如需了解更多信息,我们建议您参阅条款和条件以及发行人或广告商提供的帮助和支持页面。 MetaversePost 致力于提供准确、公正的报告,但市场状况如有变更,恕不另行通知。
关于作者
Alisa,一名热心记者 MPost,专注于加密货币、零知识证明、投资以及广泛的领域 Web3。她对新兴趋势和技术有着敏锐的洞察力,提供全面的报道,让读者了解和吸引读者了解不断发展的数字金融领域。
更多文章
Alisa,一名热心记者 MPost,专注于加密货币、零知识证明、投资以及广泛的领域 Web3。她对新兴趋势和技术有着敏锐的洞察力,提供全面的报道,让读者了解和吸引读者了解不断发展的数字金融领域。