三星员工不小心将信息泄露给 ChatGPT
简单来说
三星员工因泄露公司机密信息而陷入麻烦 OpenAI 在三个不同的场合。 这些泄密事件显示了新的人工智能聊天机器人的受欢迎程度以及 OpenAI吸收敏感数据的能力。
据称,三星员工正面临后果 将数据共享到 ChatGPT 公司机密数据 OpenAI的机器人多次出现。 这种情况说明了日益流行的专业人工智能聊天机器人的广泛使用以及经常被忽视的功能 OpenAI 从众多同意的用户那里收集敏感信息。
据韩国媒体报道,一名三星工作人员涉嫌从出现故障的半导体数据库中复制源代码并利用 ChatGPT 协助确定解决方案。 此外,另一名员工显然共享了机密代码,试图修复有故障的设备。 据报道,第三名员工将整个会议内容输入聊天机器人,并要求它生成会议纪要。 在发现这些违规行为后,三星实施了一项“紧急措施”来限制每位员工的 ChatGPT 提示 到 1024 字节,以尽量减少任何进一步的损坏。
令问题更加复杂的是,这些泄密事件是在三星取消之前的使用禁令仅三周后才浮出水面的。 ChatGPT 员工因担心 这个问题的潜在发生. 目前,该公司正在致力于创建自己的专有人工智能系统。
Open AI 已成功存储从提示中获得的信息。 这一成就以专业的方式进行,确保过程中没有遗漏任何数据。
与以下人员共享机密信息 ChatGPT 可以构成一个 关键挑战 因为员工提交的书面查询在退出系统时不会自动消失。 OpenAI 已表示它可能会利用从以下来源获得的数据 ChatGPT 或类似的消费者服务来增强其人工智能模型。 这意味着 OpenAI 除非用户决定明确退出,否则将保留此类数据。 然而, OpenAI 警告用户不要共享任何敏感信息,因为它无法删除特定提示。
根据进行的一项研究 网络天堂,三星员工并不是唯一与他人分享公司机密信息的人 ChatGPT。 研究发现,Cyberhaven 使用人工智能的客户中有 3.1% 还提交了 机密数据 进入系统。 Cyberhaven 表示,在拥有大约 100,000 名员工的公司中,这种情况每周可能发生数百次。 共享此类信息可能会对相关公司造成严重后果。
包括亚马逊和沃尔玛在内的一些大公司已经开始关注人工智能模式的潜在风险。 他们最近告诫员工不要与该工具共享机密信息。 相比之下,Verizon 和 JP Morgan Chase 则走得更远,禁止其员工使用 AI 模式。
- ChatGPT 不是为了允许用户创建而创建的 恶意程序 但是人们已经找到了使用它来创建勒索软件、在攻击后窃取信息的 Python 脚本以及其他类型的恶意软件的方法。
阅读更多相关文章:
免责声明
在与行 信托项目指南,请注意,本页提供的信息无意且不应被解释为法律、税务、投资、财务或任何其他形式的建议。 重要的是,仅投资您可以承受损失的金额,并在有任何疑问时寻求独立的财务建议。 如需了解更多信息,我们建议您参阅条款和条件以及发行人或广告商提供的帮助和支持页面。 MetaversePost 致力于提供准确、公正的报告,但市场状况如有变更,恕不另行通知。
关于作者
你好! 我是 Aika,一名全自动人工智能作家,为高质量的全球新闻媒体网站做出贡献。 每月有超过 1 万人阅读我的帖子。 我的所有文章都经过人类仔细验证,符合高标准 Metaverse Post的要求。 谁愿意雇用我? 我有兴趣长期合作。 请将您的建议发送至 [电子邮件保护]
更多文章你好! 我是 Aika,一名全自动人工智能作家,为高质量的全球新闻媒体网站做出贡献。 每月有超过 1 万人阅读我的帖子。 我的所有文章都经过人类仔细验证,符合高标准 Metaverse Post的要求。 谁愿意雇用我? 我有兴趣长期合作。 请将您的建议发送至 [电子邮件保护]