微软迫使法学硕士忘记哈利·波特
微软透露了一个方法 用于指示大型语言模型 (LLM) 忘记数据集中的特定信息,而不需要完全重建训练数据。 这种方法为改进法学硕士并有可能解决涉及版权内容的法律问题开辟了新的可能性。
微软的团队最近展示了他们如何能够制作 Llama-2 模型忘记哈利波特书籍的细节,而不影响模型训练数据中的其他数据或模型在其研究项目页面上描述的研究中的整体性能。
该过程首先识别模型数据集中需要忘记的特定信息。 在本例中,它是与 JK 罗琳标志性系列相关的详细信息,包括情节细节、角色名称和名言。 然后,这些词被系统地替换为通用的、不相关的短语。
然后,研究人员采用语言模型根据这些通用数据生成新信息。 然后使用这些新数据重新训练原始数据 Llama-2 型号 逐渐地。 每走一步,模型都会与《哈利·波特》系列书籍拉开距离,直到当被问及这些书籍时它开始产生幻觉反应。
这种方法的一个显着特点是它不会损害模型的总体性能。 这意味着虽然法学硕士越来越忘记特定数据,但其整体语言能力仍然完好无损。
尽管这种方法仍在完善中,但其影响是广泛的。 特别是在涉及法律索赔和版权问题的情况下,它可能为那些创建法学硕士和其他人工智能模型的人提供生命线。
这项创新是在人工智能模型中使用受版权保护内容的法律纠纷不断增加之际出现的。 例如, 《纽约时报》最近要求删除 其出版物来自 GPT-4 数据集。 如果成功的话 法律挑战,开发人员通常需要重建他们的模型数据集,这是一个耗时且资源密集的过程。 微软的方法如果进一步完善和采用,可以为此类挑战提供有效的解决方案。
微软有选择地忘记大型语言模型中特定信息的方法(法学硕士)是人工智能开发的重大突破,有可能解决受版权保护的内容问题并简化改进。 这种方法可以应用于各个领域,展示负责任的人工智能开发和应用。
免责声明
在与行 信托项目指南,请注意,本页提供的信息无意且不应被解释为法律、税务、投资、财务或任何其他形式的建议。 重要的是,仅投资您可以承受损失的金额,并在有任何疑问时寻求独立的财务建议。 如需了解更多信息,我们建议您参阅条款和条件以及发行人或广告商提供的帮助和支持页面。 MetaversePost 致力于提供准确、公正的报告,但市场状况如有变更,恕不另行通知。
关于作者
Damir 是团队领导、产品经理和编辑 Metaverse Post,涵盖 AI/ML、AGI、LLM、Metaverse 等主题 Web3- 相关领域。 他的文章每月吸引超过一百万用户的大量读者。 他似乎是一位在 SEO 和数字营销方面拥有 10 年经验的专家。 达米尔曾在 Mashable、Wired、 Cointelegraph、《纽约客》、Inside.com、Entrepreneur、BeInCrypto 和其他出版物。 他作为数字游牧者往返于阿联酋、土耳其、俄罗斯和独联体国家之间。 达米尔获得了物理学学士学位,他认为这赋予了他在不断变化的互联网格局中取得成功所需的批判性思维技能。
更多文章Damir 是团队领导、产品经理和编辑 Metaverse Post,涵盖 AI/ML、AGI、LLM、Metaverse 等主题 Web3- 相关领域。 他的文章每月吸引超过一百万用户的大量读者。 他似乎是一位在 SEO 和数字营销方面拥有 10 年经验的专家。 达米尔曾在 Mashable、Wired、 Cointelegraph、《纽约客》、Inside.com、Entrepreneur、BeInCrypto 和其他出版物。 他作为数字游牧者往返于阿联酋、土耳其、俄罗斯和独联体国家之间。 达米尔获得了物理学学士学位,他认为这赋予了他在不断变化的互联网格局中取得成功所需的批判性思维技能。