斯坦福大学声称,图像生成人工智能模型正在接受明确的儿童图像的训练
简单来说
流行的文本到图像生成人工智能工具包括 Stable Diffusion,正在接受数千张儿童性虐待图像的培训。
流行的文字转图像 生成式人工智能 工具,包括 Stable Diffusion 止 Stability AI 根据斯坦福互联网观测站的研究报告,正在接受数千张儿童性虐待图像的培训。
报告补充说,这些图像有助于生成涉及假儿童的真实露骨内容,并将穿着衣服的青少年转变为裸体图像,敦促此类工具背后的公司立即采取行动。
斯坦福互联网观察站的调查重点是 莱昂数据库,一个巨大的在线图像和标题存储库,由领先的 AI图像制作者 喜欢 Stable Diffusion,训练人工智能模型。
在检查图像生成人工智能工具之前,研究人员认为,人工智能工具通过结合成人色情内容和儿童良性照片的信息,产生了虐待儿童的图像。然而,天文台的调查结果却令人不安,LAION 数据集中发现了 3,200 多张疑似儿童性虐待的图像。
虽然 LAION 迅速对该报告做出了回应,暂时删除了其数据集,但这些图像的影响是深远的。尽管它们仅占 LAION 5.8 亿张图像的庞大索引的一小部分,但斯坦福大学小组声称它们可能会影响 AI工具 产生有害的输出。
LAION 数据库开发中的一个重要参与者是 Stability AI是一家总部位于伦敦的初创公司,负责塑造数据集。该报告强调,他们的旧版本 Stable Diffusion 去年推出的模型仍然存在于各种应用中,作为生成显式图像的主要来源。
尽管 Stability AI 声称仅托管经过过滤的版本并已采取措施减少滥用,但挑战在于旧模型的普遍存在。
生成式人工智能部署需要严格的验证
斯坦福互联网天文台首席技术专家 David Thiel 表示,问题的核心可以追溯到许多生成式人工智能项目在市场上的快速部署。
蒂尔指出,由于该领域的激烈竞争,这些项目往往被广泛使用,而在开发阶段却没有得到必要的严格关注。
斯坦福大学的研究人员主张采取严厉措施来有效解决这个问题。建议包括删除或清理源自 LAION-5B 的训练集并制作旧版本的 Stable Diffusion 不太容易接近。
然而,追溯清理数据的复杂性带来了相当大的挑战,促使人们呼吁在开发过程中与儿童安全专家进行合作 人工智能数据库.
随着世界各地的学校和执法机构对这些发现的潜在后果表示震惊,现在的焦点集中在 人工智能行业 紧急解决和纠正其技术中的有害缺陷。
免责声明
在与行 信托项目指南,请注意,本页提供的信息无意且不应被解释为法律、税务、投资、财务或任何其他形式的建议。 重要的是,仅投资您可以承受损失的金额,并在有任何疑问时寻求独立的财务建议。 如需了解更多信息,我们建议您参阅条款和条件以及发行人或广告商提供的帮助和支持页面。 MetaversePost 致力于提供准确、公正的报告,但市场状况如有变更,恕不另行通知。
关于作者
Kumar 是一位经验丰富的科技记者,专注于人工智能/机器学习、营销技术以及加密货币、区块链和人工智能等新兴领域的动态交叉领域。 NFTs。 Kumar 拥有超过 3 年的行业经验,在撰写引人入胜的叙述、进行富有洞察力的采访和提供全面的见解方面建立了良好的记录。 Kumar 的专长在于制作高影响力的内容,包括为著名行业平台制作文章、报告和研究出版物。 库马尔拥有结合技术知识和讲故事的独特技能,擅长以清晰且引人入胜的方式向不同的受众传达复杂的技术概念。
更多文章Kumar 是一位经验丰富的科技记者,专注于人工智能/机器学习、营销技术以及加密货币、区块链和人工智能等新兴领域的动态交叉领域。 NFTs。 Kumar 拥有超过 3 年的行业经验,在撰写引人入胜的叙述、进行富有洞察力的采访和提供全面的见解方面建立了良好的记录。 Kumar 的专长在于制作高影响力的内容,包括为著名行业平台制作文章、报告和研究出版物。 库马尔拥有结合技术知识和讲故事的独特技能,擅长以清晰且引人入胜的方式向不同的受众传达复杂的技术概念。