谷歌宣布推出可与网络实时交互的 AI 手势识别器
简单来说
谷歌宣布推出 Airfinger,这是一种人工智能手势识别系统,可让用户使用手势与网络进行实时交互。
它结合使用计算机视觉和机器学习来准确识别手势,使其价格更实惠,可供更广泛的用户使用。
Airfinger 目前能够识别七种不同的手势,但谷歌已经在努力扩展其功能。
谷歌宣布了一种新的人工智能手势识别系统,该系统将允许用户仅使用手势与网络进行实时交互。 该系统称为 Airfinger,仍处于早期开发阶段,但有可能彻底改变我们与设备交互的方式。
Airfinger 结合使用计算机视觉和机器学习来准确 识别手势,无需触摸屏幕或键盘即可浏览网站、玩游戏和控制智能家居设备。 这项技术还可能对可访问性产生重大影响,使残障人士能够以新的方式使用移动设备。
Airfinger 使用与其他手势识别系统相同的基本原理,例如 Microsoft Kinect 或 Leap Motion Controller。 然而,Airfinger 没有使用专用硬件,而是使用智能手机或平板电脑上的前置摄像头。 这使得更广泛的用户可以更负担得起和使用它。 Airfinger 在智能手机或平板电脑上使用前置摄像头也意味着它可以在旅途中使用,非常适合传统手势识别系统可能不可用或不实用的演示或会议。 此外,该软件会不断更新,以提高其准确性并扩大其兼容设备的范围。
目前,Airfinger 只能识别七种不同的手势:👍、👎、✌️、☝️、✊、👋 和🤟。 然而,谷歌已经在努力扩大其曲目。 该公司还致力于提高系统的准确性,以及它在弱光条件下的工作能力。 谷歌的目标是让 Airfinger 能够识别更复杂的手势,并最终识别手语。 这将大大有利于依赖手语作为主要交流方式的残疾人。
Mediapipe 可以使用默认训练模型识别此类手势:
- 闭合的拳头(
Closed_Fist
) - 张开手掌(
Open_Palm
) - 向上指(
Pointing_Up
) - 不看好 (
Thumb_Down
) - 竖起大拇指 (
Thumb_Up
) - 胜利(
Victory
) - 爱 (
ILoveYou
)
谷歌已将其提供给公众 GitHub上. 然而,该公司的研发团队已经在研究它这一事实表明它是谷歌的优先事项。 运气好的话,我们将在不久的将来看到 Airfinger 推出设备。
阅读有关人工智能的更多信息:
免责声明
在与行 信托项目指南,请注意,本页提供的信息无意且不应被解释为法律、税务、投资、财务或任何其他形式的建议。 重要的是,仅投资您可以承受损失的金额,并在有任何疑问时寻求独立的财务建议。 如需了解更多信息,我们建议您参阅条款和条件以及发行人或广告商提供的帮助和支持页面。 MetaversePost 致力于提供准确、公正的报告,但市场状况如有变更,恕不另行通知。
关于作者
Damir 是团队领导、产品经理和编辑 Metaverse Post,涵盖 AI/ML、AGI、LLM、Metaverse 等主题 Web3- 相关领域。 他的文章每月吸引超过一百万用户的大量读者。 他似乎是一位在 SEO 和数字营销方面拥有 10 年经验的专家。 达米尔曾在 Mashable、Wired、 Cointelegraph、《纽约客》、Inside.com、Entrepreneur、BeInCrypto 和其他出版物。 他作为数字游牧者往返于阿联酋、土耳其、俄罗斯和独联体国家之间。 达米尔获得了物理学学士学位,他认为这赋予了他在不断变化的互联网格局中取得成功所需的批判性思维技能。
更多文章Damir 是团队领导、产品经理和编辑 Metaverse Post,涵盖 AI/ML、AGI、LLM、Metaverse 等主题 Web3- 相关领域。 他的文章每月吸引超过一百万用户的大量读者。 他似乎是一位在 SEO 和数字营销方面拥有 10 年经验的专家。 达米尔曾在 Mashable、Wired、 Cointelegraph、《纽约客》、Inside.com、Entrepreneur、BeInCrypto 和其他出版物。 他作为数字游牧者往返于阿联酋、土耳其、俄罗斯和独联体国家之间。 达米尔获得了物理学学士学位,他认为这赋予了他在不断变化的互联网格局中取得成功所需的批判性思维技能。