编程开源技术交流,分享技术与知识

网站首页 > 开源技术 正文

谷歌AI魔镜看你手舞足蹈,召唤8万幅照片学着跳|TensorFlow.js

wxchong 2024-08-16 06:07:12 开源技术 21 ℃ 0 评论

圆栗子 发自 凹非寺

量子位 出品 | 公众号 QbitAI

前两天,大家还在手机上胡写乱画。

而现在,如果你看到某个同事,对着电脑展现ta婀娜的舞姿。

ta说不定是在扒舞。

有一点点可能,是在玩谷歌发布的又一个AI游戏,名字叫Move Mirror (动镜) 。

这个游戏里,只要打开摄像头,对着它做你最舒服的动作。

一瞬间,很多人就会“排队”来学着你跳了,一丝不苟,还原神韵。

恭喜你,领取了一呼百应成就。跟你一起跳舞的人,你基本没见过,可能还有从二次元来的朋友。

满足感是否油然而生?

对一个页游来说,这计算量也算是鞠躬尽瘁了。

姿势匹配,一气呵成

这个游戏里,负责捕捉你姿势的机器学习模型,叫做PoseNet

看着你愉快地舞动,模型要实时捕捉你的姿势,全程不能松懈。

浑身上下,有17个关键点,每个姿态都是由这些点,共同描写的。

针对每一帧影像,系统都要搜遍80,000张的图库,从茫茫人海里找到姿势差不多的那一位。

这个数据集里,人类的姿态非常丰富,每一张都精挑细选。确实,不可能直接随机取样,每个人的姿势都差不多的话,就没用了。

虽然数据千姿百态,但搜索一次、找到目标,也只要15毫秒而已。

然后,系统迅速用千军万马拼出你的动感,也几乎不用什么时间。

需要的话,还可以把生成效果转成gif,分享到喷油圈——

这似乎是从宅舞向,变成了运动向,AI可能是个偏爱肌肉的妹子。

另外,游戏是用TensorFlow.js做的,不用存储你的影像,也不会把数据传到遥远的服务器里。

和谷歌AI以往的许多页游一样,低碳又安全。

花式PlayPlay

大家不妨一试,看看AI怎么理解你的动作,说不定还能发现一些神匹配。

如果想用TensorFlow.js,自己写一个观察姿势的小应用,可从文底的传送门前往GitHub项目页面,查看代码。

另外,在下比较期待,等哪天游戏里增加了面部动作的识别……

大概就可以更充分地观察,AI对动作的解读方式了。

问题来了,你想用什么姿势来考验它呢?

PlayPlay传送门:

http://g.co/movemirror

GitHub项目传送门:

https://github.com/tensorflow/tfjs-models/tree/master/posenet

DIY指南传送门:

https://medium.com/tensorflow/move-mirror-an-ai-experiment-with-pose-estimation-in-the-browser-using-tensorflow-js-2f7b769f9b23

实习生招聘

量子位正在招募活动运营实习生,策划执行AI明星公司CEO、高管等参与的线上/线下活动,有机会与AI行业大牛直接交流。工作地点在北京中关村。简历欢迎投递到quxin@qbitai.com

具体细节,请在量子位公众号(QbitAI)对话界面,回复“实习生”三个字。

量子位 QbitAI · 头条号签约作者

?'?' ? 追踪AI技术和产品新动态

Tags:

本文暂时没有评论,来添加一个吧(●'◡'●)

欢迎 发表评论:

最近发表
标签列表