文 | 周鑫雨
编辑 | 邓咏仪
“情感交互”正在成为机器迈向AGI的下一个战场。
(资料图片仅供参考)
近几年随着AI技术的迅速演进,机器学习的领域逐渐从文字、图像、视频等模态,转向更为复杂的情感识别。在情感识别技术发展下,“陪伴机器人”已发展为具有潜力的细分赛道。Precision Reports数据显示,2023年全球陪伴机器人市场规模预估为920311万美元,未来5年年复合增长率预计达到25.68%。
成立于2014年,可以科技是36氪长期关注的机器人企业。其首款产品ClicBot(可立宝)为可自由组装构型的模块化机器人。ClicBot好比可自由组装成遥控车、机械臂、机械宠物等形态的机器人乐高,用户可通过搭积木般的拼接以及功能程序编写,DIY具有不同功能的机器人。
在生成式AI技术逐渐成熟的当下,可以科技的第二代产品、陪伴机器人Loona则将功能重点从乐高般的DIY,转移到了人机交互。。
Loona与狗对视。图源:可以科技
可以科技创始人兼CEO杨健勃告诉36氪,Loona的“宠物”形态来源于ClicBot中最受用户欢迎的构型。这一现象侧面反映出,用户对于机器提供类生命体的智能交互具有较高的需求,“我们想通过Loona打造下一代机器人智能决策机(Intelligent decision making machine)通过智能决策机,可以让机器人能够通过多模态地信息流畅地表达情感,让机器人真正懂人”。而情感交互可以将机器人人机交互体验从“理解命令”提升到“懂你”,让机器人可以自由地表达情感。
Loona被摸头。图源:可以科技
想在机器人上实现智能情感交互,需要在感知、决策、执行三个环节构建完整的软硬件系统。
作为建立人类情感模型的先决条件,高质量的人机情感交互数据一直是稀缺资源。杨健勃告诉36氪,数据采集的难点主要有二:一是需要双相交互,二是需要脱敏,不侵犯个人隐私。
为此,可以科技通过深度强化学习算法建立了一条从视觉感知、到生成式情感交互AI模型的通路。
在感知层,作为能够“读空气”的宠物,Loona的情感反馈来源于一整套复杂的视觉软硬件系统。作为“眼睛”,Loona搭载的3D-ToF摄像头等感知元件和算法可以实现人脸识别、身体检测、动态静态手势识别、人体骨骼识别、3D动作捕捉、物体识别、情感感知、宠物识别、场景识别、标志识别等感知功能。
Loona玩球。图源:可以科技
在决策层,在基于机器人收集到的脱敏交互数据,可以科技将Loona的基于数据库索引的交互模型转换成了基于深度学习的AI模型,继而则是通过Loona实机进行强化学习。目前,Loona拥有高日活跃率和持续提升的销量,基于用户反馈,Loona的强化学习可以建立起数据飞轮。
在执行层,基于以上两环构建的智能情感决策模型,可以科技正在研究一套实时交互生成系统。杨健勃介绍,以往Loona的情感表达采用的是由设计师提前设计的表情动作和音效来表达。接入情感决策模型后,Loona的表情、动作和音效能根据用户的交互实时生成,比如Loona的“眼球”能根据用户的表达转动,将交互周期从十几秒缩短到毫秒级。未来,Loona的实时交互系统还将持续升级。
Loona与孩子一起玩耍。图源:可以科技
“决策模型会颠覆掉Loona以往的交互方式。”杨健勃对36氪表示,“指令和功能的概念会变得不重要,因为Loona能够实时理解人类的意图,再自然地做出交互。”
而作为智能决策机,杨健勃认为Loona与宠物陪伴或人类陪伴并非替代关系,而是关系的有机补充,“生物的进化有特殊的性能,目前AI侧难以提供真实的感觉。但机器人的优势在于能够从更多维度理解人且做出反馈,也更稳定。相信它们将和宠物、人类有机共存。”
欢迎交流
标签: