对话苹果年度 App 作者:语言、生活、好奇心
科技
科技 > 数码 > 正文

对话苹果年度 App 作者:语言、生活、好奇心

2025 年接近尾声,苹果 2025 年 App Store Awards 获奖名单也揭晓了,年度 App 给了《CapWords》这个国产宝藏应用。

CapWords 是一款语言学习工具,在今年的苹果设计奖中它就是获奖名单上第一个国产应用。

它凭什么呢?你随手拍张照,AI 就能帮你把身边的东西变成单词卡。

比如拍个咖啡杯 ,它直接告诉你英文、法文怎么说,还能生成设计感在线的贴纸。

不知道大家有没有同感,很多时候在 app 上背的单词总感觉离生活太远,和自己关系不大,仿佛学的是一个个抽象的英文字母组合而不是一个单词。

而 CapWords 反客为主,让用户主动去学习生活中物品的单词,还能有助于联想记忆,整个玩法也很有乐趣,颇有《宝可梦》中小智收集宝可梦图鉴的感觉。

爱范儿之前对 CapWords 做过体验,大家可以感受一下👇

除了名词,现在动词形容词都能认,甚至 Live 图和视频也能识别。还能打印成实体卡片,仪式感拉满。

爱范儿也专访了 Capwords 开发者,聊聊语言的门槛被 AI 「踏破」之后,我们和语言之间,究竟还剩下些什么。

这不只关于技术和产品,Capwords 创始人 Ace 最开始是为了帮女儿 Dorothy 学习才做的这个 App,他从生活场景中寻找记忆锚点,这大概就是技术的浪漫。

对话 Capwords 开发者:词汇是和生活「摩擦」

将这款接连斩获苹果设计大奖和 App Store Awards 的产品叫做「英语学习工具」,显然太过局限。Capwords 更像是一件关于语言、记忆和生活场景的装置:拍照即识别,贴纸设计,搭配活泼轻盈的视觉风格,让人忍不住多看几眼,也顺手就多认识几个单词。

在 Capwords 近乎直觉般的设计背后,是一个简单却深刻的理念:语言的学习回归生活,它可以从一次指认、一次散步、一次「这个怎么说」的好奇心开始。

爱范儿:最早是因为小朋友有一个很简单的需求,指着东西问「这个用英语怎么说」,这就是整个灵感的来源和项目开端是吧?

DTD:对,我女儿大概三岁左右,不到三岁。我经常在夏天带她出去玩,我们会去公园,或者一些写字楼前的广场上。在玩的过程中,她会问我一些问题,比如「这个植物叫什么?」「这个路牌怎么念?」我就会一边陪她玩,一边跟她解释,有时也会用一些识别类的产品帮她查。可能是因为在她好奇心爆发那个阶段,这样的场景其实非常多。

印象比较深的一次,是在一个写字楼的地砖缝里,长出了一种叫「狗芽根」的植物。她很偶然地指着说:「爸爸,那有个狗芽根!」类似的场景让我特别触动。再结合她之前也会问我一些「这个用英文怎么说」的问题,我就在想:这种「场景 + 图像 + 信息「的结合」,可能会让她的记忆更好。我自己本身也是一个设计师出身,所以对于图像或者信息的这种感受会更敏感一点。

图片来自:小红书@DTD.STUDIOS

所以跟女儿互动的这些场景,很多都会给我这样的感受:语言本身应该是在生活里的,我们能用什么办法能帮助到这件事。大概就是这样一个过程。

爱范儿:你们当时有意识到类似的需求,并不只是出现在孩子身上,其实更广泛的用户群都有这种需求吗?

DTD:没有,因为我自己英语就不好,我不太擅长去背,或者把一个个知识点硬塞到脑子里。我也不是学教育的,所以对于语言学习,我的理解是语言发生在生活里。如果有一个环境,比如聊天时看到了、聊到了,看到一个东西和图像时,会有关联记忆。我会自己总结一些原则,比如为什么某个图像会吸引我,或者一个彩色的楼,或者我们城市里看到的有特点的建筑物,引起我注意的可能就是我脑海中图形的关联性,这一点非常重要。这也许是我作为设计师的个人总结,不一定完全科学。

图片来自:小红书@DTD.STUDIOS

爱范儿:市面上大部分的查词软件都比较臃肿,但 Capwords 把路径做得非常简单,一拍就可以完成。但你们担心过对学习效果的影响吗?

DTD:这个 CLU 要不你来讲讲。

CLU:其实我们在产品立项的时候,出发点并不是语言学习。回到刚刚说的,我们就是为了给我的干女儿解答问题——这是一切的种子。慢慢我们会意识到,图像会跟我们的生活形成一种「摩擦」。也就是说,通过与现实世界中的物品产生摩擦,可以强化记忆点。这些记忆点结合当时所处的场景以及全新的单词或事物进入大脑时,我们对这些信息的记忆会更加深刻。

我们在日常生活中观察到,人从小时候起就有天然的好奇心,会自然地记住所有新鲜的东西。比如去到日本,尽管我们可能不会说一句日语,但会说「谢谢」这种简单的话和一些词。或者描述可爱的事物时,会用到「卡哇伊」这样的词,因为这些东西对我们而言有新鲜感

所以,我们在立项开始就没有定位为一个单纯学习英文或者单词的产品。并且根据我们的观察、用户反馈,还有实际落地的情况来看,我们在做的一件事情就是把接触一个新的语言的这个门槛降低,让大家会更感兴趣。对一个语言的这种感兴趣程度提高了,然后慢慢的,大家自己会再去找到一个更加系统化学习的方式。

爱范儿:目前接到过哪些印象特别深刻的用户反馈吗?

@61:这个我可以来说一下。我之前的一个 mentor 有个上小学的女儿。测试阶段我给了他一个兑换码,他就带着女儿用 iPad 玩 Capwords,把家里所有东西都扫了一遍,甚至还扫了他爸的光头(笑)。

第二天,他爸来跟我反馈,说女儿居然把昨天扫到的所有单词,都写在了自己的日记本上,还自己开始复习了。接下来几天,女儿每天放学回家的第一件事,不是玩蛋仔派对,而是拿着 iPad 在家里到处找「还有什么没扫过的」。

DTD:有一些用户的反馈我确实印象很深,我看过一个用户说这是他用过最不像 AI 的 AI 产品,还有一个说这是他今年用过最温暖的 AI 产品。这也就是我们想达到的效果。

爱范儿:确实,模型完全融入到了使用过程中,AI 的存在感并不强。你们在研发的时候碰到过什么挑战吗?

CLU:其实我觉得 AI 还是有一些边界和条件,但是 AI 本身的这种判断力和我们人本身的一些常识,其实是差不多的。比如我们之前测试过,一杯棕色的液体,AI 会识别成为咖啡,但是如果我亲手做的这杯饮料,我就知道它其实是凉茶,那识别结果就跟我的认知不符。

但这并不是 AI 的问题,只是误认确实会出现。所以我们在设计的时候加了调整项,如果系统识别出来的结果和认知不符合,用户可以输入调整成正确的物品。

DTD:关于识别速度上的问题,其实大模型都需要时间。把图像传过去,再回传数据回来,整个过程其实是有五六秒时间的。去年我们第一个版本发出来,我们一起玩的时候感觉没什么问题,大家都觉得非常神奇。尤其是我老婆和女儿都觉得太厉害了。但是我自己在用的时候,还是觉得那个 6 秒钟很煎熬。

后来我们优化了一些提示词,调整了图片的大小,通过各种交互上的设计来减少用户的感知,把这个时间藏在不同的交互形式后面。所以我的理解是从体验层面,去解决一些目前模型本身解决不了的问题。

CLU:还有一个是你会看到当一个物品的识别完成之后,会有一个被撕下来的贴纸的效果,我们当时就想说做成一个把现实世界里的物品,从贴纸上抠下来的效果。在抠的过程中,其实已经在做完整的加载了,只是用户没有意识到,最后就可以有一个很丝滑的体验。

图片来自:小红书@DTD.STUDIOS

我相信到最后,AI 肯定是融入或者变成一个基建,不存在说要体现具体的技术实现,用户只需要关注 AI 带来的效果就好了,而且这个结果是用户所期待的,甚至超出期待的。

亲爱的凤凰网用户:

您当前使用的浏览器版本过低,导致网站不能正常访问,建议升级浏览器

第三方浏览器推荐:

谷歌(Chrome)浏览器 下载

360安全浏览器 下载