它做的事情比较窄:实时语音翻译,但尽量完全在手机本地跑。
起因是我自己有过几次很尴尬的场景:人在路上、地铁里、飞机上,或者网络很差的时候,想用语音翻译,但常见工具要么需要联网,要么离线模式只适合打字翻译,不适合持续对话。
所以我想试一个方向:
如果把语音识别和翻译模型都放到 iPhone 上,能不能做到“够用”的实时沟通?
现在 NonetPlay 的核心能力是:
- 语音识别在本地跑
- 翻译模型在本地跑
- 不需要账号
- 不需要把语音传到服务器
- 下载模型后可以在飞行模式下使用
当前版本也有明显边界:
- 不是为了替代 DeepL / Google 这种高质量云端翻译
- 模型体积比较大,第一次下载需要耐心
- 离线模型的表达质量肯定不如云端大模型
- 更适合“先能沟通”,不适合严肃法律 / 医疗文本翻译
App Store:
https://apps.apple.com/us/app/nonetplay-ai-interpreter/id6761640051
我现在最想问 V 友两个问题:
1. 你们有没有真实遇到过“需要语音翻译,但网络或隐私不允许上传音频”的场景?
2. 如果离线翻译质量只能做到“沟通够用”,你们会接受吗,还是宁愿继续用云端工具?
如果有人对 iPhone 端侧模型、模型下载、延迟或电量有兴趣,我也可以展开讲一些实现取舍。
App Store 页面截图: