提问者:小点点

在iOS中存储和检索不同的声音


我有一个iOS应用程序的想法。 在学习开发框架之前,要检查一下基本概念是否可行。 为了工作,这款应用程序需要存储一组声音,这些声音可以与用户发出的声音相匹配。 虽然这些声音不是规则的单词,但对单词的类比是有效的。

因此,应用程序需要:

  • 录制声音或单词,并将它们作为对象存储在集合或映射中。
  • 当用户发音时,从地图中检索正确的对象。

另外一个不错的地方是能够区分不同的用户发音相同的单词。 所以,如果有三个人在发音,这个应用程序会:

  • 从声音集合中检索正确的对象,如上。
  • 将检索到的对象按说话人的口音或发音分组。

同样,最后一个特性并不是必需的,而是一个很好的特性。

显然,像Siri这样识别单词的应用程序本质上也做了类似的事情,当然是在一个更复杂的层面上。 但是,基本的功能能够由像我这样的凡人开发人员来实现吗?

谢谢


共1个答案

匿名用户

基本功能可以由像我这样的凡人开发人员来实现吗?

是的! 甚至没有第三方库。 自从iOS 13和macOS 10.15之后,苹果加入了MLSoundClassifier,有了它,你就可以录制多个样本,并对它们进行适当的标记,然后训练得到核心的ML模型。 此文件可以在其他macOS和iOS设备上重复使用。 然后SoundAnalysis将使用该模型来确定您输入其中的新声音的类别。 您甚至可以让用户给出检测精度的反馈&; 将新的声音添加到训练集中,从而进一步提高模型质量。