我有一个iOS应用程序的想法。 在学习开发框架之前,要检查一下基本概念是否可行。 为了工作,这款应用程序需要存储一组声音,这些声音可以与用户发出的声音相匹配。 虽然这些声音不是规则的单词,但对单词的类比是有效的。
因此,应用程序需要:
另外一个不错的地方是能够区分不同的用户发音相同的单词。 所以,如果有三个人在发音,这个应用程序会:
同样,最后一个特性并不是必需的,而是一个很好的特性。
显然,像Siri这样识别单词的应用程序本质上也做了类似的事情,当然是在一个更复杂的层面上。 但是,基本的功能能够由像我这样的凡人开发人员来实现吗?
谢谢
基本功能可以由像我这样的凡人开发人员来实现吗?
是的! 甚至没有第三方库。 自从iOS 13和macOS 10.15之后,苹果加入了MLSoundClassifier,有了它,你就可以录制多个样本,并对它们进行适当的标记,然后训练得到核心的ML模型。 此文件可以在其他macOS和iOS设备上重复使用。 然后SoundAnalysis将使用该模型来确定您输入其中的新声音的类别。 您甚至可以让用户给出检测精度的反馈&; 将新的声音添加到训练集中,从而进一步提高模型质量。