0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

智能语音的发展过程历史详细概述

mK5P_AItists 2018-04-22 11:36 次阅读

1952年,贝尔实验室(Bell Labs)制造一台6英尺高自动数字识别机“Audrey”,它可以识别数字0~9的发音,且准确度高达90%以上。并且它对熟人的精准度高,而对陌生人则偏低。

1956年,普林斯顿大学RCA实验室开发了单音节词识别系统,能够识别特定人的十个单音节词中所包含的不同音节。

1959年,MIT的林肯实验室开发了针对十个元音的非特定人语音识别系统。

二十世纪六十年代初,东京无线电实验室、京都大学和NEC实验室在语音识别领域取得了开拓性的进展,各自先后制作了能够进行语音识别的专用硬件

1964年的世界博览会上,IBM向世人展示了数字语音识别的“shoe box recognizer”。

二十世纪七十年代,语音识别的研究取得了突破性的进展,研究重心仍然是孤立词语语音识别。

1971年,美国国防部研究所(Darpa)赞助了五年期限的语音理解研究项目,希望将识别的单词量提升到1000以上。参与该项目的公司和学术机构包括IBM、卡内基梅隆大学(CMU)、斯坦福研究院。就这样,Harpy在CMU诞生了。不像之前的识别器,Harpy可以识别整句话。

二十世纪八十年代,NEC提出了二阶动态规划算法,Bell实验室提出了分层构造算法,以及帧同步分层构造算法等。同时,连接词和大词汇量连续语音的识别得到了较大发展,统计模型逐步取代模板匹配的方法,隐马尔科夫模型(HMM)成为语音识别系统的基础模型。

八十年代中期,IBM创造了一个语音控制的打字机—Tangora,能够处理大约20000单词。IBM的研究就是基于隐形马尔科夫链模型(hidden Markov model),在信号处理技术中加入统计信息。这种方法使得在给定音素情况下,很有可能预测下一个因素。

1984年,IBM发布的语音识别系统在5000个词汇量级上达到了95%的识别率。

1985年AT&T贝尔实验室建造了第一个智能麦克风系统,用来研究大室内空间的声源位置追踪问题。

1987年开始,国家开始执行963计划后,国家863智能计算机主题专家组为语音识别研究立项,每两年一次。

1987年12月,李开复开发出世界上第一个“非特定人连续语音识别系统”。

1988年,卡耐基梅隆大学结合矢量量化技术(VQ),用VQ/HMM方法开发了世界上第一个非特定人大词汇量连续语音识别系统SPHINX,能够识别包括997个词汇的4200个连续语句。

同年,清华大学和中科院声学所在大词库汉语听写机的研制上取得了突破性进展。

1990年,声龙发布了第一款消费级语音识别产品Dragon Dictate,价格高达9000美元。

1992年,IBM引入了它的第一个听写系统,称为“IBM Speech Server Series (ISSS)”。

1992年研发的Sphinx-II在同年美国国防部先进技术研究计划署(DARPA)资助的语音基准评测中获得了最高的识别准确度,这主要得益于其在高斯混合和马尔可夫状态层次上用栓连参数平衡了可训练性和高效性。

1995年,Windows 95上首次搭载微软SAPI,它使应用程序开发者能够在Windows上创建语音程序。

1995年,AT&T研究院的 Dave Ladd, Chris Ramming, Ken Rehor 以及 Curt Tuckey 在头脑风暴关于互联网会如何改变电话应用的时候,产生了一些新的想法:为什么不设计这样一个系统来运行一种可以解析某种语音标记语言的语音浏览器,用来把互联网的内容和服务提供到千家万户的电话上。于是,AT&T就开始“电话网络项目”(Phone Web Project)。之后,Chris继续留在AT&T,Ken去了朗讯,Dave和Curt去了摩托罗拉。(1999年初的时候,他们分别在各自的公司迈出了语音标记语言规范实质性的第一步。因为他们的密友关系,这几家公司合作成立了一个VoiceXML论坛组织,IBM也作为一个创始公司加入了进来。)

1997年IBM ViaVoice首个语音听写产品问世,你只要对着话筒喊出要输入的字符,它就会自动判断并且帮你输入文字。次年又开发出可以识别上海话、广东话和四川话等地方口音的语音识别系统ViaVoice’ 98。

1998年,微软在北京成立亚洲研究院,将汉语语音识别纳入重点研究方向之一。

2001年,比尔盖茨在美国消费电子展上展示了一台代号为MiPad的原型机。Mipad展现了语音多模态移动设备的愿景。

2002年,中科院自动化所及其所属模式科技公司推出了“天语”中文语音系列产品——Pattek ASR,结束了该领域一直被国外公司垄断的局面。

2002年,美国国防部先进技术研究计划署(DARPA)首先启动了EARS项目和TIDES 项目; 由于EARS项目过于敏感,EARS和TIDES两个项目合并为“全球自主语言开发”(Global Autonomous Language Exploitation,GALE)。GALE目标是应用计算机软件技术对海量规模的多语言语音和文本进行获取、转化、分析和翻译。

2006年,辛顿(Hinton)提出深度置信网络(DBN),促使了深度神经网络(Deep Neural Network,DNN)研究的复苏,掀起了深度学习的热潮。

2009年,辛顿以及他的学生默罕默德(D. Mohamed)将深度神经网络应用于语音的声学建模,在小词汇量连续语音识别数据库TIMIT上获得成功。

2009年微软Win7集成语音功能。

2010年Google Vioce Action支持语音操作与搜索。

2011年初,微软的DNN模型在语音搜索任务上获得成功。

同年科大讯飞将DNN 首次成功应用到中文语音识别领域,并通过语音云平台提供给广大开发者使用。

2011年10月,苹果iPhone 4S发布,个人手机助理Siri诞生,人机交互翻开新篇章。

2012年,科大讯飞在语音合成领域首创RBM技术。

2012年,谷歌的智能语音助手Google Now 的形式出现在众人面前,用在安卓 4.1 和 Nexus 手机上。

2013年,Google发布Google Glass,苹果也加大了对iWatch的研发投入,穿戴式语音交互设备成为新热点。

同年,科大讯飞在语种识别领域首创BN-ivec技术。

2014 年,思必驰推出首个可实时转录的语音输入板。

2014年11月,亚马逊智能音箱Echo发布。

2015 年,思必驰推出首个可智能打断纠正的语音技术。

2016年,Google Assistant伴随Google Home 正式亮相,抢夺亚马逊智能音箱市场。(亚马逊Echo在2016年的智能音箱市场占有率达到了巅峰的88%)

同年,科大讯飞上线DFCNN(深度全序列卷积神经网络,Deep Fully Convolutional Neural Network)语音识别系统。

同年11月,科大讯飞、搜狗、百度先后召开发布会,对外公布语音识别准确率均达到“97%”。

2017年3月,IBM结合了 LSTM 模型和带有 3 个强声学模型的 WaveNet 语言模型。“集中扩展深度学习应用技术终于取得了 5.5% 词错率的突破”。相对应的是去年5月的6.9%。

2017年8月,微软发布新的里程碑,通过改进微软语音识别系统中基于神经网络的听觉和语言模型,在去年基础上降低了大约12%的出错率,词错率为5.1%,声称超过专业速记员。相对应的是去年10月的5.9%,声称超过人类。

2017年12月,谷歌发布全新端到端语音识别系统(State-of-the-art Speech Recognition With Sequence-to-Sequence Models),词错率降低至5.6%。相对于强大的传统系统有 16% 的性能提升。

市场分析公司Canalys在2018年1月分布一份报告,其预测2018年将是普及智能音箱的“决定性一年”,相比全年出货量刚过3000万台的2017年,2018年智能音箱全球出货量预计将达到5630万台。

智能语音的发展过程历史详细概述

中投顾问发布的《2018-2022年中国智能语音行业深度调研及投资前景预测报告》显示我国智能语音市场整体处于启动期,智能车载,智能家居,智能可穿戴等垂直领域处于爆发前夜。

智能语音的发展过程历史详细概述

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 智能语音
    +关注

    关注

    10

    文章

    759

    浏览量

    48360

原文标题:智能语音简史:这场技术革命从哪开始?

文章出处:【微信号:AItists,微信公众号:人工智能学家】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    语音芯片究竟如何写入语音?思泽远科技为您详细解答

    在现代科技的发展中,语音芯片已经成为了我们生活中不可或缺的一部分。它可以被广泛应用于各种设备,如智能手机、平板电脑、智能家居等,为我们提供便捷的操作体验。那么,
    的头像 发表于 03-27 14:41 141次阅读
    <b class='flag-5'>语音</b>芯片究竟如何写入<b class='flag-5'>语音</b>?思泽远科技为您<b class='flag-5'>详细</b>解答

    思泽远语音芯片:让智能生活触手可及

    随着科技的飞速发展,人工智能已经逐渐走进我们的生活。在这个过程中,语音识别技术作为人工智能的重要分支,也得到了迅速的
    的头像 发表于 03-19 15:20 105次阅读
    思泽远<b class='flag-5'>语音</b>芯片:让<b class='flag-5'>智能</b>生活触手可及

    智能语音助手在医疗行业的应用与挑战

    一、引言 随着人工智能技术的不断发展智能语音助手在医疗行业的应用越来越广泛。语音数据集在医疗智能
    的头像 发表于 01-19 17:37 208次阅读

    智能语音助手在旅游行业的应用与挑战

    详细介绍语音数据集在旅游智能语音助手中的应用、面临的挑战以及未来的发展趋势。 二、语音数据集在
    的头像 发表于 01-19 17:30 302次阅读

    智能语音助手在教育行业的应用与挑战

    一、引言 随着人工智能技术的不断发展智能语音助手在教育行业的应用越来越广泛。语音数据集在教育智能
    的头像 发表于 01-19 17:21 276次阅读

    语音数据集在智能语音搜索中的应用与挑战

    挥着重要作用,为系统提供了丰富的语音数据和信息,提高了搜索的准确性和效率。本文将详细介绍语音数据集在智能语音搜索中的应用、面临的挑战以及未来
    的头像 发表于 01-18 15:09 201次阅读

    语音数据集:推动人工智能语音技术的关键要素

    、应用、挑战及发展前景进行简要概述。 一、语音数据集的重要性 语音数据集是人工智能语音技术的基石
    的头像 发表于 12-29 11:00 197次阅读

    语音数据集在智能医疗中的应用与挑战

    随着医疗技术的不断发展和人工智能的广泛应用,智能医疗已经成为现代医疗领域的重要方向。语音数据集在智能医疗中发挥着重要作用,为医生、护士、患者
    的头像 发表于 12-25 09:49 169次阅读

    语音数据集在智能家居中的应用与挑战

    随着科技的快速发展智能家居已经逐渐走进人们的生活。语音数据集在智能家居中发挥着重要的作用,为家居设备提供了语音交互的能力,提升了用户体验。
    的头像 发表于 12-25 09:48 250次阅读

    语音数据集在智能语音助手中的应用与挑战

    语音合成模型。本文将详细介绍语音数据集在智能语音助手中的应用、面临的挑战以及未来的发展趋势。
    的头像 发表于 12-14 15:07 340次阅读

    离线语音与IoT结合:智能家居发展新增长点

    围控制接口。该语音芯片支持2.4 GHz 802.11 b/g/n Wi-Fi及 BLE 5.1 无线通信协议,仅需少量电阻电容等外围器件就可以实现各类智能语音离在线产品硬件方案,性价比极高。 该方案
    发表于 10-17 11:06

    集成电路的历史发展过程

    集成电路产业是集成电路产业链各部分销售的整体市场,其中不仅包括IC市场,还包括IP市场、EDA市场、核芯片代工市场、封装市场,甚至延伸到设备和材料市场。
    的头像 发表于 06-30 10:54 7285次阅读

    ai智能语音机器人

    ai智能语音机器人,详细的功能介绍: 1. 智能语音识别,支持打断 在机器人通话过程中,可以
    发表于 06-26 11:58 656次阅读

    如何开发智能家居语音控制方案

    挑战与应用 随着科学技术和人工智能的不断发展智能生活已经深入生活各个方面,而AI语音控制作为智能化的前驱,其
    发表于 05-31 09:50

    AI安全发展概述

    人工智能自 1956 年诞生至今已有六十多年的历史,在其发展过程中,形成了符号主义、连接主义、行为主义等多个学派,取得了一些里程碑式研究成果。但是,受到各个阶段科学认知水平和信息处理能力限制,人工
    的头像 发表于 04-27 11:19 891次阅读
    AI安全<b class='flag-5'>发展</b><b class='flag-5'>概述</b>