可是要完成这么一个宏伟而艰ju而庞大的目标,工作量是可想而知的,但是,杨小乐坚信,如果只是从某一个项目开始进入人工智能的研发,然后在逐步完善、改进、进而形成成熟的理论基础,以此类推,当各个项目都完善后,再组装整合起来,再进行下一步的公关,成功是有希望的。
那么,从哪一个项目入手呢?
人类的大脑就像有程序一样,一直在不断循环地工作着,眼睛和耳朵,是我们判断周围环境的重要依靠,从而gen据不同环境的声音和图像,指挥shentizuo出不同的反应和动作。
因此,首先要涉及的项目肯定跟眼睛和耳朵有关,也就是视觉系统和听觉系统,前者目前摄像qi件还不成熟,暂时不用考虑。
目前最适合的就是听觉系统了。
那么,人类的听觉系统是怎么工作的呢?
当声波碰击倒耳廓,便会被反she1和减弱,这些改变提供了额外的讯息去帮助脑bu确定声音来临的方向。声波进入耳dao,一个看似很简单的guan,耳dao会放大在3至12千赫之间的声音。在耳dao末端的是鼓mo,它标记着中耳的起点。
在耳dao传送的声波会碰击到耳mo或鼓mo。这些波讯息通过一系列幼细的骨tou—锤骨锤、砧骨砧和镫骨镫在充满空气的中耳腔传送。这些小骨扮演着杠杆和电报jiao换qi的角色,把低压的鼓mo声音振动转换成高压声音振动在另一个,更小的薄mo叫卵圆窗。更高的压力是必要的,因为在卵圆窗之外的内耳包han的是分miye而不是空气。经过听骨链的声音并非平均地被放大。中耳肌rou的听觉反she1帮助保护内耳免受损伤。中耳仍然以波形式包han声音资讯,然后声音资讯会在耳蜗被转换成神经冲动。
内耳包han耳蜗和几个非听觉的结构。耳蜗由三个充满淋baye的空腔组成,并支持分miye波被压力驱使横跨基底mo分离两bu分。明显地,一bu分叫耳蜗guan或[蜗guan]],包han一zhong与内淋ba通常在细胞里面的成分相似的细胞外ye。柯di氏qi形成一缎知觉上pi,它纵chang向下整个耳蜗。柯di氏qi的mao细胞把分miye波变换成神经信号。十亿gen神经的行程的第一步就在这里开始,从这里进一步带到一系列广泛的听觉反应和知觉。
mao细胞是zhu状的细胞,每个上面都有100-200束特有的纤mao。这些纤mao是听力的机械感应qi。轻微静止在最chang的纤mao上面的是覆mo,它以每个声音周期来前后移动,倾斜纤mao,并允许电liu进入mao细胞。mao细胞,就像眼睛的光感受qi,它显示的不是其它神经元的动作电位的表现特征,而是其等级反应。这些被等级反应不被动作电位的“所有或没有任何”特点限制。这时,你也许问多少摆动的tou发会chu2发在mo潜力上的差别。当前的模型是,纤mao以“ding尖连接”连接一纤maoding尖到另一个一纤maoding尖的结构来互相依附着另一个。伸展和压缩ding尖连接会打开一个离子通dao和导致在mao细胞上产生感受qi电位。
耳蜗里,mao细胞远比传入神经纤维少。受神经支pei耳蜗的神经是前ting耳蜗神经,或脑神经viii。神经细胞的树状突受神经支pei耳蜗mao细胞。神经传送ti本shen被认为是谷氨酸。在神经原突chu2前的会合chu1,有一个分明\&神经原突chu2前的\&密集ti\&或带。这密集ti被突chu2神经泡围绕,并被认为帮助快速释放神经传送ti。由脑bu到耳蜗的传出投she1也充当着声音感知的角色。传出突chu2发生在外mao细胞的和内mao细胞之下的输入树状突。
这些声音的资讯,现在重新被编码,透过bu分的脑干例如,耳蜗he和下丘沿着听觉神经移下,进一步在各个小站被chu1理。资讯最终到达丘脑,并且从那里它被传递到脑pi层。
那么,作为仿生学的人工智能,就需要用电子元件来实现声音的采集、传输、编码、转换和译码,然后以显示屏来代替大脑的感知来显示收集到的声音所代表的文字或物ti。
另外,代替大脑感知的还应该有一个芯片或芯片组,来分析和chu1理所听到的声音中,那些是需要过滤掉的,哪些是需要送到下一个bu件进行jutichu1理的。
如果,杨小乐能将这个听觉系统设计得如同设想的一样,那么就标志着他已经踏进了人工智能的殿堂,因为,语言就是一个ju备模糊和不确定、并且阻扰机qi智能化的因素之一。
就比如,我们平常聊天时一样,我们把别人说的话经耳朵送入大脑后,经大脑分析和思考之后,确定哪些词我们需要注意、并回答,哪些可以忽略。
所以,如何将人说的话,通过声电转换,再编码成一定格式的数据liu,然后在芯片或芯片组中译码还原,并与数据库中的数据进行比对,提取出对应的字库,一路送到显示屏进行显示,另一路送到逻辑分析电路,对这句句话进行分析,以判断是否需要对这句话进行chu1理。
那么,问题就来了,声电转换之后,编成什么样的格式?芯片或芯片组能用现成的cpu芯片吗?需要对应的cao2作系统吗?数据库怎么建立?字库是ying件化还是ruan件化?怎么设计逻辑分析电路?是用cpu加cao2作系统还是另外设计?
杨小乐躺在床上,越想越tou疼,越想越是勇气不足。
前世的机qi人听觉系统主要是对人的声音进行语音识别并zuo出判断,然后输出相应的动作指令控制toubu和手臂的动作,传统的机qi人听觉系统一般是以pc机为平台对机qi人进行控制,其特点是用一台计算机作为机qi人的信息chu1理he心通过接口电路对机qi人进行控制,虽然chu1理能力比较强大,语音库比较完备,系统更新以及功能拓展比较容易,但是比较笨重,不利于机qi人的小型化和复杂条件下进行工作,此外功耗大、成本高。
小型化和复杂条件下工作的机qi人的听觉系统,在前世基本上都是由于微型chu1理qixing能的提高促进了机qi人的迅速发展,特别是大存储量及高速运算dspchu1理芯片的出现使机qi人在脱机状态下,独立完成复杂的语音信号chu1理和动作指令成为可能。
因此数字信号chu1理dsp的出现,简化了机qi人听觉系统的电路结构,只有四个组件就构成了听觉系统:麦克风、语音chu1理芯片、dsp芯片和数据库fsh芯片,而听觉系统的大脑就是fpga芯片。
也就是说,听觉系统的系统ying件分为语音信号的采集和播放,基于dsp的语音识别,fpga动作指令控制、步进电机及其驱动、dsp外接fsh也叫闪存闪存芯片,jtag口仿真调试和键盘控制几个bu分。
而工作liu程是麦克风将人的语音信号转化为模拟信号,在经过音频芯片量化转化成数字信号输入dsp.dsp完成识别后,输出动作指令。
fpgagen据dsp输入的动作指令产生正确的正反转信号和准确的脉冲给步进电机驱动芯片,驱动芯片提供步进电机的驱动信号,控制步进电机的转动。片外fsh用于存储系统程序和语音库并完成系统的上电加载。jtag口用于与pc机进行联机在线仿真,键盘则用于参数调整和功能的切换。
这里的dsp芯片主要就是作为语音识别chu1理qi,它ju有较快的chu1理速度,可以使机qi人在脱机状态下,独立完成复杂的语音信号chu1理和动作指令控制。
而fpga系统的开发降低了时序控制电路和逻辑电路在pcb板所占的面积,使机qi人的\&大脑\&的语音chu1理bu分实现了微型化、低功耗。
因此,一个ti积小、低功耗、高速度能完成特定范围语音识别和动作指令的机qi人系统的研制ju有很大的实际意义。
而dsp芯片在前世最早出现于1978年,而在dsp出现之前数字信号chu1理只能依靠微chu1理qi来完成。
但由于微chu1理qi较低的chu1理速度不快,gen本就无法满足越来越大的信息量的高速实时要求,因此应用更快更高效的信号chu1理方式成了日渐迫切的社会需求。
到了70年代,有人提出了dsp的理论和算法基础,但那时的dsp仅仅停留在教科书上,即使是研制出来的dsp系统也是由分立元件组成的,其应用领域仅局限于军事、航空航天bu门。
一般认为,世界上第一个单片dsp芯片是1978年ami公司发布的s2811。1979年美国intel公司发布的商用可编程qi件2920是dsp芯片的一个主要里程碑。这两zhong芯片内bu都没有现代dsp芯片所必须有的单周期乘法qi。1980年,日本nec公司推出的mpd7720是第一个ju有ying件乘法qi的商用dsp芯片,从而被认为是第一块单片dspqi件。
那么,从哪一个项目入手呢?
人类的大脑就像有程序一样,一直在不断循环地工作着,眼睛和耳朵,是我们判断周围环境的重要依靠,从而gen据不同环境的声音和图像,指挥shentizuo出不同的反应和动作。
因此,首先要涉及的项目肯定跟眼睛和耳朵有关,也就是视觉系统和听觉系统,前者目前摄像qi件还不成熟,暂时不用考虑。
目前最适合的就是听觉系统了。
那么,人类的听觉系统是怎么工作的呢?
当声波碰击倒耳廓,便会被反she1和减弱,这些改变提供了额外的讯息去帮助脑bu确定声音来临的方向。声波进入耳dao,一个看似很简单的guan,耳dao会放大在3至12千赫之间的声音。在耳dao末端的是鼓mo,它标记着中耳的起点。
在耳dao传送的声波会碰击到耳mo或鼓mo。这些波讯息通过一系列幼细的骨tou—锤骨锤、砧骨砧和镫骨镫在充满空气的中耳腔传送。这些小骨扮演着杠杆和电报jiao换qi的角色,把低压的鼓mo声音振动转换成高压声音振动在另一个,更小的薄mo叫卵圆窗。更高的压力是必要的,因为在卵圆窗之外的内耳包han的是分miye而不是空气。经过听骨链的声音并非平均地被放大。中耳肌rou的听觉反she1帮助保护内耳免受损伤。中耳仍然以波形式包han声音资讯,然后声音资讯会在耳蜗被转换成神经冲动。
内耳包han耳蜗和几个非听觉的结构。耳蜗由三个充满淋baye的空腔组成,并支持分miye波被压力驱使横跨基底mo分离两bu分。明显地,一bu分叫耳蜗guan或[蜗guan]],包han一zhong与内淋ba通常在细胞里面的成分相似的细胞外ye。柯di氏qi形成一缎知觉上pi,它纵chang向下整个耳蜗。柯di氏qi的mao细胞把分miye波变换成神经信号。十亿gen神经的行程的第一步就在这里开始,从这里进一步带到一系列广泛的听觉反应和知觉。
mao细胞是zhu状的细胞,每个上面都有100-200束特有的纤mao。这些纤mao是听力的机械感应qi。轻微静止在最chang的纤mao上面的是覆mo,它以每个声音周期来前后移动,倾斜纤mao,并允许电liu进入mao细胞。mao细胞,就像眼睛的光感受qi,它显示的不是其它神经元的动作电位的表现特征,而是其等级反应。这些被等级反应不被动作电位的“所有或没有任何”特点限制。这时,你也许问多少摆动的tou发会chu2发在mo潜力上的差别。当前的模型是,纤mao以“ding尖连接”连接一纤maoding尖到另一个一纤maoding尖的结构来互相依附着另一个。伸展和压缩ding尖连接会打开一个离子通dao和导致在mao细胞上产生感受qi电位。
耳蜗里,mao细胞远比传入神经纤维少。受神经支pei耳蜗的神经是前ting耳蜗神经,或脑神经viii。神经细胞的树状突受神经支pei耳蜗mao细胞。神经传送ti本shen被认为是谷氨酸。在神经原突chu2前的会合chu1,有一个分明\&神经原突chu2前的\&密集ti\&或带。这密集ti被突chu2神经泡围绕,并被认为帮助快速释放神经传送ti。由脑bu到耳蜗的传出投she1也充当着声音感知的角色。传出突chu2发生在外mao细胞的和内mao细胞之下的输入树状突。
这些声音的资讯,现在重新被编码,透过bu分的脑干例如,耳蜗he和下丘沿着听觉神经移下,进一步在各个小站被chu1理。资讯最终到达丘脑,并且从那里它被传递到脑pi层。
那么,作为仿生学的人工智能,就需要用电子元件来实现声音的采集、传输、编码、转换和译码,然后以显示屏来代替大脑的感知来显示收集到的声音所代表的文字或物ti。
另外,代替大脑感知的还应该有一个芯片或芯片组,来分析和chu1理所听到的声音中,那些是需要过滤掉的,哪些是需要送到下一个bu件进行jutichu1理的。
如果,杨小乐能将这个听觉系统设计得如同设想的一样,那么就标志着他已经踏进了人工智能的殿堂,因为,语言就是一个ju备模糊和不确定、并且阻扰机qi智能化的因素之一。
就比如,我们平常聊天时一样,我们把别人说的话经耳朵送入大脑后,经大脑分析和思考之后,确定哪些词我们需要注意、并回答,哪些可以忽略。
所以,如何将人说的话,通过声电转换,再编码成一定格式的数据liu,然后在芯片或芯片组中译码还原,并与数据库中的数据进行比对,提取出对应的字库,一路送到显示屏进行显示,另一路送到逻辑分析电路,对这句句话进行分析,以判断是否需要对这句话进行chu1理。
那么,问题就来了,声电转换之后,编成什么样的格式?芯片或芯片组能用现成的cpu芯片吗?需要对应的cao2作系统吗?数据库怎么建立?字库是ying件化还是ruan件化?怎么设计逻辑分析电路?是用cpu加cao2作系统还是另外设计?
杨小乐躺在床上,越想越tou疼,越想越是勇气不足。
前世的机qi人听觉系统主要是对人的声音进行语音识别并zuo出判断,然后输出相应的动作指令控制toubu和手臂的动作,传统的机qi人听觉系统一般是以pc机为平台对机qi人进行控制,其特点是用一台计算机作为机qi人的信息chu1理he心通过接口电路对机qi人进行控制,虽然chu1理能力比较强大,语音库比较完备,系统更新以及功能拓展比较容易,但是比较笨重,不利于机qi人的小型化和复杂条件下进行工作,此外功耗大、成本高。
小型化和复杂条件下工作的机qi人的听觉系统,在前世基本上都是由于微型chu1理qixing能的提高促进了机qi人的迅速发展,特别是大存储量及高速运算dspchu1理芯片的出现使机qi人在脱机状态下,独立完成复杂的语音信号chu1理和动作指令成为可能。
因此数字信号chu1理dsp的出现,简化了机qi人听觉系统的电路结构,只有四个组件就构成了听觉系统:麦克风、语音chu1理芯片、dsp芯片和数据库fsh芯片,而听觉系统的大脑就是fpga芯片。
也就是说,听觉系统的系统ying件分为语音信号的采集和播放,基于dsp的语音识别,fpga动作指令控制、步进电机及其驱动、dsp外接fsh也叫闪存闪存芯片,jtag口仿真调试和键盘控制几个bu分。
而工作liu程是麦克风将人的语音信号转化为模拟信号,在经过音频芯片量化转化成数字信号输入dsp.dsp完成识别后,输出动作指令。
fpgagen据dsp输入的动作指令产生正确的正反转信号和准确的脉冲给步进电机驱动芯片,驱动芯片提供步进电机的驱动信号,控制步进电机的转动。片外fsh用于存储系统程序和语音库并完成系统的上电加载。jtag口用于与pc机进行联机在线仿真,键盘则用于参数调整和功能的切换。
这里的dsp芯片主要就是作为语音识别chu1理qi,它ju有较快的chu1理速度,可以使机qi人在脱机状态下,独立完成复杂的语音信号chu1理和动作指令控制。
而fpga系统的开发降低了时序控制电路和逻辑电路在pcb板所占的面积,使机qi人的\&大脑\&的语音chu1理bu分实现了微型化、低功耗。
因此,一个ti积小、低功耗、高速度能完成特定范围语音识别和动作指令的机qi人系统的研制ju有很大的实际意义。
而dsp芯片在前世最早出现于1978年,而在dsp出现之前数字信号chu1理只能依靠微chu1理qi来完成。
但由于微chu1理qi较低的chu1理速度不快,gen本就无法满足越来越大的信息量的高速实时要求,因此应用更快更高效的信号chu1理方式成了日渐迫切的社会需求。
到了70年代,有人提出了dsp的理论和算法基础,但那时的dsp仅仅停留在教科书上,即使是研制出来的dsp系统也是由分立元件组成的,其应用领域仅局限于军事、航空航天bu门。
一般认为,世界上第一个单片dsp芯片是1978年ami公司发布的s2811。1979年美国intel公司发布的商用可编程qi件2920是dsp芯片的一个主要里程碑。这两zhong芯片内bu都没有现代dsp芯片所必须有的单周期乘法qi。1980年,日本nec公司推出的mpd7720是第一个ju有ying件乘法qi的商用dsp芯片,从而被认为是第一块单片dspqi件。