CN113196803A 助听器系统和方法 (奥康科技有限公司)_第1页
CN113196803A 助听器系统和方法 (奥康科技有限公司)_第2页
CN113196803A 助听器系统和方法 (奥康科技有限公司)_第3页
CN113196803A 助听器系统和方法 (奥康科技有限公司)_第4页
CN113196803A 助听器系统和方法 (奥康科技有限公司)_第5页
已阅读5页,还剩357页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

PCT/IB2019/001132201WO2020/079485EN2020.04.代表由至少一个麦克风从用户的环境接收的声麦克风从与用户的注视方向相关联的区域接收21.一种用于选择性地放大从检测到的助听器系统的用户的注视方向发出的声音的助引起对由至少一个麦克风从与用户的注视方向相关联的区域接收的至少一个音频信使得至少一个调节后的音频信号传输到被配置为向用户的耳朵提供声音的听力接口的至少一个中检测到用户的下巴的表示以及确定所述下巴相对于与可穿戴照相机相关联至少一个麦克风从与用户的注视方向相关联的区域以外的方向接收的其他音频信号放大3少一个麦克风从与用户的注视方向相关联的区域21.根据权利要求1所述的系统,其中,所述22.一种用于选择性地放大从检测到的助听器系统用户的注视方向发出的声音的方接收代表由至少一个麦克风用户的环境从用户的环境引起对由至少一个麦克风从与用户的注视方向相关联的区域接收到的至少一个音频使得至少一个调节后的音频信号传输到被配置为向用户的耳朵提供声音的听力接口的至少一个中检测到用户的下巴的表示以及确定所述下巴相对于与可穿戴照相机相关联由至少一个麦克风从与用户的注视方向相关联的区域以外的方向接收的其他音频信号放至少一个麦克风从与用户的注视方向相关联的区域以外的方向接收的一个或多个音频信29.根据权利要求22所述的方法,其中,所述听力接口设备包括与耳机相关联的扬声31.一种用于选择性地放大与被辨识的个体的语音相关联的音频信号的助听器系统,4在所述多个图像中的至少一个图像中识别至少引起对由至少一个麦克风从与所述至少一个被辨识的个体相关联的区域接收的至少使得至少一个调节后的音频信号传输到被配置为向用户的耳朵提供声音的听力接口壳中的发射器和所述第二外壳中的接收器之间的述被辨识的个体相关联的区域之外的方向接收的其他音频信号放大所述至少一个音频信44.根据权利要求31所述的系统,其中,所述听力接口设备包括与耳机相关联的扬声5中的至少一个图像中表示的个体相关联的一个或多个检测到的面部特征来确定所述个体图像来确定如何基于所述至少一个被辨识的个体相对于所述用户的方向来选择性地调节图像来确定如何基于所述至少一个被辨识的个体与所述用户之间的距离来选择性地调节图像来确定如何基于所述至少一个被辨识的个体的身份来选择性地调节与所述至少一个图像来确定如何基于其他个体对所述至少一个被辨识的个体的行为来选择性地调节与所图像来确定所述至少一个被辨识的个体是在对所述用户讲话还是对另一个个体讲话,其与所述至少一个被辨识的个体相关联的区域之外的方向接收的其他音频信号放大所述至对于从与所述至少一个被辨识的个体相关联的区域之外的方向接收的其他音频信号衰减56.一种用于选择性地放大与被辨识的个体的语音相关联的音频信号的方法,所述方在所述多个图像中的至少一个图像中识别至少接收代表由至少一个麦克风从所述用户的环境引起对由至少一个麦克风从与所述至少一个被辨识的个体相关联的区域接收的至少使得至少一个调节后的音频信号传输到被配置为向用户的耳朵提供声音的听力接口657.一种用于选择性地传输与被辨识的用户的语音相关联的音频信号的语音传输系基于对接收到的音频信号的分析,识别代表所述用户使得代表所述用户的被辨识的语音的一个或多个语音音频信号传输到远程定位设备;和60.一种用于选择性地传输与被辨识的用户的语音相关联的音频信号的方法,所述方基于对接收到的音频信号的分析,识别代表所述用户使得代表所述用户的被辨识的语音的一个或多个语音音频信号传输到远程定位设备;和61.一种用于基于跟踪的嘴唇运动选择性放大音频信号的助听器系统,所述助听器系基于对由至少一个麦克风捕获的声音的分析,识别与基于由所述至少一个处理器确定所述第一音频信号与所识别的和个体的嘴相关联的使得选择性调节后的第一音频信号传输到被配置成向用户的耳朵提供声音的听力接7壳中的发射器和所述第二外壳中的接收器之间的68.根据权利要求61所述的系统,其中,所述听力接口设备包括与耳机相关联的扬声少一个处理器确定所述第二音频信号不与所识别的和个体的嘴相关联的至少一个嘴唇运所述至少一个处理器还被编程为基于来自所识别的嘴唇运频信号的选择性调节过渡到引起与所述第二个体相关联的音基于对由至少一个麦克风捕获的声音的分析,识别与基于确定所述第一音频信号与所识别的和个体的嘴相关联的至少一个嘴唇运动相关8使得选择性调节后的第一音频信号传输到被配置为向所述用户的耳朵提供声音的听81.根据权利要求77所述的方法,其中,所述听力接口设备包括与耳机相关联的扬声83.根据权利要求77所述的方法,还包括基于确定所述第二音频信号不与所识别的和所述方法还包括基于来自所识别的嘴唇运动的、所述第检测指示所述第一个体和所述第二个体之间的语音放当所述至少一个放大标准指示所述第一个体具有高于所述第二个体的语音放大优先当所述至少一个放大标准指示所述第二个体具有高于所述第一个体的语音放大优先使得选择性放大的第一音频信号或第二音频信号传输到配置为向用户的耳朵提供声9公共外壳中的发射器和所述第二外壳中的接收所述多个图像中的至少一个图像中检测所述用户的下巴的表示并基于检测到的与所述用到所述第一个体正朝所述用户的方向注视并且检测到所述第二个体正朝远离所述用户的到所述第二个体正朝所述用户的方向注视并且检测到所述第一个体正朝远离所述用户的得所述第一音频信号而不是所述第二音频信号传输到被配置为向所述用户的耳朵提供声音的听力接口设备,直到在与第一个体的语音相关联的讲话中检测到大于预定长度的停述讲话连续性指示已经开始讲话但在另一个说话者已经开始讲107.根据权利要求90所述的助听器系统,其确定的与所述用户的关系的接近程度来确定所述第一个体是否具有高于所述第二个体的确定的关系的层次结构来确定所述第一个体是否具有高于所述第二个体的语音放大优先检测指示所述第一个体和所述第二个体之间的语音放大优先当所述至少一个放大标准指示所述第一个体具有高于所述第二个体的语音放大优先当所述至少一个放大标准指示所述第二个体具有高于所述第一个体的语音放大优先使得选择性放大后的第一音频信号或第二音频信号传输到被配置为向所述用户的耳检测所述用户的下巴的表示并且基于检测到的与所述用户的下巴相关联的方向确定所述检测指示所述第一个体和所述第二个体之间的语音放当所述至少一个放大标准指示所述第一个体具有高于所述第二个体的语音放大优先当所述至少一个放大标准指示所述第二个体具有高于所述第一个体的语音放大优先使得选择性放大后的第一音频信号或第二音频信号传输到被配置为向所述用户的耳基于对所述多个图像的分析,确定所述第一音频信号不基于对所述多个图像的分析,确定所述第二音频信号与使得根据所述第一放大所放大的第一音频信号和根据所述第二放大所放大的第二音频信号中的至少一个传输到被配置成向用户的耳朵117.根据权利要求116所述的系统,其中,所述至少一个处理器包括在所述公共外壳外壳中的发射器和所述第二外壳中的接收器个体中的任何一个个体的语音相关联是通过分析检测到的与所述一个或多个个体的嘴相关联的嘴唇运动并确定所述第一音频信号不对应于检测到的与所述一个或多个个体的嘴体中的一个个体的语音相关联是通过分析检测到的与所述一个或多个个体的嘴相关联的嘴唇运动并确定所述第二音频信号对应于检测到的与所述一个或多个个体中的一个个体基于对所述第一音频信号和所述第二音频信号的分析,相对于代表来自个体以外的源的声音的其他使得选择性放大后的第一音频信号或选择性放大后的第二音频信号中的至少一个传运动并确定所述第一音频信号对应于检测到的与个体的嘴相关联的嘴唇运动来确定所述基于对所述多个图像的分析,确定所述音频信号不与基于对所述音频信号的分析,确定所述音频信号与所基于所述音频信号与所述音频信号与公告相关的至少使得选择性放大的音频信号传输到被配置成向所述用户的耳朵提供声音的听力接口储在与所述用户相关联的移动设备上的日历条目如果确定所述至少一个个体是被辨识的个体使得至少一个调节后的音频信号传输到被配置为向所述用户的耳朵提供声音的听力定基于与基于对所述多个图像中的至少一个图像的分析检测到的至少一个个体相关联的定基于对从所述麦克风接收的至少一个音频信号的分析以及至少一个音频信号中的与所述被辨识的个体相关联的一个或多个预定声纹多个图像中的至少一个图像中检测到的与所述用户163.根据权利要求151所述的系统,其中基于所述用户的嘴唇运动确定所述至少一个164.根据权利要求163所述的系统,还基于检测到的嘴唇运动是否与与所述至少一个169.根据权利要求168所述的系统,其中,所述至少一个处理器包括在所述公共外壳外壳中的发射器和所述第二外壳中的接收器处理器被配置为放弃在所述数据库中存储与与在所述多个图像中识别的一个或多个特定据库中存储与与被确定为与一个或多个预定组相关联的一个或多个特定个体的相遇有关182.根据权利要求177所述的系统,其中,所述一个或多个预定组包括办公室工作人如果所述至少一个个体被确定为被辨识的个体使调节后的音频信号传输到被配置成向所述用户的耳联的确定基于确定基于对由所述照相机捕获的多个图像中的一个或多个的分析检测到的185.根据权利要求184所述的系统,还基于与检测到的个体相关联的一个或多个检测定基于对从所述麦克风接收的音频信号的分析以及音频信号中的与所述被辨识的个体相195.根据权利要求194所述的系统,其中,所述至少一个处理器包括在所述公共外壳外壳中的发射器和所述第二外壳中的接收器基于对所述音频信号的分析,检测与第一时间段相关联的第一基于对所述音频信号的分析,检测与第二时间段相关联的第二选择性地调节所述第一音频信号和所述第二音频信号,使得调节后的第一音频信号传输到配置为向用户的耳述第二音频信号传输到配置为向用户的耳朵214.根据权利要求213所述的系统,其中,所述至少一个处理器包括在所述公共外壳外壳中的发射器和所述第二外壳中的接收器所述第二音频信号的选择性调节基于与所述两个或更多个个体中的至少一个个体的身份在存储器中转录和存储对应于与所述第一个体的是否指向所述用户的确定基于所述用户的检测到的注视方向或所述第一个体的检测到的于在所述多个图像的至少一个图像中检测所述第一个体的一个或多个眼睛以及基于一个在所述存储器中转录和存储对应于与第二个体的是否指向所述第一个体的确定基于在所述第二个体的讲话中检测与所述第一个体相关联所述第一音频信号并使得放大后的第一音频信号传输到被配置成向所述用户的耳朵提供239.根据权利要求237所述的助听器系统,其中,所述听力接口设备包括骨传导麦克述公共外壳中的发射器和所述第二外壳中的接收器之间的无线链路接收所述多个捕获图245.根据权利要求233所述的助听器系统,其中,所述至少一个麦克风包括定向麦克246.根据权利要求233所述的助听器系统,其中,所述至少一个麦克风包括麦克风阵248.根据权利要求247所述的助听器系统,其中,所述显示器与配对的移动设备相关253.一种非暂时性计算机可读存储介质254.一种用于选择性地调节与被辨识的对象相关联接收由可穿戴麦克风获取的音频信号,其中基于检索到的信息,引起对所述可穿戴麦克风使得至少一个调节后的音频信号传输到被配置为向所述用户的耳朵提供声音的听力基于与所述特定发声对象的身份相关联的预定设置引起至少触发确定的音频指纹与所述参考音频指纹集之间的比较,以识别所述特定的发声对基于与所述特定发声对象的身份相关的预定设置引起至少一确定特定参考音频指纹与所述确定的音频指纹之间的相似度水平的至少一个指示符;基于将所述相似度水平的至少一个指示符与预定阈值确定特定参考音频指纹与所述确定的音频指纹之间的相似度水平的至少一个指示符;基于将所述相似度水平的至少一个指示符与预定阈值相比个体的语音从通信设备投射的实例确定的所述特特定发声对象的类型引起所述至少一个音频接收到的音频信号以隔离被确定为与所述用户的环境中的另一发声对象相关联的音频组,索到的与所述第一个体相关联的信息引起与所述第一个体相关联的音频信号的第一选择使用所述多个发声对象的音频指纹来确定与所述多个发声对象中的每一个相关联的基于所确定的与所述多个发声对象中的每一个相关联于所确定的与背景噪声不相关联的第二音频流选择性地衰减所确定的与背景噪声相关联266.一种用于选择性地调节与被辨识的对象相关联的音频信号的方法,所述方法包接收由可穿戴麦克风获取的音频信号,其中分析接收到的音频信号以隔离被确定为与所述用户的环境中的特定发声对象相关联使用所述确定的音频指纹从数据库检索与所述基于检索到的信息,引起所述可穿戴麦克风从与所述使得至少一个调节后的音频信号传输到设备被配置为向所述用户的耳朵提供声音的以高于在音频层次结构上低于所述特定发声对象的另一发声对象的电平引起与所述特定以低于在音频层次结构上高于所述特定发声对象的另一发声对象的电平引起与所述特定使得一组调节后的音频信号在所述可穿戴麦克风获取所述至少一个音频信号之后不接收器,其被配置为接收至少一个音频信号,其中所述276.根据权利要求274所述的听力接口设备,其中,所述电声换能器包括骨传导麦克使用所确定的所述发声对象的身份从数据库检索与接收由可穿戴麦克风获取的至少一个音频信号,其中使得所述至少一个调节后的音频信号传输到被配置为向所述用户的耳朵提供声音的在一个时间段期间内接收由可穿戴照相机用户的环境从用接收代表由可穿戴麦克风在所述时间段期间内获取的声确定所述声音中的至少一个是由在所述用户的环境中但在可穿戴照相机的视野之外基于检索到的信息,在所述时间段期间内引起所述可穿使得调节后的音频信号传输到被配置成向所述用户的耳279.根据权利要求278所述的助听器系统,其中,所述至少一个声音与口语单词相关别的所述口语单词中的至少一个来确定所述至少一的选择性调节包括基于重要性等级的确定放基于所述多个远程发声对象的相应重要性等级引起与所述多个远程发声对象相关联在一个时间段期间内接收由可穿戴照相机用户的环境从用在所述时间段期间内接收代表由可穿戴麦克风从所述用户的环境获取的声音的音频确定所述声音中的至少一个是响应于来自在所述用户的环境中但在可穿戴照相机的基于检索到的信息,在所述时间段期间内引起所述可穿使得调节后的音频信号传输到被配置为向所述用户的耳基于从在所述时间段之前捕获的至少一个图像的分析中导出的上下文来确定与所述基于从代表在所述时间段之前获取的声音的音频信号导出的上下文来确定与所述至使得调节后的音频信号在所述可穿戴麦克风获取所述至少一个音频信号之后不到293.根据权利要求292所述的方法,其中对所述声音中的至少一个的分析包括识别与基于与所述用户相关联的日历数据的自动检查来确定297.根据权利要求295所述的听力接口设备,其中,所述电声换能器包括骨传导麦克至少一个存储设备,被配置为存储与多个对象接收由可穿戴照相机捕获的多个图像,其中所述多个图像鉴于所述一个或多个视觉特性,在所述数据库接收由可穿戴麦克风获取的音频信号,其中所述音频信使得至少一个调节后的音频信号传输到被配置为向所述用户的耳朵提供声音的听力避免改变与所述第二发声对象相关联的第二音频访问对应于多个对象的参考视觉签名和参考语接收由可穿戴照相机捕获的多个图像,其中所述多个图像中的至少一个描绘所述基于鉴于所述一个或多个视觉特性对所述数据库的检查,识别所述至少一个发声对接收由可穿戴麦克风获取的音频信号,其中所述音频信317.一种存储在非暂时性计算机可读介访问对应于多个对象的参考视觉签名和参考语接收由可穿戴照相机捕获的多个图像,其中所述多个图像基于鉴于所述一个或多个视觉特性对所述数据库的检查,识别所述至少一个发声对接收由可穿戴麦克风获取的音频信号,其中所述音频信接收由可穿戴麦克风获取的音频信号,其中所述音频信号代表从所述对象发出的声基于检索到的信息,引起所述可穿戴麦克风从与所述使得至少一个调节后的音频信号传输到被配置为向所述用户的耳朵提供声音的听力风包括在第一外壳中,并且所述至少一个处理器包括在与所述第一外壳分离的第二外壳所述至少一个调节后的音频信号在所述可穿戴麦克风获取所述至少一个音频信号之后不少一个发声对象的类型引起所述至少一个音基于对所述多个图像的分析,识别与所述多个图像中的一且响应于第二检测到的上下文情况引起与来自特定对象的音频信号的不同于所述第一选325.根据权利要求318所述的助听器系统,其中,所述至少一个发声对象包括多个个信息引起与所述第二个体相关联的音频信号的不同于所述第一选择性调节的第二选择性326.根据权利要求318所述的助听器系统,其中,所述至少一个发声对象包括多个个在所述多个图像中识别与所述用户交谈的第一个体和与327.根据权利要求318所述的助听器系统,其中,所述至少一个发声对象包括多个个接收由可穿戴照相机捕获的多个图像,其中所述多个图像接收由可穿戴麦克风获取的音频信号,其中所述音频信号代表从所述对象发出的声基于检索到的信息,引起所述可穿戴麦克风从与所述使得至少一个调节后的音频信号传输到被配置为向所述用户的耳朵提供声音的听力基于与所述至少一个发声对象的身份相关联的预定设置引起所述至少一个音频信号使用所述多个发声对象的声纹来分离由第一发声对象生成的声音和由第二发声对象将个体生成的声音与所述背景噪声分离,其中引起所述相对于与个体相关联的音频信号衰减与生成背对由从与不同类型的发声对象相关联的不同区域接收的音频信放大从与所述第二个体相关联的区域接收的音频信号接收器,被配置为接收至少一个音频信号,其中所述至提交的美国临时专利申请第62/808,317号;和2019年6月5日提交的美国临时专利申请号[0003]本公开总体上涉及用于捕获和处理来自用户的环境的图像和音频并使用从捕获[0006]与本公开一致的实施例提供了用于自动捕获和处理来自用户的环境的图像和音视方向发出的声音。该系统可以包括被配置为从用户的环境捕获多个图像的可穿戴照相起对由至少一个麦克风从与用户的注视方向相关联的区域接收的至少一个音频信号的选收由照相机捕获的多个图像,在多个图像的至少一个中识别至少一个被辨识的个体的表少一个调节后的音频信号传输到被配置为向用户的耳朵且阻止向远程定位设备传输不同于代表用户的被辨识的语音的一个或多个语音音频信号[0013]在一个实施例中,助听器系统可以基于跟踪的嘴唇运动选择性地放大音频境捕获多个图像的可穿戴照相机,以及被配置为从用户的环境捕获声音的至少一个麦克个处理器还可以被编程为当至少一个放大标准指示第一个体比第二个体具有语音放大优可以包括使得选择性放大的第一音频信号或第二音频信号传输到被配置为向用户的耳朵第一音频信号,并且当至少一个放大标准指示第二个体比第一个体具有语音放大优先级于对多个图像的分析,确定第二音频信号与一个或多个个体中的一个个体的语音相关联;音频信号中的至少一个传输到被配置为向用户的耳朵且使得选择性放大的第一音频信号或选择性放大的第二音频信号中的至少一个传输到被少一个指示符相关联;基于音频信号与音频信号涉及公告的至少一个指示符相关联的确体的标识符与所存储的对应于与第一个体的语音相[0025]在一个实施例中,公开了一种用于助听器系统的个体识别的计算机实施的方穿戴麦克风从与至少一个发声对象相关联的区域接收的至少一个音频信号的选择性调节,并且可以使得至少一个调节后的音频信号传输到被配置为向用户的耳朵提供声音的听力中的至少一个图像中检测发声对象,并且使用多个图像中的至少一个图像来识别发声对节后的音频信号传输到被配置为向用户的耳[0036]在一个实施例中,公开了一种用于调整从用户的环境中的对象发出的声音的方至少一个处理器选择性地调节,该处理器被配置为接收由可穿戴照相机捕获的多个图像,[0064]图17A是根据公开的实施例的用户穿戴用于基于照相机的助听器设备的装置的示[0067]图19是示出根据公开的实施例的用于选择性地放大从检测到的用户的注视方向[0068]图20A是示出与本公开一致的具有语音和/或图像辨识的助听器的使用的示例性[0070]图21是示出与公开的实施例一致的用于选择性地放大与被辨识的个体的语音相[0071]图22是示出与公开的实施例一致的用于选择性地传输与被辨识的用户的语音相[0076]图25是示出基于与公开的实施例一致的跟踪的嘴唇运动选择性地放大音频信号[0087]图34A和34B是根据公开的实施例的描述从音频信号中隔离不同说话者的一个或[0088]图35A是根据公开的实施例的描述从音频信号中分离说话者的语音的过程的示例[0089]图35B是根据公开的实施例的描述向听力设备传输调节后的音频信号的过程的示[0090]图36A是根据公开的实施例的描述从音频信号中分离说话者的语音的过程的示例[0092]图37A_37C是根据公开的实施例的描述向听力设备传输调节后的音频信号的过程[0094]图38B是示出与本公开一致的带有指令推导的助听器的使用的示例性环境的示意[0096]图39A和39B是示出根据第一实施例的用于推导助听器系统的指令的过程的流程[0097]图40A和40B是示出根据第二实施例的用于推导助听器系统的指令的过程的流程[0099]图图41B是示出与本公开一致的选择性调节音频信号的助听器系统的用户的示例[0100]图42A_42F是由图41B所示的与本公开一致的助听器系统获取和处理的音频信号[0101]图43A是示出与公开的实施例一致的用于选择性地调节与被辨识的对象相关联的[0102]图43B是示出与公开的实施例一致的用于选择性地调节与被辨识的对象相关联的[0103]图44A是示出与回本公开一致的用户的示例性环境的示意图,该示例性环境包括[0104]图44B是与本公开一致的在图44A所示场景中由可穿戴麦克风获取的音频信号的[0105]图44C是与本公开一致的在图44A所示场景中传输到听力接口设备的调节后的音[0107]图46A是示出与公开的实施例一致的,基于所确定的重要性等级选择性调整背景[0108]图46B是示出与公开的实施例一致的选择性调整背景噪声的示例性过程的流程[0110]图47B是示出与本公开一致的使用语音和视觉签名来识别对象的示例性环境的示[0112]图49是示出与公开的实施例一致的使用语音和视觉签名来识别对象的示例性过[0113]图50A是示出与本公开一致的可以在用户的环境中识别的发声对象的示例的示意[0115]图51A和51B是示出与本公开一致的用于选择性调节音频信号的示例环境的示意[0116]图52是示出与公开的实施例一致的用于调整从用户的环境中的对象发出的声音[0118]图1A示出了用户100穿戴与公开的实施例一致的与眼镜130物理连接(或集成)的在一些实施例中,眼镜130可以主要用于支撑装置110和/或增强现实显示设备或其他光学域技术人员可以理解,不同类型的计算设备和设备的布置可以实施所公开的实施例的功[0122]图1B示出了与公开的实施例一致的用户100穿戴与项链140物理连接的装置110。[0123]图1C示出了与公开的实施例一致的用户100穿戴物理连接到腰带150的装置110。[0124]图1D示出了与公开的实施例一致的用户100穿戴物理连接到腕带160的装置110。括基于被跟踪的指示用户100正朝腕带160的方向看的用户100的眼睛移动来识别手相关触[0125]图2是与公开的实施例一致的示例性系统200的示意图,该示例性系统200包括用手相关触发,并且至少部分地基于手相关触发的识别来执行动作和/或向用户100提供反的手相关触发执行动作和/或输出反馈。根据所公开的实施例,手相关触发可以包括用户[0130]反馈输出单元230可以包括一个或多个反馈系统,用于向用户100提供信息的输的实施例中,从服务器250和/或计算设备120接收的数据可以包括基于所分析的图像数据并根据所公开的实施例向装置110提供与分析的图像数据和被辨识的触发相关的信息。在[0134]在图3A中更详细地示出了根据一些实施例(结合图1A讨论)的与眼镜130结合的可接到眼镜130的结构(图3A中未示出)相关联。在一些实施例中,当装置110连接到眼镜130[0136]在一些实施例中,支撑310可以包括用于脱离和重新接合装置110的快速释放机432B和前表面434之间的距离可以小于用户100的衣服的织物的典型厚度。例如,点432A、侧视图(S视图)和底视图(B视图)的装置110的不同视图。当在随后的图中描述装置110时,境声音和与用户100交流的各种说话者的语音。图4G示出装置110的R视图。在一些实施例施例可以实施根据任何配置的装置110,该任何配置包括执行图像分析并用于与反馈单元可以从分析的图像数据辨识某些情况,并调整图像传感器220的瞄准方向以捕获相关的图元230可以包括配置为向用户100提供信息的任何设备。反馈输出单元230可以被提供为装以经由无线收发器530、有线连接或其它通信接口与外部反馈输出单元230通信传递信号。在又一其它实施例中,移动电源520可包括用于将环境能量转换成电能的一个或多个能量[0156]移动电源520可以为一个或多个无线收发器供电(例如,图5A中的无线收发器器210a可以基于存储器550中的可用存储空间来确定以特定[0158]装置110可以在第一处理模式和第二处理模式下操作,以使得第一处理模式可以110可以从存储器550中存储的图像中提取信息并从存储器550中删除图像。在一些实施例[0160]尽管在图5B中描绘了一个无线收发器,但是装置110可以包括一个以上的无线收不同的标准来发送和/或接收数据。在一些实施例中,第一无线收发器可以使用蜂窝标准[0162]在一些实施例中,处理器210和处理器540被配置为从捕获的图像数据中提取信取的信息向反馈输出单元230或计算设备120发送反馈或其他实时指示。在一些实施例中,处理器210可以在图像数据中识别站在用户100前面的个体,并向计算设备120发送该个体经由作为装置110的一部分(或与装置110通信)提供的反馈输出单元230或经由作为计算设触发信息并基于手相关触发经由反馈输出单元545或显示器260提供输出。在其它实施例[0164]当装置110连接到或无线连接到计算设备120时,装置110可以发送存储在存储器分。图像(或图像数据)的表示可以具有与图像(或图像数据)相同的分辨率或更低的分辨[0167]例如,装置110可以捕获图像210或540可进一步处理捕获的图像数据,以提供辨识捕获的图像数据中的对象和/或手势用于由包括在可穿戴装置中的至少一个处理设备(例如处理器210)执行的软件指令。方向[0172]图像传感器220可以被配置为与用户100的头部一起移动,使得图像传感器220的通过分析捕获单元110的图像传感器220捕获的图像、通过捕获单元710内的倾斜或姿态感[0174]方向调整模块602可以被配置为调整捕获单元710的图像传感器220的方向。如上附加实施例中,监控模块603可接合方向调整模块602以指示方向调整单元705连续地将图个图像传感器220各自可以被配置为捕获不同的图像数据。例如,当提供多个图像传感器感器220的视野可以重叠。多个图像传感器220各自可以例如通过与图像调整单元705配对可被配置为单独地调整多个图像传感器220的方向,以及根据需要打开或关闭多个图像传[0177]与本公开一致的实施例可以包括被配置为连接可穿戴装置的捕获单元和电源单[0178]图8是符合本公开的可穿戴装置110的一个实施例的示意图,该可穿戴装置110可[0180]连接器730可包括夹子715或设计成将捕获单元710和电源单元720卡入衣物750的动电源520传送到捕获单元710的图像传感器220。电源电缆760还可以配置为向捕获单元710中的图像传感器220的捕获图像数据传送到电源单元720中的处理器800。数据电缆770还可以进一步能够在捕获单元710和处理器800之间传送附加数据,例如方向调整单元705[0181]图9是符合本公开的实施例的穿戴可穿戴装置110的用户100的示意图。如图9所于容纳可穿戴装置110的衣服750中的专用孔)将装置接器730可以包括第一磁体731和第二磁体732。第一磁体731和第二磁体732可以将捕获单[0185]图13是可固定在衣物上的可穿戴装置110的又一实施例的示意图。图13示出了其一磁体731和第二磁体732可以设置为连接器730,以将捕获单元710和电源单元720固定到包括具有空心中心的环733,该空心中心具有略大于位于电源单元720上的盘状突起734的数据电缆770和柔性印刷电路板765中的至少一个[0188]在进一步的实施例中,可固定到衣物的装置可进一步包括与封装在电源单元720[0189]保护电路775可被配置为保护图像传感器220和/或捕获单元710的其他元件免于培等)时熔化的导线或带材(从而制动图像捕获单元710的电路和电源单元720的电路之间线技术或经由有线连接通过一个或多个网络从计算设备接收数据。发送到可穿戴装置和/[0192]在一些实施例中,可以基于由图像传感器220捕获的至少一个或多个图像来确定多个图像以识别出现在由图像传感器220捕获的一个或多个图像中的用户和/或其他人的少一个搜索查询可以包括至少一个关键字和一个或多个音频段,诸如由装置110捕获的音以向用户提供由搜索引擎响应于至少一个搜索查询而提供的搜索结果。在一些实施例中,[0200]图17A是根据公开的实施例的用户100穿戴用于基于照相机的听力接口设备1710[0201]听力接口设备1710可以是配置成向用户100提供听觉反馈的任何设备。听力接口230分离,并且可以被配置为从反馈输出单元230接收信号。如图17A所示,听力接口设备提供听觉反馈的一个或多个扬声器、用于检测用户100的环境中的声音的麦克风,内部电过将声音振动骨传导到内耳向用户100提供听觉反馈。听力接口设备1710还可以包括一个过监控用户100的下巴或另一身体部分或面部相对于照相机传感器的光轴1751的方向来跟1750。处理器210(和/或处理器210a和210b)可被配置为使用各种图像检测或处理算法(例测到的用户100的下巴的表示与照相机传感器的光轴1751进行比较来确定注视方向1750。例如,光轴1751可以在每个图像中是已知的或固定的,并且处理器210可以通过比较用户[0205]图17B是与本公开一致的可固定到衣物的装置的实施例的示意图。[0208]基于所确定的用户注视方向1750,处理器210可选择性地调节或放大来自与用户听器的示例性环境的示意图。麦克风1720可以检测用户100的环境中的一个或多个声音节后的音频信号可以发送到听力接口设备1710,因此可以向用户100提供与用户的注视方频信号。放大也可以通过改变麦克风1720的一个或多个参数以聚焦于从与用户注视方向是定向麦克风,并且处理器210可以执行操作以将麦克风1720聚焦于在声音1820或区域[0211]在一些实施例中,调节可进一步包括改变与声音1820相对应的(VAD)算法或技术来检测麦克风1720接收的一个或多个音频信号中的语音。如被确定为对应于例如来自个体1810的语音或讲话,则处理器220可被配置为改变声音1820或者减少音频信号内的噪声。如果已经对与声音1820相关联的音频信号执行了语音辨识,[0213]图19是示出与公开的实施例一致的用于选择性地放大从检测到的用户的注视方向发出的声音的示例性过程1900的流程图。过程1900可以由与装置110相关联的一个或多听力接口设备1710或诸如计算设备120的辅麦克风聚焦于从该区域发出的音频声音。放大可以包括衰减或抑制麦克风从与用户110的的处理器可以进一步配置为使得代表背景噪声的一个或多个音频信号传输到听力接口设离和/或选择性地放大。与从个体方向以外的方向接收的声音相关联的音频信号可以被抑[0220]用户100可以穿戴类似于上面讨论的基于照相机的助听器设备的助听器设备。例各种其他样式。听力接口设备1710可以包括用于向用户100提供听觉反馈的一个或多个扬骨传导耳机1711可以通过手术植入,并且可以通过将声音振动骨传导到内耳向用户100提[0222]听力接口设备1710可以被配置为与诸如装置110的照相机设备通信。这种通信可如,使用麦克风1720的阵列,处理器210可以比较麦克风1720中单个声音的相对定时或幅[0224]装置110可以被配置为辨识用户100环境中的个体。图20A是示出与本公开一致的用照相机1730捕获用户100的周围环境的一个或多个图像。所捕获的图像可以包括被辨识210(和/或处理器210a和210b)可配置为使用各种面部辨识技术(如元件2011所表示)分析[0225]图20B示出了包括与本公开一致的面部和语音辨识组件的装置110的示例性实施2040和2041可以包含用于由包括在可穿戴装置中的至少一个处理设备(例如处理器210)执[0227]面部辨识组件2040可以访问与用户100相关联的数据库或数据,以确定检测到的包含关于用户100已知的个体的信息以及表示相关联的面部特征或其他识别特征的数据。的联系人列表,诸如用户电话上的联系人列表、基于web的联系人列表(诸如,通过器210可以被配置为将与在由装置110捕获的图像中辨识的一个或多个面部相关联的数据或手动删除或添加某些联系人。在一些实施例中,用户或管理员可以训练面部辨识组件[0230]处理器210还可以被配置为基于与个体2010的语音相关联的声音的一个或多个检音2020对应于用户2010的声音2012。处理器210可分析代表由麦克风1720捕获的声音2020210可以执行将麦克风1720聚焦于声音2020的操作。可以使用用于放大声音的各种其他技运动来确定个体2010何时在说话。这也可以通过分析麦克风1720接收的音频信号来确定,以相对于装置110或用户100与个体2010的方向相关联。可以使用照相机1730和/或麦克风的个体2010并动态更新区域2030。区域2030可以用于选择性调节,例如通过放大与区域2030相关联的声音和/或衰减被确定为从区域20210可以基于图像确定被辨识的个体相对于用户的方向,并且可以基于该方向确定如何选户相关联的音频可以相对于与站在用户侧面的个体相关联的音频被放大(或者以其他方式被配置为基于被辨识的个体是在对用户说话还是对另一个个体说话来选择性地调节音频。[0241]在一些实施例中,处理器210可以访问个体的一个或多个声纹,这可以促进个体乎实时地(例如以最小的延迟)分离正在进行的语音信号。延迟可以是例如10ms、20ms、段之后生成,随后是另一个听到说话者和另一个说话者(或背景噪声)并且需要分离的片神经网络可以接收两个或更多个说话者的语音签名,并分别输出说话者中的每一个的语[0244]图21是示出与所公开的实施例一致的用于选择性地放大与被辨识的个体的语音相关联的音频信号的示例性过程2100的流程图。过程2100可由与装置110相关联的一个或以由听力接口设备1710或辅助设备(例如前的熟人。处理器210可以基于与个体相关联的一个或多个检测到的面部特征来确定在多基于被确定为与个体的语音相关联的声音的一个或多个检测到的音频特征来确定个体是的处理器还可以被配置为使得向听力接口设备传输表示背景噪声的一个或多个音频信号,可以相对于声音2021和2022放大与2020相关联的信号。在一些实施例中,听力接口设备[0250]除了辨识对用户100说话的个体的语音之外,上述系统和方法也可以用于辨识用[0251]图22是示出与所公开的实施例一致的用于选择性地传输与被辨识的用户的语音相关联的音频信号的示例性过程2200的流程图。过程2200可以由与装置110相关联的一个如使用语音辨识组件2041来辨识用户的语音。处理器210可以使用滑动时间窗口几乎实时设备传输不同于表示用户的被辨识的语音的一个或多个语音音频信号的至少一个背景噪的嘴唇运动同步或者与跟踪的嘴唇运动一致的语音信号可以被选择性地放大或者以其他传导耳机1711可以通过手术植入,并且可以通过将声音振动骨传导到内耳向用户100提供[0259]听力接口设备1710可以被配置为与诸如装置110的照相机设备通信。这种通信可如,使用麦克风1720的阵列,处理器210可以比较麦克风1720中单个声音的相对定时或幅[0261]处理器210(和/或处理器210a和210b)可被配置为检测与用户100的环境中的个体相关联的嘴和/或嘴唇。图23A和23B示出了可由照相机1730在与本公开一致的用户的环境理器210可被配置为分析由照相机1730捕获的图像以检测图像中个体2310的表示。处理器210可以使用如上所述的面部辨识组件(例如面部辨识组件2040)来检测和识别用户100的上型计算机、移动电话、平板、电视、电影屏幕、手持游戏设备、视频会议设备(例如,FacebookPortalTM)、婴儿监控器等。个体2310的视觉表示可以是个体2310的实时视频馈210可以使用一个或多个图像处理技术来辨识用户的面部特征,诸如卷积神经网络(CNN)、器210可被配置为检测与个体2310的嘴2311相关联的一个或多个点2320。点2320可表示个嘴唇的上边缘轮廓和下边缘轮廓。处理器210可进一步使用各种其它技术或特征,诸如颜[0265]除了检测图像外,装置110还可以配置为在用户100的环境中检测一个或多个声[0266]处理器210可以基于嘴唇运动和检测到的声音来确定环境2400中的哪些个体正在器210可以基于在检测到声音2421的同时嘴2311正在移动的确定来确定个体2310正在说关联的其他数据还可以结合检测到的嘴唇运动来确定和/或验证个体2310是否在说话,例如用户100或个体2310的注视方向、检测到的用户2310的身份、用户2310的被辨识的声纹[0267]基于检测到的唇部运动,处理器210可引起对与个体2310相关联的音频的选择性调节。调节可包括相对于其它音频信号放大确定为对应于声音2421(其可对应于个体2310的音频信号可以被发送到听力接口设备1710,并且因此可以向用户100提供基于正在说话[0269]在一些实施例中,调节可进一步包括改变与声音2421相对应的使检测到的讲话对用户100更加可感知。如果已经对与声音2421相关联的音频信号执行了[0271]处理器210可以被配置为基于与音频信号相关联的哪些个体当前正在讲话来选择器210可以被配置为基于个体2310和2410各自的嘴唇运动,从调节与声音2421相关联的音体2310已经停止说话,或者与个体2410相关联的嘴唇运动可以指示个体2410已经开始说个音频信号,但是仅基于哪个个体在讲话选择性地将调节后的音频传输到听力接口设备已经到达句子的结尾或者已经问了问题,这可以指示个体2310已经结束或者即将结束说号可以相对于与个体2310相关联的音频信号被选择性地调节。在确定个人身份的实施例过预定的设置或通过主动选择要关注的说话者来提供其中说话者被安排更高优先级的输[0274]处理器210还可以基于如何检测个体2310的表示来分配优先级。虽然个体2310和与否)也可以由用户100使用与装置110[0275]图25是示出与公开的实施例一致的基于跟踪的嘴唇运动选择性放大音频信号的诸如处理器210。(多个)处理器可以被包括在与麦克风1720和照相机1730相同的公共外壳一个或多个部分可以由听力接口设备1710中的处理器或者诸如计算设备120或显示设备联的至少一个嘴唇运动或嘴唇位置。处理器210可以被配置为识别与个体的嘴相关联的一处理器210可以分析从麦克风1720接收的声音,以使用任何当前已知或未来开发的技术或到的嘴唇运动的定时与音频信号中的语音模式的定时进行比较。在检测到讲话的实施例[0284]图26示出了穿戴示例性助听器系统的用户。用户2601可以穿戴可穿戴设备26可穿戴设备2631可以包括图像传感器,该图像传感器被配置为捕获用户2601的环境的图[0285]图27示出了图26所示的用户2601的环境的示例性图像2700。可以由可穿戴设备相关联的第一音频信号2611和与第二个体的语音相关联的[0288]处理器可以检测指示第一个体和第二个体之间的语音放大优先级的至少一个放获用户的环境的图像的图像传感器。助听器系统的处理器可以从可穿戴设备2631接收图外壳中的发射器和包括处理器的外壳中的接收器之间的无线链路从图像传感器接收数据场电容耦合、其他短程无线技术或经由有线连接通过一个或多个网络从麦克风接收数据。[0297]在一些实施例中,处理器可以配置成控制麦克风检测(或接收)音频信号和/或将[0299]在步骤2807,处理器可以从麦克风接收与第二个体的语音相关联的第二音频信收到的一个或多个图像的分析(类似于步骤2803中的识别处理)来确定个体和音频信号的基于对音频信号的分析来确定特定个体与音频信号的关联的第一置信得分9(满分10)。处理器还可以基于对从图像传感器接收的一个或多个图像的分析来确定特定个体与音频信理器还可以被配置为经由公共外壳(其中包括麦克风和可穿戴照相机)中的发射器和第二外壳(其中包括处理器)中的接收器之间的无线链路从可穿戴照相机和/或麦克风接收数据至少一个放大标准。放大标准的检测可以基于对接收到的图像和/或音频信号的分析。例体更接近第一个体的检测可以是指示第一个体相对于第二个体的语音放大优先级的放大如果检测到用户比第一个体更朝向第二个体(基于对图像和/或音频信号的分析),则处理方向是与第一个体相关还是与第二个体相关来确定第一个体和第二个体之间的语音放大测至少一个图像中的用户的下巴的表示并基于检测到的与用户的下巴相关联的方向来检第一个体的说话者注视在第用户的方向上注视,并且第二个体正在远离用户的方向上注音频信号(例如,通过将其他(多个)信号的声音等级降低到预定声音等级或预定百分比)。择性地放大音频信号。音频放大电路可以接收来自两个或更多个输入音频传感器的输入。短程无线技术或经由有线连接将放大的音频信号传输到听力接口设备。可替代地或额外地,处理器使得将未处理的(多个)音频信号(和/或选择性衰减的音频信号)传输到听力接[0314]听力接口设备还可以配置为基于放大的音频信号向用户的耳朵设备可以包括入耳式耳机。作为另一示例,听力接口设备可以包括包括在可穿戴设备(例[0318]公开的系统和方法可使助听器系统能够通过图像分析确定一个组中的至少一个说话者经由扬声器电话参加一个组会议(例如,通过在即使图像分析指示组中没有存在可见的说话者的情况下接收至少一个语音信号)。这样的语音信号可以来自通过扬声器电话参加会议的人或者来自可穿戴照相机视野(FOV)之外的人,例如当可穿戴照相机面向前方户前面的个体(例如,具有到用户的声音收集麦克风的不受阻碍的路径)接收的语音信号像中检测存在于系统照相机的FOV中的扬声器电话设备或类似设备,至少部分地检测扬声标准(诸如会议邀请记录、先前已知的关联等)来确定通过电话(或在照相机FOV之外)参与3000A可以包括第一个体3011的表示3011、第二个体3012的表示3012和扬声器电话2921的个或多个个体和一个或多个对象的表示。例如,处理器可以从图像传感器接收图像3000A用户2901在房间中并且正经由扬声器电话2921参与会议呼叫的个体。可替代地或额外地,可穿戴设备2931可基于与用户相关联的日历邀请或用户的先前已知关联来自动识别个体。[0325]可穿戴设备2931还可以基于对图像的分析来确定接收到的音频信号是否与在图并基于对图像的分析确定第一音频信号与在图像中识别的任何个体(例如,第一个体2911与第一个体2911的语音相关联。可穿戴设备2931还可以基于图像和/或音频信号来确定音图像来检测被识别为扬声器电话的设备的表示来[0326]可穿戴设备2931还可以进一步引起第一音频信号的第一放大和第二音频信号的而放大的第一音频信号和根据第二放大而放大的第二音频信号中的至少一个传输到被配根据第一放大而放大的第一音频信号和根据第二放大而放大的第二音频信号中的至少一替代地,处理器可以包括在与安装麦克风和可穿戴照相机的公共外壳不同的单独外壳中。处理器还可以被配置为经由公共外壳(其中包括麦克风和可穿戴照相机)中的发射器和第二外壳(其中包括处理器)中的接收器之间的无线链路从可穿戴照相机和/或麦克风接收数检测由用户执行的手势(手指指向手势),并控制图像传感器基于检测到的手势捕获图像像传感器的外壳中的发射器和包括处理器的外壳中的接收器之间的无线链路从图像传感一个体2911和/或第二个体2912的嘴相关联的嘴唇运动来确定第一音频信号不与一个或多的个体的语音相关联(例如,通过扬声器电话2921参加会议呼叫的个体或在房间中但远离以包括一个或多个参与者的身份。处理器可以将个体识别为日历邀请中包括的参与者之[0339]在步骤3119,助听器系统可从至少一个麦克风接收与语音相关联的第二音频信2911(和/或第二个体2912)的嘴相关联的嘴唇运动并确定第二音频信号对应于检测到的与第一个体2911(和/或第二个体2912)的嘴相关联的嘴唇运动来确定第二音频信号与第一个型的数据等或其组合,自动识别与第一音频信号和/或第二音频信号相关联的一个或多个放大而放大的第二音频信号中的至少一个传输到被配置成向用户的耳朵提供声音的听力牙等)或经由近场电容耦合、其他短距离无线技术或经由有线连接将放大的(多个)音频别图像3000A中第一个体2911的表示3011和/或第二个体2912的表示3012。在一些实施例助听器系统可以包括麦克风,麦克风被配置为从用户2901的环境接收(或检测)音频信号,理器还可以被配置为经由公共外壳(其中包括麦克风和可穿戴照相机)中的发射器和第二外壳(其中包括处理器)中的接收器之间的无线链路从可穿戴照相机和/或麦克风接收数据与上述过程3110的步骤3121的方法类似的方法来确定代表语音的第一音频信号与个体相联的嘴唇运动并确定第一音频信号对应于检测到的与第一个体2911(和/或第二个体2912)的嘴相关联的嘴唇运动来确定第一音频信号与第一个体2911(和/或第二个体2912)相关第二音频信号。例如,可以从个体通过其讲话(例如,个体在电话呼叫中通过扬声器电话设备可以包括入耳式耳机。作为另一示例,听力接口设备可以包括包括在可穿戴设备(例个)个体的面部表情(例如嘴唇运动)。处理器可以确定第一音频信号不与一个或多个个体中的任何一个个体的语音相关联,是通过分析检测到的与第一个体2911和/或第二个体2912的嘴相关联的嘴唇运动并且确定第一音频信号不对应于检测到的与第一个体2911和/音频信号放大50并将一个或多个其他音频信号衰减地或额外地,处理器可使得未处理的(多个)音频信号(和/或选择性衰减的音频信号)传输[0368]根据本公开的各种实施例,诸如装置110之类的可穿戴设备可以被配置为除了使户(例如,用户100)的环境中的声音。装置110可以使用该音频信息代替图像和/或视频信如来自与用户100交流的人的谈话词或声音。在这种情况下,图像数据可用于识别与用户信号的第一麦克风和用于捕获第二波长范围据库包含与用户100相关的人的各种图像,并将这些图像与由装置110传送到服务器250的[0374]在各种实施例中,可以由服务器250的处理器使用任何合适的方法将从由助听器系统的可穿戴照相机捕获的图像获得的人的图像与从服务器250的数据库中选择的各种图获的图像获得的人的图像与在服务器250的数据库中找到的至少一个图像的匹配程度。在示例实施例中,可能性可以是从捕获的图像获得的人的图像与服务器250的数据库中找到[0375]在各种实施例中,服务器250的数据库中的图像可以具有可与相关图像相关联地图像获得的人的图像与来自服务器250的数据库的对应于相同数据记录的多个图像进行比[0376]在示例实施例中,可以链接存储在服务器250的数据库中的图像的数据记录。例接来重新评估从捕获的图像中识别的人与在服务器250的数据库中找到的个体的图像匹配的可能性。例如,如果在服务器250的数据库中找到的个体的图像的数据记录包括到用户同事)与在服务器250的数据库中找到的个体的数[0377]尽管上面的讨论描述了使用服务器250来分析由用户100的可穿戴设备捕获的图处理器可以被配置为从服务器250的数据库接收人的各种图像或特征以及这些图像或特征至少一个个体是否是被辨识的个体可以基于可以用于分析一个或多个图像的经训练的神于对多个图像中的至少一个图像的分析而检测到的与至少一个个体相关联的一个或多个用于分析图像并将捕获图像中识别的人的面部特征或面部特征之间的关系与存储在服务器250的数据库中的图像中找到的人的面部特征及其之间的关系进行比较。在一些实施例多个源的多个音频信号(例如,来自与用户100谈话的说话者的音频信号、环境音频信号用户100与一个或多个说话者谈话有关的音频信号)的分析来确定至少一个个体是否是被数据记录可用(例如在服务器250的数据库或其他地方)的个体)相关联的预定语音特征中[0380]在各种实施例中,服务器250可以从各种源接收用于各种个体的图像和音频信息者与图像3211中识别的一个或多个个体相关联的社交网络3220(例如,脸书页/领英图像/视频和/或音频数据3231(例如,如图32所示的自拍),并将数据3231上载到服务器可被配置为在当谈话的说话者被识别并被辨识时发送图像3211和音频数据3212,或/和即使那些说话者没有被辨识也发送图像3211和音在服务器250的数据库中的图像和相关数据记录进行比较来确定至少一个个体是否是被辨现与在捕获的一个或多个图像中显示的人的一个或多个建议的可能姓名相关联的个体的[0383]在某些情况下,显示器可以包括有可穿戴照相机和至少一个麦克风共用的检索显示器260上显示的至少一个个体的图像,该数据库将被辨识的个体与从图像中提取可以被配置为通知用户100已经使用音频信号辨识了个体,该音频信号使用任何合适的方过一个或多个耳机设备通知用户100从与被辨识的个体相关联的数据记录中获得的信息,一个音频信号相关联的音调或改变与至少一个音频捕获设备3322和音频捕获设备3323的用户100与说话者3302和说话者3303交互。在这种情[0389]可以使用例如说话者估计算法来获得说话者的数目。该算法可以接收图像数据(例如,由装置110捕获的说话者3302的图像和说话者3303的图像),并且基于接收到的图3302和3303参与到与用户100的谈话。在一些实施例中,至少一个说话者(例如,说话者和/或头部姿势的定位来帮助助听器确定说话者的数量。说话者估计算法可以输出谈话是[0390]头部定位和/或头部姿势可用于确定说话者的数量,并且还可用于确定哪个音频[0391]在一些实施例中,助听器系统可被配置为使用从说话者3302和3303接收的用户录过程可以由助听器系统捕获的图像来辅助。例如,助听器系统可以识别和辨识说话者[0395]在各种实施例中,可以使用与说话者的讲话相关联的音频信号获得说话者的声频片段上执行。提取的声纹随后可用于稍后在谈话中用于将说话者的语音与其他语音分来识别与用户100交流的说话者。如果说话者位于由助听器系统的可穿戴照相机捕获的用用户100可以通过注视说话者3303使他/她的脸朝向正在与用户100交谈的说话者,如图33指示助听器系统接收到的音频信号主要是由于说话者3302的语音引起的。在示例实施例信息以充分分离语音,则助听器系统可以通过分离参与与用户100的谈话的说话者的语音有一个或多个说话者的声纹的助听器系统的处理器,使用滑动时间窗口几乎实时地(例如[0400]声纹提取可以通过从单个说话者的干净音频中提取频谱特征(也称为频谱属性、频谱包络或频谱图)来执行。干净的音频可以包括与诸如背景噪声或其它语音之类的任何基于计算机的模型可用于处理由助听器系统的一个或多个麦克风捕获的音频数据以返回述任何合适的方法将与说话者的语音相对应的音频信号与背景声音分离。在一些情况下,或3431B可用于为说话者准备可由基于计算机的模型3430使用的附加声纹(或/和输出签[0406]图34B示出了用于使用视频信号从音频信号分离语音信号的说明性过程3470。在话者3302的语音可以与说话者3303的语音短暂重叠。模型3445可通过使说话者3303(或说话者3302)的嘴唇运动与在音频信号3421中识别的单词/声音同步来识别和分离说话者的音频信号(例如,语音3431A或语音3431B)可以被发送到用于将音频信号传送给用户100[0408]在一些实施例中,助听器系统的听力接口设备可以向用户100发送与说话者的讲置为调整其中一个语音(例如,语音3431A)的一个或多个特征,以进一步区分其与语音示例实施例中,用户100可以具有定位在左耳旁边的左麦克风和定位在右耳旁边的右麦克[0411]图35A示出用于将从音频信号分离的语音发送到诸如助听器系统的耳机等设备的接收到的音频信号可以被发送到服务器250,并由服务器250的处理器之一选择性地调节。助听器系统的功耗的其他步骤可以包括优化从助听器系统到服务器250的数据传递过程。100认为相遇不重要,或者如果她/他不希望该信息可供第三方和/或用户100稍后访问/检相关联的一个或多个个体的相遇不重要,或者如果她/他不希望第三方和/或用户100稍后系统可以被配置为通过引导助听器系统的照相机和麦克风来捕获与相遇有关的图像/视频录在时间线中。相遇的记录可允许用户100通过指定相遇的一些识别特性来检索与相遇相[0424]与重叠语音相对应的音频信号可以包括至少两个重叠语音,[0426]在一个示例性实施例中,处理器可选择性地调节第一音频信经训练的神经网络可以被训练成接收与个体的面部表情和声音相关的图像和/或视频数独使用或与个体的面部表情组合使用以确定个体是号传输到听力接口设备,该听力接口设备被配置为使用上述任何合适的方法向用户100的输到听力接口设备,该听力接口设备被配置为使用上述任何合适的方法向用户100的耳朵[0430]图36A示出描述用于从与用户100交流的说话者

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论