精华内容
下载资源
问答
  • 感觉(Sensation): 觉察到刺激的存在,并立即...听觉通路的最初阶段:声波使 鼓膜运动-鼓膜运动传递给 听小骨-听小骨带动 卵圆膜-孵圆膜的运动推动 耳蜗内液体-耳蜗内液体的运动导致 感觉神经元的反应。 一

    感觉(Sensation): 觉察到刺激的存在,并立即分辨出刺激的属性,在心理学上,称此一层次为感觉。
    知觉(Perception) : 不仅觉察到刺激的存在及其重要属性,而且知道该刺激所代表的意义,在心理学上,称此一层次为知觉。

    人耳的构造主要分为三部分: 外耳,收集外来声音; 中耳传导声音; 内耳将物理性的声音刺激转化为生理性的神经冲动。

    听觉通路的最初阶段:声波使 鼓膜运动-鼓膜运动传递给 听小骨-听小骨带动 卵圆膜-孵圆膜的运动推动 耳蜗内液体-耳蜗内液体的运动导致 感觉神经元的反应。

    一旦在内耳发生对声音的神经反应,信号会被传递至脑干的一系列 神经核团,并为之处理。这些核团的输出被进一步传递至丘脑的 内侧膝状体核(MGN),最后MGN向 颞叶的 初级听皮层A A1 1投射。

    上颞叶的 初级听皮层(紫色)和 次级听皮层(黄色)

    前庭系统向大脑报告头部的位置和运动,以产生平衡的感觉,并帮助协调头部和眼部的活动,以及调整身体的姿势。

    视觉与听觉的神经回路重要,其他的回路了解一下

    离开视网膜的神经节细胞轴突穿过三个结构,然后到达脑干。这个离视网膜投射的组成部分依次为 视神经、 视交叉和 视束。

    位于丘脑背部左右两个侧膝状体核是两条视束的主要目标。LGN分层的三结构就像由6张薄饼堆叠而成。但这些薄饼并不是铺而成,他们在视束周围形成膝状弯曲。由于如此形状,它被称为“膝状体”。 LGN

    有两大皮层视觉信息处理通路, 背侧通路和腹侧通路。

     

     

     

     

    ________________________________________________

    静息电位是外正内负,动作电位外负内正 。动作电位过程中细胞的 去极化是由钠离子跨膜内流引起的,而 复极化(就是恢复正常电位)是由钾离子的外流所致。

    突触的类型一般有电突触和 化学突触. .

     

     

    展开全文
  • ylbtech-CSS3:CSS 听觉参考手册 ...听觉样式表 ...听觉样式表可把语音合成与音响效果相组合,使用户可以听到信息,而无需进行阅读。...听觉呈现通常会把文档转化为纯文本,然后传给屏幕阅读...
    ylbtech-CSS3:CSS 听觉参考手册

     

    1.返回顶部
    1、

    听觉样式表

    听觉样式表可把语音合成与音响效果相组合,使用户可以听到信息,而无需进行阅读。

    听觉呈现可用于:

    • 视觉能力低弱的人士
    • 帮助用户学习阅读
    • 帮助有阅读障碍的用户
    • 家庭娱乐
    • 在汽车中使用

    听觉呈现通常会把文档转化为纯文本,然后传给屏幕阅读器(可读出屏幕上所有字符的一种程序)。

    听觉样式表的一个例子:

    h1, h2, h3, h4
    {
    voice-family: male;
    richness: 80;
    cue-before: url("beep.au")
    }
    

    上面的例子可以让语音合成器演奏一段声音,然后用男性的声音读出标题。

    CSS2 听觉参考

    W3C : "W3C" 列的数字显示出属性由哪个 CSS 标准定义(CSS1 还是 CSS2)。

    属性描述W3C
    azimuth Sets where the sound/voices should come from (horizontally)
    • angle
    • left-side
    • far-left
    • left
    • center-left
    • center
    • center-right
    • right
    • far-right
    • right-side
    • behind
    • leftwards
    • rightwards
    2
    cue A shorthand property for setting the cue-before and cue-after properties in one declaration
    • cue-before
    • cue-after
    2
    cue-after Specifies a sound to be played after speaking an element's content to delimit it from other
    • none
    • url
    2
    cue-before Specifies a sound to be played before speaking an element's content to delimit it from other
    • none
    • url
    2
    elevation Sets where the sound/voices should come from (vertically)
    • angle
    • below
    • level
    • above
    • higher
    • lower 
    2
    pause A shorthand property for setting the pause-before and pause-after properties in one declaration
    • pause-before
    • pause-after
    2
    pause-after Specifies a pause after speaking an element's content
    • time
    • %
    2
    pause-before Specifies a pause before speaking an element's content
    • time
    • %
    2
    pitch Specifies the speaking voice
    • frequency
    • x-low
    • low
    • medium
    • high
    • x-high 
    2
    pitch-range Specifies the variation in the speaking voice. (Monotone voice or animated voice?)
    • number
    2
    play-during Specifies a sound to be played while speaking an element's content
    • auto
    • none
    • url
    • mix
    • repeat
    2
    richness Specifies the richness in the speaking voice. (Rich voice or thin voice?)
    • number
    2
    speak Specifies whether content will render aurally
    • normal
    • none
    • spell-out
    2
    speak-header Specifies how to handle table headers. Should the headers be spoken before every cell, or only before a cell with a different header than the previous cell
    • always
    • once
    2
    speak-numeral Specifies how to speak numbers
    • digits
    • continuous
    2
    speak-punctuation Specifies how to speak punctuation characters
    • none
    • code
    2
    speech-rate Specifies the speed of the speaking
    • number
    • x-slow
    • slow
    • medium
    • fast
    • x-fast
    • faster
    • slower 
    2
    stress Specifies the "stress" in the speaking voice
    • number
    2
    voice-family A prioritized list of voice family names that contain specific voices
    • specific-voice
    • generic-voice
    2
    volume Specifies the volume of the speaking
    • number
    • %
    • silent
    • x-soft
    • soft
    • medium
    • loud
    • x-loud 
    2
    2、
    2.返回顶部
     
    3.返回顶部
     
    4.返回顶部
     
    5.返回顶部
    1、
     
    6.返回顶部
     
    warn 作者:ylbtech
    出处:http://ylbtech.cnblogs.com/
    本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。

    转载于:https://www.cnblogs.com/storebook/p/9397126.html

    展开全文
  • 有些学习专家认为人们的学习方式主要有三种:视觉型、听觉型和运动型。...听觉型的学习者需要将信息转化为声音和指令才能很好地理解;而运动型的学习者则需要通过触摸和操作才能更好地理解信息。 ...
        

    有些学习专家认为人们的学习方式主要有三种:视觉型、听觉型和运动型。视觉类型的学习者(我觉得自己就是典型的视觉类型学习者)需要信息以图像的方式表现出来才能很好地理解;听觉型的学习者需要将信息转化为声音和指令才能很好地理解;而运动型的学习者则需要通过触摸和操作才能更好地理解信息。

    展开全文
  • Multimodal

    2020-06-20 16:06:17
    例如,人有触觉,听觉视觉,嗅觉;信息的媒介有语音、视频、文字等;多种多样的传感器,如雷达、红外、加速度计等。以上的每一种都可以称为一种模态。 模态也可以有非常广泛的定义。比如我们可以把两种不同的语言...

    1.什么是模态?

    • 每一种信息的来源或者形式,都可以称为一种模态。 例如,人有触觉,听觉,视觉,嗅觉;信息的媒介有语音、视频、文字等;多种多样的传感器,如雷达、红外、加速度计等。以上的每一种都可以称为一种模态。
    • 模态也可以有非常广泛的定义。比如我们可以把两种不同的语言当做是两种模态,甚至在两种不同情况下采集到的数据集,亦可认为是两种模态。

    2.多模态学习的分类

    • 多模态学习可以划分为以下五个研究方向:

      1. 多模态表示学习:Multimodal Representation
      2. 模态转化:Translation(也称为映射:Mapping)
      3. 对齐:Alignment
      4. 多模态融合:Multimodal Fusion
      5. 协同学习:Co-learning
    • 其中Multimodal Representation又可细分为

      1. 联合表示:Joint Representations
      2. 协同表示:Coordinated Representations

    3.多模态融合

    • 简介:

      1. 多模态融合负责联合多个模态的信息,进行目标预测(分类或者回归),属于 MMML 最早的研究方向之一,也是目前应用最广的方向,它还存在其他常见的别名,例如多源信息融合(Multi-source Information Fusion)、多传感器融合(Multi-sensor Fusion)
    • 按照融合的层次,可以将多模态融合分为

      1. pixel level:对原始数据进行融合
      2. feature level:对抽象的特征进行融合( feature level 又可以分为 early 和 late 两个大类,代表了融合发生在特征抽取的早期和晚期)
      3. decision level :对决策结果进行融合
      4. hybrid:多种融合层次混合
    • 多模态的热门研究方向

      1. 视觉-音频识别(Visual-Audio Recognition):综合源自同一个实例的视频信息和音频信息,进行识别工作
      2. 多模态情感分析(Multimodal sentiment analysis): 综合利用多个模态的数据(例如下图中的文字、面部表情、声音),通过互补,消除歧义和不确定性,得到更加准确的情感类型判断结果
      3. 手机身份认证(Mobile Identity Authentication): 综合利用手机的多传感器信息,认证手机使用者是否是注册用户
    • 多模态融合的难点

      1. 多模态融合研究的难点主要包括如何判断每个模态的置信水平、如何判断模态间的相关性、如何对多模态的特征信息进行降维以及如何对非同步采集的多模态数据进行配准等

    4.论文

    • 一份整理好的Multimodal论文清单
      Paper List

    说明:这是对多篇blog的整合,原文链接如下:
    https://zhuanlan.zhihu.com/p/53511144
    https://www.zhihu.com/question/349851592/answer/971584984

    展开全文
  • 视听的完美结合,相互转换,音乐意象转化视觉形象,音乐的感性听觉本位与感性视觉层面在新媒体技术层面获得了更高形态的融合,符合现代观赏者的身份认同和符号价值,而且,音乐可视化为音乐文化的传播提供了一个...
  • 上一篇计算机系统004 - 硬件组件概况中已经概括介绍了五大组件及其协作方式,如文中所述,后续将有系列文章对各组件进行单独探讨,按照...视觉:字符、图案 听觉:声音 触觉、嗅觉等:电流驱动机械 但归根结底,计...
  • 初一语文教师《口技》教案设计心得大全 《口技》的作者以成功的文学实践妥善地突破了以文记声的局限,通过想象和联想,化声为形,以文记形,把听觉形象转化为可感、可触、可即的视觉形象,把作用于听众两耳的声音,...
  • 初一语文《口技》教案设计 《口技》的作者以成功的文学实践妥善地突破了以文记声的局限,通过想象和联想,化声为形,以文记形,把听觉形象转化为可感、可触、可即的视觉形象,把作用于听众两耳的声音,改变成作用于...
  • 它将人们在现实中通过触觉、嗅觉、味觉等多重感官感知世界的过程,转化成屏幕上的视觉听觉符号。为了增强直播的可看性,主播需要提供与日常生活体验相似却更具戏剧化的视听内容,让观众从中体会到观赏的愉悦感。 ...
  • Signal Shading Theory?

    2019-08-09 16:18:46
    退一步来说,视觉听觉是人接受信息的主要渠道,可是它们归根结底还是转化为神经电讯号。是不是只要是广义上的信号数据都可以被Shading呢?所以我猜想未来可能有专门的Signal Shading理论出现,...
  • 即对视觉听觉,触觉,平衡感,筋肉感觉,时间感等进行测量。将人们在收到外在刺激后,透过测量生理上的反应值(如:心跳,血压,呼吸等)的变化,将这些数值转化为舒适性的值。印象法即受测者在接受不同程度的外在...
  • 模拟数字转换器的基本原理 美国国家半导体公司 我们处在一个数字时代,而我们的视觉听觉、感觉、嗅觉等所感知的却是一个模拟世界。如何将数字世界与模拟世界联系在一起,正是模拟数字转换器(ADC)和数字模拟转换器...
  • 在过去十年的人工智能浪潮中,以深度学习为代表的人工智能技术已基本实现了视觉听觉等感知智能,但依然无法很好地做到思考、推理等认知智能。因此,具有推理、可解释性等能力的认知智能研究毫无疑问将越来越受到...
  • 在过去十年的人工智能浪潮中,以深度学习为代表的人工智能技术已基本实现了视觉听觉等感知智能,但依然无法很好地做到思考、推理等认知智能。因此,具有推理、可解释性等能力的认知智能研究毫无疑问将越来越受到...
  • 模拟IC的ABC

    2020-12-08 19:22:41
    我们生活在这个世界,依靠视觉听觉、感觉、嗅觉等感官功能感知一切,而自然界还有光、音、温度、压力等等现象,这一切都是模拟的。而随着电子技术的进步,带来了一个全新的数字世界。我们感知的是模拟信号,电子...

空空如也

空空如也

1 2
收藏数 21
精华内容 8
关键字:

听觉转化视觉