精华内容
下载资源
问答
  • HTTP动态自适应流媒体现状

    千次阅读 2013-04-03 19:26:13
    2011年11月,MPEG组织批准了MPEG-DASH(HTTP动态自适应流媒体)标准。在随后的2012年,MPEG-DASH成为互联网流媒体领域的大热话题。同年4月,欧洲的HbbTV联盟宣布将MPEG-DASH纳入其规范的最新版本。活跃在当前流媒体...

    2011年11月,MPEG组织批准了MPEG-DASH(HTTP动态自适应流媒体)标准。在随后的2012年,MPEG-DASH成为互联网流媒体领域的大热话题。同年4月,欧洲的HbbTV联盟宣布将MPEG-DASH纳入其规范的最新版本。活跃在当前流媒体领域的重要公司如微软、爱立信、高通、Netflix、杜比等表示看好MPEG-DASH,杜比甚至在2012年上半年就推出了支持DASH的开发套件,认为未来其有成为主流传输格式的可能性。有业界人士认为,MPEG-DASH规范的兴起是多屏视频自适应码率传输走向成熟的重要一步。MPEG联盟共同主席Leonardo Chiariglione表示,MPEG-DASH起到的作用将媲美当年MPEG-2在数字电视领域的应用。

      DASH-264细则制定,将加速DASH成为主流传输格式

      目前,主要的流媒体传输规范有微软的Smooth Streaming,Adobe的HDS(HTTP Dynamic Streaming),苹果的HLS(HTTP Live Streaming)等。微软在较早时候,已明确宣布会支持DASH格式。

      不久前,在美国洛杉矶召开的一个流媒体会议上,微软媒体平台高级技术推广负责人Alex Zambelli在接受采访时表示,DASH标准会在2013年得到广泛采纳。

      “2012年是DASH开始被认知的早期阶段,在2013年,DASH将得到广泛接纳,随着DASH-264的发布,将加速这一进程”,据Alex介绍,“DASH-264是DASH产业论坛(DASH Industry Forum,简称“DASH IF”)定义的一套应用纲要。论坛通过DASH-264开始为DASH建立细则,以支持互操作性。大约已经有50多家公司加入论坛,共同推广这套标准,定义支持互操作性的细则。”


    图为:DASH 产业论坛的11家发起公司(来源:DASH产业论坛官方网站)

      Alex透露,DASH-264标准规范很快就会完成,下一步的关键是要有实际的产品支持DASH-264规范。现存的一些技术可以作为向DASH的进阶方案。至少从微软的角度来看,当向DASH演进的时候,Microsoft Smooth Streaming是一套可以向后兼容的方案。也就是说,当前投资Microsoft Smooth Streaming的客户将不会受到向DASH迁移的影响,进行平滑过渡。

      “当你开始查看诸如代码、文件类型,当然还有探讨有关句法如何在HTTP上传送的时候,实际上就是在谈论一件具有实际操作性的、会被采纳的事。DASH未来会具有互操作性,这样一来,我开发的游戏就能够与你开发的服务器协同工作,”Alex表示。

      孕育着新的商业机会

      2012年10月,爱立信电视解决方案系统主管Paul Stallard参加了在伦敦举行的Streaming Media London论坛,并参与了MPEG-DASH小组讨论。与Paul在同组讨论的就有微软媒体平台推广负责人Alex Zambelli,他们探讨的议题包括MPEG-DASH的一些关键特性、接受度、获得更大接受度的挑战、自适应码流的机会与影响等。

      其后,Paul专门撰文,谈及这次小组讨论的情况。他认为,MPEG-DASH的崛起孕育着商业机会,将对自适应码流领域产生深远的影响。

      该小组讨论的听众分别来自创新的技术方案提供商,服务和内容商等流媒体领域的顶尖公司,大约50人。这些听众包括了Streaming Media London论坛的主题演讲嘉宾,比如三星电子(欧洲)内容服务经理Sidharth Jayant,他们都对MPEG-DASH展示了浓厚的兴趣。

      小组讨论从未来几年的可预见趋势开始——可观看视频的联网设备爆炸性增长,消费者通过任意设备观看个性化内容的需求与日俱增。MPEG-DASH将在多屏服务中起到非常重要的作用,协助广播业者和内容方在未来掌控自己的命运。讨论认为,MPEG-DASH是一种简化和融合IP视频传输的有效路径,将帮助改善电视基础架构,形成突破性的解决方案,并为服务提供商和运营商带来培育新商业模式的机会

      MPEG-DASH的技术优势显著,比如通用加密和多格式DRM支持。有参与讨论的嘉宾指出,MPEG-DASH 提供了一种更加经济高效的方式,协助提升包括B2B和B2C两种模式在内的客户间的通信

      Paul认为,最重要的一点是,商业用户会非常喜欢应用MPEG-DASH来简化系统,提升传输效率。消费者在大量形态各异的设备上产生巨大的视频需求,运营商和服务提供商要在满足这些需求的同时控制支出,压力极大。将碎片化且互不兼容的HTTP自适应码流格式统一为一个通用标准——MPEG-DASH,会简化复杂度,降低投资。

      对于运营商和服务提供商而言,服务于当前的碎片化市场,是极其分散精力的。如果采纳MPEG-DASH,产业链上的各方将可以专注于自己的本行,无论是培育优质内容、货币化,还是向所有设备类型的用户提供更好的打包视频服务体验。

      标准化的快慢取决于实际的动力大小。2012年,各种视频流媒体技术之间展开了激烈竞争。已有两三家主要的消费电子厂家承诺在产品开发中支持MEPG DASH。芯片生产商开始在手机芯片中加入对MPEG-DASH的支持,并开发在各设备间直接播放的功能。

      苹果是否会集结到MPEG-DASH阵营?

      虽然已有相当数量的主流公司支持DASH,也有不少还在观望中。微软的Alex认为,这种观望状态很快就会改变,现在已非常清晰地看到,支持DASH的机构和组织与日俱增。
     
      一个很有趣的议题是,苹果会继续专注于HLS还是会集结到MPEG-DASH阵营?

      爱立信的Paul认为,如果苹果不支持MPEG-DASH,未来就会有2种主流的自适应码流技术——DASH和HLS。相对于当前产业情况而言,这也会是一个非常明显的提升。但当DASH标准正式确立的时候,还是期望整个产业界能统一到MPEG-DASH标准上来。

      HLS为苹果产品提供了一个明显优于其他移动平台的特性——可以播放具有广泛适应性的HLS自适应码流。这也是为何2011年底Google决定在Android 3.0中内置HLS的原因。由于HLS的存在,向苹果的iOS设备中分发视频,相对而言更简单;而由于缺少技术规范,向Android,黑莓或者其他形态各异的移动设备分发视频就会复杂一些。

      如果苹果采纳DASH,并且将其应用到自身所有设备中,那么苹果产品由于HLS所具有的竞争性优势就消失了,因为如此一来,所有支持DASH的移动设备就会在同一条水平线上播放视频。因此,有观点会认为,采纳DASH会降低苹果产品相对于其他移动平台的竞争力,至少在短期内是这个样子。

      与此形成对比的是,内容发行方希望有一套灵活的,且具有完整DRM保护的分发机制。如果有足够多的内容制作方支持DASH,那么可能会促进苹果支持这个方案。但是,除非苹果宣布支持DASH,似乎内容生产者不太可能停止制作基于HLS协议的流媒体视频,这将影响DASH的吸引力。

      此外,Adobe与苹果有些类似的情况是——Flash Player在桌面系统中得到广泛应用,这也是其与微软的Silverlight,甚至是同HTML5竞争的一个核心优势。尽管Adobe是DASH产业论坛的11家发起机构之一,参与了标准化工作并宣布支持DASH,但还未明确给出在新版Flash Player中采纳DASH的时间表。

      总体而言,DASH是一套简单高效的方案,允许进行一次编码后安全地分发到通用平台的所有设备(包括移动设备,OTT设备,通过插件方式到桌面设备或者HTML5设备)中。一个乐观看法是,流媒体市场对DASH的强烈需求会促使苹果,Adobe,Mozilla(译者注:核心产品是浏览器Firefox)都采纳这个规范。但在此之前,虽然MPEG DASH日益崛起,重要性愈加凸显,却不会占据全部市场份额

    展开全文
  • 上周参加了ICME2016国际会议,做了presentation,也了解到了很多多媒体领域的学术动态和前沿科技,在这里整理分享给大家,希望大家有机会也多多参加这些优秀的会议,在开会的城市游玩之余也是能有很多收获的。...

    上周参加了ICME2016国际会议,做了presentation,也了解到了很多多媒体领域的学术动态和前沿科技,在这里整理分享给大家,希望大家有机会也多多参加这些优秀的会议,在开会的城市游玩之余也是能有很多收获的。

    会议简介

    ICME,全称International Conference on Multimedia and Expo,即国际多媒体与博览会议,又IEEE 计算机学会、电路与系统学会、通信学会、信号处理学会合办,始于2000年,不仅是学术界交流多媒体领域最近研究成果的旗舰论坛,也是工业界展示最新产品或系统的平台。2016年ICME会议于7月11日至7月15日在美国西雅图召开。

    在本次会议中,我们重点听取了以下内容:

     

    1、A Quest for Visual Intelligence in Computers- Fei-Fei Li, Associate Professor, Stanford University

    Fei-Fei Li是计算机视觉领域的大牛,由她主导的imagenet图像库是机器视觉领域最大最全的图像库,基于此举办的挑战赛更是吸引全世界的学者参与进来。在本次讲座中,她从视觉引发的物种大爆发讲起,梳理了人们在追寻让计算机更智能地理解图片和视频的道路上所做的努力,也介绍了她所在的实验室在这一领域的最新成果,她也提到很多成果都是以大数据和神经网络(深度学习)作为基础的。

    Fei-Fei Li首先指出,计算机视觉的目标在于Total Scene Understanding,在这一过程中势必涉及到对图片或视频像素的处理,但是简单的measuring pixels不等于understanding scenes,这里面涉及到动物的视觉感知的原理,很多生物实验都给出了证明,比如著名的the kitten experiment,实验中的小猫只会对以前见过的图像做出生理上的反应,这些实验给我们的第一个有关计算机视觉的信息是
    Message1 learning is the path to visual intelligence
    这也是如今计算机视觉和机器学习紧密联系在一起的根本原因之一。

    在大的目标下,计算机视觉领域有很多子目标,object recognition就是其中之一,随后Fei-Fei Li就目标识别领域数十年来的发展轨迹做了介绍,包括最新的进展。

    她指出第二个有关计算机视觉的关键信息是
    Message2 Learning requires Big Data
    将大数据应用于计算机视觉的典型例子就是imageNet,包含了22000个类别的15000000张图片,而基于该图片库的The image classification challenge中,也是随着卷积神经网络的运用而取得了突破性的进展,这无疑再次强调了机器学习的强大。讲到这里,Fei-Fei Li又引出了object detection的话题,并提出了其中的难点:small and texture less objects are very difficult to detect。

    计算机视觉的第二个子目标是Gist of a scene aka. Image captioning,也就是图像、视频的理解,由计算机自动判断出一个场景包含的内容的主旨,比如输入一张照片,计算就能给出“这是一个穿红衣服的小女孩在玩气球”的结果。这其中就有两个关键问题,how to process image以及how to generate sentence,而这两个问题的答案又是神经网络,事实上,a deep understanding requires knowledge and texture.

    个人感想:由于时间限制,Fei-Fei Li没有将她准备的内容全部讲完,但是全部的slides都分享了出来,就在icme2016的官网上。她从生物的视觉感知步骤讲起,将每一个步骤对应的研究领域的发展娓娓道来,清晰地梳理了过去和将来可能有的研究思路。以往,很多人只知道说机器学习、神经网络非常重要,却说不出个所以然,也无法阐明到底重要在哪里,通过她的演讲让人切实地意识到深度学习等技术在计算机视觉的作用,这些技术的重要性不是突然出现的,而是切实地符合科学规律的。那么是否所有人就都要掌握机器学习这类最新最热的技术呢,Fei-Fei Li也给出了答案:这些新技术是一种数学语言,尤其是在数据分析和人工智能领域,既然如此,答案也就显而易见了。

     

    2、Quality of Experience in Multimedia Systems and Services

    本讲座的内容包含三个部分,首先是QoE的总体介绍,然后是DASH中的QoE,最后是一个新的概念-Quality of Life。这部分的内容因为有一定的基础,所以主要以补充为主。
    比如在第一部分中,我们了解到有一个Qualinet联盟(www.qualinet.eu),致力于推动工业界和学术界对QoE的重视。此外,我们还了解到ISO 9000系列都是与质量管理有关的标准集,MPEG组织也有自己的一套主观质量评价标准,ITU-FSG12是与QoE有关的标准,我们还了解到QoE评价的关键在于collect users feedback,这也体现在第二部分中的crowd source QoE evaluation中。
    QoE的modeling总结如下图

    事实上,QoE也不是纸上谈兵,已经有公司切实地将其付诸于行动了,如下例

     

    比较有意思的是,因为切换频率同样会严重影响QoE,所以我们看到的分片时长最短就是2s,这也是因为再短的分片时长会导致频繁的切换,给人闪烁的感觉。

    个人感想:这一部分内容比较熟悉,但仍有需要查缺补漏的内容,比如播放DASH内容时如何实现AD insert?????

    3、Making the Virtual Real – The future of Augmented and Virtual Reality

    这一讲座是由谷歌、微软、Valve的技术人员带来的有关VR、AR的内容。
    VR、AR的核心在于为用户提供沉浸式的体验,这种体验还包括与周边环境的交流,是一种增强的感知体验。除去一些科普性的内容之外,谈到了一些业界面临的挑战,比如头戴式设备的sensing、如何与现实世界co-exist、安全问题、静态和动态场景重建问题、人体模型重建问题、低功耗低成本问题。

    个人感想:VR、AR的热门程度自然无需怀疑,但是似乎还没有得到完全的普及,其实这就和智能手机的发展轨迹类似,人们还需要继续发现VR\AR的用户应用场景,此外,内容的制作也是一大挑战。

    4、Best Student Paper Award Session

    这部分是最佳学生论文奖的竞赛部分,共有四位提名者,都是来自中国的学生,非常自豪,但是不得不说中国学生的英文演讲水平真的有待提高啊~
    第一篇提名论文是关于车辆识别的,本质还是检索,总结起来就是既有简单的特征(纹理、颜色等)检索,又有基于深度学习的更为复杂的high level检索,很值得学习。

     

    第二篇的内容比较偏,略过。
    第三篇提名论文是关于质量评价的,很有意思,不同于以往的算法都是将受损图像和最优质量图像对比得出评价结果,这篇论文是和原始图片的最差质量比较,

    从压缩到最差级别的图像中提取出了一个所谓的pseudo structural similarity的概念,利用这一指标进行评价

     

    而且他们的评价算法进行一些优化之后实现以19fps的速度对4k分辨率的图像进行质量评价。

    第四篇提名论文是对HEVC编码器的优化,用贝叶斯分类算法做帧内编码的决策,贝叶斯分类也是很多分类算法的基础,在数据挖掘等领域也用的很多,也很有启发性。

    个人感想:不得不说,机器学习相关的知识和很多已有的成果结合在一起就能再次迸发出新的活力呢。

    5、bitmovin Grand Challenge on Dynamic Adaptive Streaming over HTTP

    这一部分是由bitmovin公司主办的挑战赛,需要参赛者设计DASH的自适应算法,并且在指定的数据集(QoMEX、Qualinet Dataset)上进行测试。有三篇文章提名,其中两篇来自中国,都是北大的学生,第一篇利用了马尔科夫模型,第二篇基于控制论,在客户端设计了动态变化的buffer,还利用了fast-start batch downloading的技术,加快MPD和初始seg的下载。两篇都规规矩矩,但是做汇报的学生态度感觉一般,不严肃不认真。
    第三篇是将DASH的自适应机制和人口出生率死亡率做了一个类比然后提出了一个算法,非常新颖,

     

    但是因为主讲者是一位黑人朋友,口音比较重,本来概念就比较新颖,再加上理解成本,基本没怎么听懂,准备详细阅读一下他的论文后再做整理。
    需要注意的是,这个grand challenge明年还会举办~


    个人感想:DASH的自适应算法是一个容易入门、容易出成果的研究项目,但是每个人都说自己的比别人更好,没有统一的评价标准,就算提出了一个评价标准,又有人说你的评价体系不权威,我倾向于等待MPEG组织或其他组织提出权威的算法性能评价标准,也许已经有了,有待调查。

    6、Ultra HD – Roadmap of High Qualiry A/V Content to the Home

    这是一个工业论坛,由来自Dolby、Sony、LG的技术人员给出关于超高清内容、HDR内容的制作、传输等方面的讲座。其实这和传媒大学所谓的特色-广播电视工程专业非常相符,但是这里就看出我们学校和真正的技术前沿有多少差距了,呵呵一笑。

     

    可以说Ultra HD面向的是下一代的客厅娱乐,它意味着更高的空间分辨率和时间分辨率即帧率,除此之外,还意味着更大的亮度和色域范围,即HDR。

     

     

    4k的规格在这里简单提一下,
    4K-UHDTV-1 standard 8 Megapixels 4k
    4k-UHDTV-2 standard 33Mefapixels 8k
    这里HDR的内容比较值得深入研究,比如更宽的亮度和色度范围可以带来true black和true white,EOTF、perceptual quantizer、8bit\14bit gamma、SMPTE2084等等内容,都很陌生,但也很有兴趣,其实不只是客厅,移动端上的安卓最新版也提到了对HDR的支持。
    其实总结起来下一代的客厅娱乐需要考虑的是三大因素:nits、bits、bucks(成本),这一总结很有意思。

     

     

    讲座的第二部分是HDR production overview,HDR的内容制作是一个缓慢发展的领域,其中的一个点就是color depth的提升,从8bit到10bit再到12bit。

     

     

    讲座同时包含了HDR内容传输的解决方案。

     

     

    讲座的第三部分是显示技术,即rendering better pixels,其实也有点老生常谈,无非就是更优的亮度、对比度、观看角度。当然也有一些专为人眼视觉系统优化的技术,比如chroma subsampling、new pixel structure(还可以提升power utilization efficiency),sub-pixel rendering等等。

     

     

    讲座的最后部分是HDR dynamic metadata,由dolby提出,可以track内容的变化,可以做tone\color volume mapping

     

     

    HDR同样面临一些挑战,他大约会导致25%的码率增幅,所以码率可能会成为一个挑战,而dolby vision技术使用metadata可以在HD或4K内容上带来HDR体验,考虑到码率问题,也许HD+HDR就足够了。还有一个partial HDR的概念也值得关注。

    个人感想:国内的广电从业者往往有一种器材崇拜,总喜欢吹嘘自己拥有什么设备、会使用什么设备,但是再好的设备又不是你制造的,甚至其中的原理你都不太懂,有什么值得吹嘘的呢?

    7、Packet Video Workshop2016 – Coding for Augmented and Virtual Reality

    由微软的技术人员带来的VR和AR内容编码方法讲座。讲座最开始先科普了一下VR和AR在capture技术上的区别,前者是inside out,后者则是outside in(关于AR capture技术的介绍,可以参考siggraph中MS的演示视频,在youtube上应该也能搜到,很有意思;还有,AR是不会产生motion sickness的),同时还介绍了一下最新的holoportation技术,非常astonishing,可以将不在同一地点的人的实时虚拟模型进行传送,并且可以互动。
    至于具体的编码方法,说实话,因为涉及到很多数学东西,没有怎么听懂,但还是能发现和传统视频编码的套路类似,去高频、留低频,即可实现coding、prediction、interpolation,只不过对应VR、AR特殊的应用场景会有各种映射、point cloud、mesh等等内容。有兴趣详细了解的朋友,可以去搜索相应的论文。
    不过VR|AR内容的编码还有一些问题,比如缺乏dataset、reference codec以及distortion codec,不过就像过去的coding method,面包会有的,一切都会有的。此外,针对VR、AR内容的质量评价,需要注意的是PSNR不再有效,这也是as a result of mesh,一点点的moving动作就会导致画面大大不同,PSNR也会剧变,这里面其实也能看到VR、AR内容与传统视频内容的一大区别。
     

     

    此外再提一点,在另外一个讲座”Mulsemedia”-based Collaborative Mixed/Virtual Reality Environments中,提到了VR中的一些更细节的问题,比如camrea标定(使用棋盘格,对齐左右眼的RGB data和deep information),动作recognition(不同关节、左右识别,因为user may not always facing camera)、deep scale(也即是在camrea中实现近大远小的基本物理原理)、noise removal、depth image based meshing point cloud等等。

    个人感想:有时候真希望自己能有条件、有时间在传媒大学当一名老师,这些明明很有前途、很有挖掘点的课题、很符合传媒大学特色的研究项目却偏偏没有什么老师研究,如果是我,一定可以大干一场。现如今我所能做的也就是将自己的所见所闻分享出来,希望能帮到大家。

    8、DASH special session

    这部分就是各个有关dash的论文的presentation了,总结起来,有这么几个研究方向,一个是自适应算法、一个是针对dash特点做的编解码器优化、一个是信道传输上的带宽估计和利用率优化,最后一个就是服务器端的优化。
    8.1 Efficient Lightweight Video Packet Filtering for Large-Scale Video Data Delivery
    这篇文章的主题是讨论如何coping with bandwidth shortage?给出的解决方案就是blocking some frames to match avail. Bandwidth,那么这其中就涉及一个filtering strategy了,同样是一个最优化问题,given loss ratio, block less important frames to max. QoE.具体来说是在container中加上metadata,这一metadata contain important score for every frame,这个score是根据frame type\size\dependency\distortion来计算的。其中的distortion是用一种chain mode来计算的,最后的验证是用MS-SSIM来作为指标的。
    8.2 Low Delay MPEG DASH Streaming over the WebRTC Data Channel
    其实就是用webrtc的channel来carry dash video session, change pull mode to push mode,原本的dash传输中的delay问题主要包含两个部分,一个是segment dur,一个是TCP delay,这里很大程度上是因为TCP的slow start策略,而通过使用webrtc channel,就能消除这部分TCP delay,从而达到low delay的目标。
    8.3 DASH Sub-Representation with Temporal QoE Driven Layering
    这一篇很有新意,普遍来说大家都认为DASH的sub-rep没什么用,这篇论文就给我们展示了它的用处,详细的内容我还没理解透,大致来说也是给不同的帧加上important factor,给更重要的帧更高的优先级。
    8.4 Adaptive Media Playout Assited Rate Adaptation Scheme for HTTP Adaptive Streaming over LTE System
    简单来说是两个步骤:一是guarantee playback continuity,二是utilize residual resource
    8.5 Boosting Decoding Quality Performance in DASH-based Streaming Frameworks
    再一次的,给不同的帧不同的重要级别,不过在这个判断重要性的过程中应用到了machine learning的内容。整篇论文的内容更多的是关于codec characteristic的,以PSNR和SSIM作为评价指标,基于HEVC做的实现,只增加解码端的复杂度来获得总体质量上的提升。
    8.6 History-based Throughput Prediction with Hidden Markov Model in Mobile Networks
    使用隐马尔科夫模型做带宽预测。传统的预测模型基于RTT、lossrate,不考虑历史流量,而history-based模型基于stochastic prediction model和GMM-HMM。在具体的计算过程中还涉及到forward-backward algo和viterbi model。最后的验证试验不仅在real network中进行,还在各种各样的network traces中进行。这一点很值得学习。
    8.7 A Dynamic and Complexity Aware Cloud Scheduling Algorithm for Video Transcoding
    是基于Apach Hadop的云转码的效率提升算法,主要是任务调度算法,传统的任务调度算法有FIFO、FAIR Schedule和capacity schedule。这里做的improvement就是根据复杂度决定优先级,复杂度有转码视频的帧数决定。根据cpu utilization的情况动态改变云转码系统中的slot number。还有一个转码时间的优化方案:将大文件以48-64MB为单位切割为segment,分大块和小块调度下载优先级,类似于迅雷的空闲下载。作者还指出,这样的调度算法也可以用于DASH的live streaming框架。

    个人感想:有论文提到了一个DASH-UE评价模型,似乎是标准化的,值得关注一下!!!!!

     

    ============================================================================================

    以上就是我这次参加ICME会议的收获了,希望你读完之后能获得一点启发~

     

    关注公众号,掌握更多多媒体领域知识与资讯

    文章帮到你了?可以扫描如下二维码进行打赏~,打赏多少您随意~

     

    展开全文
  •  不知道国外的学生怎样一个状态,国内我所知道的周边院校,新媒体专业毕业的学生,毕业了也不知道新媒体出去是干什么的?,很多当了美工,很多当了flash制作者,更多的是转行了,听夏老师说美国的设计学院学生在...

      躺在床上想想自己的毕业于新媒体专业,走过路过,有不意见共同讨论,请随意发表... 
      不知道国外的学生怎样一个状态,国内我所知道的周边院校,新媒体专业毕业的学生,毕业了也不知道新媒体出去是干什么的?,很多当了美工,很多当了flash制作者,更多的是转行了,听夏老师说美国的设计学院学生在课程外自学编成,老余老师对这样的情况觉得会让学生有点为难。

      新媒体
      我们新媒体专业出去到底能为新媒体领域做点什么?记得我毕业的时候对什么叫富媒体、什么叫流媒体都不清楚,把banner意思混成一团。记得毕业那年去美院看新媒体毕业展,有这么个共识:“他们搞的是装置艺术,只要有钱我们这些人也能搞,也能玩”。真不知道美院老师听了这个共识会不会气吐血。我不得不承认我们错了,美院的新媒体我理解成装置新媒体,在美国,澳大利亚,英国等等发达国家的公共场合,让用户参与到装置新媒体,宣传产品成果。而我们学校搞的是网络新媒体,借助网络为传播者和接受者、接受者和接受者搭建流畅的网络平台。我们跟美院有个共同的特点,数字性,互动性,个人性,我理解为都是数字互动新媒体。

      新媒体是:用户能自主选择内容、传播者和用户形成对等交流、同时无数用户也可以进行对应交流的媒体。艾,太概念了,还是简单点,来自美国《连线》杂志对新媒体的定义:“所有人对所有人的传播。”它具有互动性、数字化、个人化的特点,数字化是本质,互动是表现形式,个人化则是一种延展。
      互动性。互动应该是一种使对象之间相互作用而产生彼此发生积极的改变的过程。关键词是“相互作用(reciprocity——A reciprocal condition or relationship.)”“积极”。分众不请自入的广告形式,当然被排除在新媒体之外。互动性使得在公共领域中的传播不仅有大众传播的性质,还有人际传播的特征。
      数字化。在题为“新媒体的新字,便是霸权,前无古人的霸权”的日志中,我讨论过这个维度。数字化的内容,使得内容本身得以更广阔地实现“范围经济”,即以很多种不同形式呈现。
      个人化。传统媒体,在面对每个受者之时,都是一样的。比如,同一台节目,或者,同一张报纸。但是,新媒体不然。同样一个域名的网站,用户面对的界面和内容可能不同。原因可能有二:一是用户定制;二是传者(也就是网站)根据用户的操作习惯,通过类似cookies技术,给予不同的内容呈现。这两个原因其实根子上,还是受者与传者互动的结果。试想从来没有留下阅读痕迹的用户,怎么会被网站判断出他希望读什么?

      清华大学新闻与传播学院熊澄宇教授:“在计算机信息处理技术基础之上出现和影响的媒体形态。”我认为:一、新媒体并非就是新出现的媒体(通常大家将互联网和手机称为第四、第五媒体。按照新媒体形态的出现时间这样的排序法去划分新旧媒体显然太粗放了),二、新媒体并非就是新技术支撑的媒体(数字技术的发展带来了数字广播,数字广播显然不是新媒体)
      分众传媒CEO江南春:“分众就是区分受众,分众传媒就是要面对一个特定的受众族群,而这个族群能够被清晰地描述和定义,这个族群恰好是某些商品或品牌的领先消费群或重度消费群。”

      互动
      工作中,在一起讨论创意时,经常会有人说:“艾,你这个想法不错,就是缺少互动,没有一个鼠标动作让用户去玩”。有资深广告人聊天时竟然说:“游戏不是互动,他就不过是在玩个游戏嘛”。完蛋,我个人认为很多大小公司都存在这个现象,被互动表面意思迷惑了。
      所谓的互动:就是双方互相的动起来。一种使对象之间相互作用而产生彼此发生积极的改变的过程。关键词是“相互作用(reciprocity——A reciprocal condition or relationship.)”。而不是简单理解成一定要让鼠标在这么个显示屏幕上画朵花,画个鸡蛋后画面出现什么样子的效果。对于做什么样性质的网络广告,应该有的放矢,比如鼠标感应,拖、拉、触一些动作引起用户兴趣;比如视觉冲击震撼用户;比如画面表现形式,涂鸦,插画等等;这些最终目的是让用户参与到整个互动过程中来。采取什么样的表现形式是互动营销重要的部分。我敢肯定:不管做什么设计,有什么创意,本质在于以人为中心,这是真理。互动的双方一方是消费者,一方是企业。他们抓住共同利益点,找到巧妙的沟通时机和方法才能将双方紧密的结合起来。互动营销尤其强调,双方都采取一种共同的行为。
      公司互动培训会上:演讲人shon把互动归纳为Design+Technology,我很赞同,因为设计已经包括用户使用性
      互动广告的本质 :互动广告作为一种广告活动,它必须具备以下四个条件:内容主题、受众、时间、媒介或载体。离开其中任何一个条件都构成不了互动广告。互动广告作为一种广告手段是符合人类的自然沟通行为的一种双向沟通理念。它区别于传统的广告方式。互动形式是互动广告作品的灵魂。
      广告圈内有这么种说法:三流的让人们对表现形式表示夸奖;二流的让用户对其创意和策略印象深刻;最成功的则让目标群付诸行动,而忽略创意和策略本身。那么最好的广告当然就必须运用互动营销来实现。

      互动营销
      互动营销是指:企业充分利用消费者的意见和建议,用于产品的规划和设计,尽可能生产消费者需求的产品。
      互动营销的实质就是:充分考虑消费者的实际需求,切实实现商品的实用性。
      互动营销的表现方式:目前的主要有付费搜索广告、手机短信营销、广告网络营销、博客广告和电子邮件市场营销等,主要借助互联网技术实现营销人员和目标客户之间的互动。
      精准的互动营销:通过《Marketing Test》营销测试系统及大型个性数据库对消费者的消费行为进行精准衡量和分析,实施精准定位。目的是更好地满足客户的个性化需求、树立起企业产品和服务在顾客心目中的良好形象,为企业培养和建立稳定的忠实顾客群,从而达到一对一传播沟通的终极目标,即由企业与消费者之间的沟通转化为消费者之间的沟通,从而实现消费者的口碑传播和无限客户增殖;“一传十,十传百”形成裂变式客户增殖效果,使企业低成本扩张成为可能。
      记不得广告届哪位名人说过这样的话:口碑传播将是未来最强大的广告。

      所以从事互动设计的人,必须有大量的知识和文化(不再是个艺术家),必须了解行业的信息(看的懂基础的English),必须关注消费者动态(别忘了自己也是一个消费者),必须了解当前世界新的科技(中国当前技术晚发达国家那么一大步),必须了解大量生活产品(包括品牌文化),做出精准的广告创意,在整合营销中添上完美的一笔。

    [Last Modified By hytal, at 2008-06-08 17:45:18]
    展开全文
  • 1.1多媒体技术概述

    2017-09-18 21:34:22
    1.媒体的含义(从计算机的...多媒体严格意义上至少包含一种动态媒体   根据国际电信联盟电信标准局ITU-T(即原国际电报电话咨询委员会CCITT) 2.媒体的五大种类: @感觉媒体(人们接触信息的感觉形式:视觉、听觉、触

    1.媒体的含义(从计算机的领域来说包含两层含义):

    @存储信息的实际载体(纸张、磁盘、光盘、半导体存储器)

    @表示信息的逻辑载体(静态媒体(文本、图形、图像)+ 动态媒体(动画、视频、音频))

    多媒体严格意义上至少包含一种动态媒体

     

    根据国际电信联盟电信标准局ITU-T(即原国际电报电话咨询委员会CCITT)

    2.媒体的五大种类:

    @感觉媒体(人们接触信息的感觉形式:视觉、听觉、触觉、嗅觉、味觉)

    视觉和听觉在多媒体中研究,触觉、嗅觉和味觉在虚拟现实中研究

    @表示媒体(处理感觉媒体而人为构造的一种媒体(静态媒体(文本、图形、图像) 动态媒体(动画、视频、音频)))

    @显示媒体(表现和获取信息的物理设备)

     输入的显示媒体:键盘、鼠标、麦克风

     输出的显示媒体:显示器、打印机、音箱

    @存储媒体(用来存放表示媒体:磁盘、光盘、内存)

    @传输媒体(传输数据的物理载体:双绞线、同轴电缆、光纤、无线传输介质)

     

    3.多媒体的定义:

    多媒体指的是表示媒体(静态媒体(文本、图形、图像)+ 动态媒体(动画、视频、音频)进行处理)

    多媒体是融合两种或两种以上表示媒体的一种人机交互式信息交流和传播媒体

     

    4.多媒体数据的处理过程:

    @多种媒体

    @数字化

    @(以文件的形式)存到计算机

    @(效果展示)呈现给用户

     

    5.多媒体技术的定义:

    容纳了计算机技术、视听技术、通信技术,是一种交叉技术

    将多种媒体信息 通过计算机进行数字化采集、编码、存储、传输、处理和再现等,使多媒体信息建立逻辑连接,并集成一个具有交互性的系统

    综合处理图文声像的技术

     

    6.多媒体技术的特征:

    @多样性(综合处理多种媒体信息,将计算机处理的信息空间扩大了

    @集成性(多种媒体信息的集成,以及与这些媒体相关的设备的集成)

    @交互性(能为用户提供有效的控制和使用信息的手段)

    @实时性(能对静态媒体,尤其是动态媒体进行实时处理能力)

    展开全文
  • 媒体及流媒体传输协议简介

    千次阅读 多人点赞 2019-06-01 22:26:10
    媒体(streaming media):是指将一连串的媒体数据压缩后,经过网上分段发送数据,在网上即时传输影音以供观赏的一种技术与过程,此技术使得数据包得以像流水一样发送;如果不使用此技术,就必须在使用前下载整个...
  • 包括一个m3u(8)的索引文件,TS媒体分片文件和key加密串文件。  常用的流媒体协议主要有 HTTP 渐进下载和基于 RTSP/RTP 的实时流媒体协议,这二种基本是完全不同的东西,目前比较方便又好用的是用 HTTP 渐进下载...
  • WebRTC本地媒体——媒体模型

    千次阅读 2019-09-04 11:39:13
    目录 1 源(Sources)与 接收器(Sinks) ...2.3轨道上的媒体流(Media Flow) 2.4轨道接口相关的API 2.5 轨道所支持的约束 2.6可约束的属性 2.7轨道的能力 MediaTrackCapabilities 2.8轨道的...
  • 媒体/流媒体文件格式详解

    万次阅读 2017-05-31 20:34:41
    摘 要 流媒体文件格式在流媒体系统中占有重要地位,设计合理的文件格式是提高流媒体服务器工作效率最直接和最有效的办法。该文在剖析常用流媒体系统和文件格式的基础上,特别地对美国xiph.org基金会的开源流媒体...
  • Android多媒体开发

    千次阅读 2016-10-02 12:38:29
    一、什么是多媒体 多媒体(duō méi tǐ) 的英文单词是Multimedia,它由media和multi两部分组成。一般理解为多种媒体的综合 多媒体是计算机和视频技术的结合,实际上它是两个媒体;声音和图像,或者用现在的术语:...
  • 一下,什么动态页面,什么是静态页面,接着我们再来理解静态页面和动态页面中的静态和动态到底指的是什么? 静态Web页面 Web的基础是将Web页面从服务器传输到客户端。在最简单的形式中,W...
  • 媒体

    千次阅读 2012-06-27 16:49:23
    媒体简介 随着Internet的日益普及,在网络上传输的数据已经不再局限于文字和图形,而是逐渐向声音和视频等多媒体格式过渡。目前在网络上传输音频/视频(Audio/Video,简称A/V)等多媒体文件时,基本上只有下载...
  • 作为应用程序开发人员,您可以使用任何Android设备上可用的任何媒体编解码器,包括由Android平台提供的媒体编解码器和特定于设备的媒体编解码器。但是,最好使用与设备无关的媒体编码配置文件。 下表描述了安卓...
  • 数字媒体复习

    千次阅读 2018-06-25 21:38:45
    数字媒体包括了以下哪些媒体形式?(多选) (ABCDFGH ) A.动画 B.互联网 C.图形 D.文字 E.移动 F.音频 G.图象 H.视频 数字媒体是指以二进制数 的形式记录、处理、 传播、获取过程的 ,这 些载体包括数字化的文字...
  • 媒体技术概述

    千次阅读 2019-05-08 11:06:42
    一、流媒体定义 所谓流媒体,是指采用流式传输的方式在Iternet播放的媒体格式。流媒体又称流式媒体,是将普通多媒体,如音频、视频、动画等,经过特殊编码,使其成为在网络中使用流式传输的连续时基媒体,以适应在...
  • 社会媒体挖掘之引言

    2016-10-17 11:00:03
    一、 社会媒体挖掘是什么 1. 社会媒体挖掘 社会媒体挖掘是从社会媒体数据中表示、分析和抽取可操作模式(即知识)的过程。 2. 社会媒体数据 社会化媒体数据指人们在社会媒体中产生或分享的各类信息,包括评论、...
  • 操作系统学习笔记:多媒体系统

    千次阅读 2016-02-04 22:04:52
    一、什么是多媒体 1、媒体传送 多媒体数据同样存储在文件系统中,与常规文件的区别在于,多媒体文件必须以某一特定速率访问。 多媒体文件可以存储在远程服务器上,使用流技术通过网络传送到客户端。 两种流技术...
  • 在web开发中常常会遇到视频等媒体视频播放的问题,那么就需要一个好用的媒体播放器来提供基础技术支持,而clappr就很好的满足了我们的要求,它是一个Javascript实现的可扩展的Web媒体播放器,功能非常强悍,你可以在...
  • 多媒体开发指南

    千次阅读 2005-12-07 20:40:00
    设置(Profile)一个设置是一个ASF的配置(configuration)的描述数据集合。一个设置必须至少包含一个流的配置设置。...一个设置也包含很多创建ASF文件时使用的ASF的特性,这包括互斥、媒体优先级、带宽
  • 多媒体处理

    千次阅读 2013-10-22 09:09:10
     在Microsoft公司去年推出的VC++6.0中已经包含了ActiveMovie控件的2.0版,笔者 在VC++6.0下利用这个控件自制了一个简易的媒体播放器,除了满屏功能外,还可以对音量进行控制。下面把具体做法介绍给读者。  ...
  • 媒体服务器

    千次阅读 2010-04-20 10:14:00
    因为Internet以包传输为基础进行断续的异步传输,对一个实时A/V源或存储的A/V文件,在传输中它们要被分解为许多包,由于网络是动态变化的,各个包选择的路由可能不尽相同,故到达客户端的时间延迟也就不等,甚至先发...
  • 多媒体基础知识

    千次阅读 2007-07-19 15:55:00
    多媒体基础知识媒体是指承载信息的载体,可以分为感觉媒体,表示媒体、显示媒体、存储媒体和传输媒体五种。多媒体是指多种信息载体的表现形式和传递方式,即将音频、视频、图像和计算机技术、通信技术集成到同一数字...
  • 媒体技术

    千次阅读 2018-06-28 15:24:45
    简介流媒体技术不是一种单一的技术,它是网络技术及视/音频技术的有机结合。在网络上实现流媒体技术,需要解决流媒体的制作、发布、传输及播放等方面的问题,而这些问题则需要利用视音频技术及网络技术来解决。定义...
  • 说明:本文来自一篇出处不明的老文章,有些内容已过时,但仍有很大的参考价值。一音视频编解码技术 ...一、音视频编解码技术1、MPEG4 MPEG全称是Moving Pictures Experts Group,它是“动态图象专家组”的英文
  • 移动流媒体业务的技术与标准

    千次阅读 2011-01-29 21:56:00
     流媒体业务是从Internet上发展起来的一种多媒体应用,指使用流(Streaming)方式在网络上传输的多媒体文件,包括音频、视频和动画等。    流媒体传输技术的主要特点是以流(streaming)的形式进行多媒体数据的...
  • 媒体技术原理

    千次阅读 2013-01-06 16:13:45
     流媒体技术是一种专门用于网络多媒体信息传播和处理的新技术,该技术能够在网络上实现传播和播放同时进行的实时工作模式,相对于其他的一些音、视频网络传输和处理技术,流媒体比较成熟和使用,目前已经成为网上音...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 119,224
精华内容 47,689
关键字:

动态媒体包括什么