精华内容
下载资源
问答
  • 基于Web过程模拟的动态Web信息获取

    千次阅读 2009-08-13 21:32:00
    采用性能优异的Web信息获取组件CURL,对大量科技文献网站的网页进行信息获取,实验表明CURL具有优异的处理速度,并成功应用到甘肃省科技文献共享平台的统一检索系统中。关键词:Web过程模拟;动态Web信息获取;CURL...

    摘要:介绍了分析相关Web页面的方法和经验,实现了自动提交HTML表单获得所需页面。采用性能优异的Web信息获取组件CURL,对大量科技文献网站的网页进行信息获取,实验表明CURL具有优异的处理速度,并成功应用到甘肃省科技文献共享平台的统一检索系统中。
    关键词:Web过程模拟;动态Web信息获取;CURL
    中图分类号:TP393


           随着Internet的快速发展,Web资源已经成为一种人们获取信息的主要来源。但是对于需要查询的信息,很多网站必须经过注册登录后方可使用提供服务的页面,而且各个网站的信息表示具有很大的异构性,给用户带来很大不便。为了访问Web上大量有用的信息,动态异构的Web信息获取方法就成为了一个研究的热点。
           对于动态异构的Web资源,首先需要分析其网页表单,模拟用户点击行为找到结果页面,这些都是获取动态Web资源的难点问题;此外,Web网站的动态变化对于保持信息抽取的准确性也是一个挑战,有待研究者去解决。文献[1-2]介绍了基于Web过程模拟的异构数字文献统一检索系统设计与实现,但对基于Web过程模拟的动态Web信息获取原理及实现没有详细阐述。本文以获取科技文献资源网站的动态Web信息为例来说明问题。


    1 基于Web过程模拟的动态Web信息获取原理
          现在很多网站提供的页面往往并不是可以通过一个简单的URL就可以访问的,而必须经过注册并登录后方可使用提供服务的页面。不同的资源对于登录有不同的限制。由于与Web交互的细节需要人们自己来实现,这就需要人们对访问Web资源的细节进行模拟和描述,得到所需结果页面。
          源数据站点分析模拟是指对资源站点的页面结构进行分析,通过分析获取其请求参数用来模拟HTTP请求。其分析结果包括如何得到查询结果页面及其规律等。
          网页源数据站点分析与提取技术是实现和Web资源自动交互的基础,也是对所需网页提取数据的基础。一方面,与Web资源的交互过程中,有些参数和数据是通过网页分析与提取获得的;另一方面,得到的所需网页是通过网页分析和提取获得的。
    用户通过浏览器来访问Web资源时,浏览器为用户隐藏了与Web资源交互的具体细节,用户看到的只是结果。对于需要查询的信息,一般需要通过Web浏览器登录到一个Web服务器,输入查询条件,提交查询请求,服务器返回查询结果。由于用户与Web资源的交互是以HTTP协议为基础进行的,这种交互可以由程序模拟出浏览器向远程Web服务器发送HTTP请求的过程。用户每查询一次信息,就是向服务器发送一次HTTP请求的过程。
         HTTP协议[3]是基于请求/响应模式的。HTTP请求信息由请求行、请求头部域和请求实体三部分组成。请求行中的方法描述指定资源中应该执行的动作。常用方法有get、post和head。请求头部域是关于该次请求的一些附加信息。请求实体则是该次请求所需传递的一些参数信息。HTTP响应信息由响应行、响应头部域和响应实体三部分组成。响应行主要显示HTTP版本,以及此次响应结果的状态码;响应头部域为该次响应的附加信息;响应实体则为该次响应结果的详细信息。
           由于可以通过程序模拟发送HTTP请求的过程,对于HTTP请求信息的获取是模拟成功的关键。有些Web服务程序的设计要求浏览器端通过脚本技术,对检索项进行预处理,在浏览器端生成一个检索表达式,再将此表达式以HTTP请求的方式传递给服务器进行检索。在此情况下,需要分析HTML文件中的脚本代码,构造出正确的检索表达式。有些请求信息参数是动态变化的。这需要人工仔细分析,找出其中规律,才能实现实时请求、实时响应,以及对查询页面的翻页等功能。这些参数信息都不能有丝毫差错。可以借助已有的一些网络通信拦截工具软件,如Sniff’em、EHSniffer、HttpWatch、HttpTracer等。这些软件可以捕获并解码浏览器发出的HTTP请求的数据,分析HTTP通信的网络活动等。这样就可以正确获取HTTP请求通信所需的参数。


    2 Web信息获取工具
          通过程序模拟访问网页的方法有SOCKET通信方式、FOPEN方式、第三方组件(如:libcurl)等。当网页文件很大或者网页根本不存在的时候,使用FOPEN的方法经常会出现超时。在实际工程应用中,必须考虑系统的性能及可移植性。Web信息获取工具是系统性能好坏的一个最重要的技术环节,不论是采用PHP中的SOCKET通信方式还是FOPEN方式都不能胜任如此频繁的文件获取时间要求。系统采用性能优异的CURL访问组件,该组件远程访问速度比传统方式速度快了近200倍,采用FOPEN方式对于100个HTTP文件请求每分钟只能打开10个,而采用CURL组件方式对于2000个HTTP文件请求每分钟可以打开2000个[4]。该组件支持FTP,FTPS,TFTP,HTTP,HTTPS,TELNET,DICT,FILE和LDAP协议的访问,极大地提高了Web会话的速度和协议范围。此外,该组件支持多种开发语言工具的驱动,主要包括C、C++、PHP、PERL、JAVA、.NET等,支持广泛的操作系统,包括Solaris、NetBSD、FreeBSD、OpenBSD、HPUX、IRIX、AIX、Tru64、Linux、UnixWare、Windows等,具有广泛的可移植性,为程序开发打造了良好的接口。


    3 实现及应用实例
           基于CURL的动态Web信息获取方法已应用于甘肃省科技文献共享平台[5]的统一检索系统。该系统采用PHP5.0作为开发工具,Apache 2.0作为Web服务器。
    以下是模拟检索重庆维普中文科技期刊数据库题录信息的简单实现:
    以检索题名为cad,年限为2002-2007的数据为例。


    首先用网络通信拦截工具软件Sniff’em捕获请求,结果如下:
    POST /CSTJ/Sear.dll?SearchZK HTTP/1.1
    Accept: image/gif, image/x-xbitmap, image/jpeg, image/pjpeg, application/x-shockwave-flash, application/x-silverlight, application/vnd.ms-excel, application/vnd.ms-powerpoint, application/msword, */*
    Referer:

    http://vip.gsinfo.net.cn/CSTJ/Sear.dll?SearchZK
    Accept-Language: zh-cn
    Content-Type: application/x-www-form-urlencoded
    UA-CPU: x86
    Accept-Encoding: gzip, deflate
    User-Agent: Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; POTU(RR:27062616:0:5064085); TencentTraveler )
    Host: vip.gsinfo.net.cn
    Content-Length: 215
    Connection: Keep-Alive
    Cache-Control: no-cache
    Cookie: GTZ=-480; ASPSESSIONIDAQQSSRRS=IKDLFENCMFAIGAMBEJFIMMKL; WebSite=YW=0; CSID=%7BDAF8D431%2D845D%2D4B0F%2D9F49%2DEEC550C0438F%7D061%2E178%2E020%2E160; VIPCSID=%7BDAF8D431%2D845D%2D4B0F%2D9F49%2DEEC550C0438F%7D; User=YR=1989%2C2016&UN=1&YWBrowse=0&UserID=1&UR=ZZ&Alllist=1&Name=guest
    E=%3C1%2C4%3E%3A%28%28Title_C%3DCAD%29*Years%3D%282002%2B2003%2B2004%2B2005%2B2006%2B2007%29%29&S=1&N=20&P=1&C=0&H=%28%CC%E2%C3%FB%3DCAD%29*Year%3D2002-2007&M=&KM=&GX=&CSID=%7BDAF8D431-845D-4B0F-9F49-EEC550C0438F%7DHTTP/1.1 200 OK
    Connection: close
    Date: Sun, 23 Mar 2008 02:24:35 GMT
    Server: Microsoft-IIS/6.0
    X-Powered-By: ASP.NET
    可以看到,这个请求使用了POST命令,向
    http://vip.gsinfo.net.cn/CSTJ/Sear.dll?SearchZK发出请求,后面几行是这个请求的一些附加字段信息,倒数第五行是这个请求的HTTP Body,其内容就是POST命令所要附带的数据,是经过HTML编码的一个字符串,解码后为:
    E=<1,4>:((Title_C=CAD)*Years=(2002+2003+2004+2005+2006+2007))&S=1&N=20&P=1&C=0&H=(题名=CAD)*Year=2002-2007&M=&KM=&GX=&CSID={DAF8D431-845D-4B0F-9F49-EEC550C0438F}


    以下是用CURL组件实现这个请求的PHP代码:
    <?
    $bench = new Tii_Timer;    //实例化一个计时类对象
    $bench->start();           //计时开始
    $bench->setMarker(‘Start of the script');
    $url="

    http://vip.gsinfo.net.cn/CSTJ/Sear.dll?SearchZK";
    $param="E=%3C1%2C4%3E%3A%28%28Title_C%3DCAD%29*Years%3D%282002%2B2003%2B2004%2B2005%2B2006%2B2007%29%29&S=1&N=20&P=1&C=0&H=%28%CC%E2%C3%FB%3DCAD%29*Year%3D2002-2007&M=&KM=&GX=&CSID=%7BDAF8D431-845D-4B0F-9F49-EEC550C0438F%7D"; //指定POST数据
    ob_start();                                     //打开输出缓冲区
    $ch = curl_init()[6];                            //初始化会话
    curl_setopt( $ch, CURLOPT_URL, $url );         //设定目标URL
    curl_setopt( $ch, CURLOPT_POST, 1 );           //设定表单发送方式为POST
    curl_setopt($ch,CURLOPT_POSTFIELDS,$param);   //POST数据
    curl_exec($ch);                               //发送请求
    $retrievedhtml = ob_get_contents();             //返回内部缓冲区的内容
    ob_end_clean();                   //删除内部缓冲区的内容并关闭内部缓冲区
    curl_close( $ch );                //会话结束
    $bench->stop();                   //计时结束
    $resp = $bench->getProfiling();
    echo $resp[2][diff]."S";          //输出计时时间
    ?>


    现在获取的信息就在$retrievedhtml中,然后就可以对获取的信息进行分析,得到元数据。
    用CURL组件实现这个请求的平均时间是0.62S.
        以下是用FOPEN方式实现这个请求的PHP代码:
    <?
    $bench = new Tii_Timer;    //实例化一个计时类对象
    $bench->start();           //计时开始
    $bench->setMarker('Start of the script');
    $url="

    http://vip.gsinfo.net.cn/CSTJ/Sear.dll?SearchZK";
    $param="E=%3C1%2C4%3E%3A%28%28Title_C%3DCAD%29*Years%3D%282002%2B2003%2B2004%2B2005%2B2006%2B2007%29%29&S=1&N=20&P=1&C=0&H=%28%CC%E2%C3%FB%3DCAD%29*Year%3D2002-2007&M=&KM=&GX=&CSID=%7B7CC87A4E-5D78-41D7-B8D9-289746EFA53E%7D"; //指定POST数据
    $fp = fopen($url.'?'.$param, "r");     //发送请求
    $retrievedhtml = "";
    do {                                    //读取返回的信息
       $data = fread($fp, 8192);
       if (strlen($data) == 0) {
       break;
       }
       $retrievedhtml .= $data;
    } while(true);
    fclose($fp);
    $bench->stop();
    $resp = $bench->getProfiling();
    echo $resp[2][diff]."S";
    ?>


    用FOPEN方式实现这个请求的平均时间是1S.


         虽然通过这个例子不能说明用CURL组件实现动态Web信息获取的优越性能,但经过大量的实验,如:通过访问清华同方CNKI数据库、万方数据库、NSTL数据库等文献资源网站,表明,用CURL组件实现动态Web信息获取的性能远优于用FOPEN方式。
    4 技术难点和重点
    4.1 检索选项到检索表达式的转换
         对于要传递给Web服务器的检索选项,根据Web服务器设计的不同,需要做相应的处理,有的Web服务器只需要浏览器端直接返回选项值,由服务器端程序进行逻辑处理后返回结果;有些Web服务程序的设计要求浏览器端通过脚本技术,对检索选项进行预处理,在浏览器端生成一个检索表达式,再将此表达式以HTTP请求的方式传递给服务器进行检索,在这种情况下,开发人员需要分析HTML文件中嵌入的脚本代码或引用的脚本文件,理清各个检索选项到检索表达式的转换关系,才能构造出正确的检索表达式。例如,有些网站的翻页链接或全文链接是Javascript写成的脚本命令,在HTML源代码中的静态文本是固定的,但实际指向的真正链接,却需要在脚本函数中动态生成。
    4.2 连接状态的管理
         目前的检索系统都应用了Session(如:上例中POST数据中的CSID=%7BDAF8D431-845D-4B0F-9F49-EEC550C0438F%7D)技术,为了解决Session过期和各文献数据库限制并发访问数的问题,采用了检索时一次性释放检索系统Session会话的机制,当翻页时再次建立检索系统Session会话。此外,各文献数据库都限制了并发访问数,通过这个方法能很好解决这个问题。
    4.3 多任务开发
         尽管PHP的优势主要在于优异的字符运算处理速度和可靠性,通过与Apache 2.0 Web服务器的组合使得统一检索系统具备了良好的稳定性和性能,但它本身不支持多线程,而统一检索系统需要对多个数据库同时进行检索,如果是普通的单线程程序,处理速度会慢得让人无法忍受,本文使用Ajax技术实现多任务编程技术,以提高程序的运行效率、避免程序界面出现“假死”状态。
          Ajax对Web服务的通信调用过程分为同步调用和异步调用,同步调用好处是一次性将用户的所有请求并发处理,但对于统一检索系统来说,多个资源数据库的检索响应将受限于耗时最长的资源数据库,用户等待时间较长,服务器端并发处理的压力较大。采用异步调用方式可很好的解决这一问题,用户按需发出请求,用户发出的多个资源数据库的检索在服务器端是按线程处理的,用户请求的响应以服务器处理结果为准,检索处理过程互不影响,大大缩短了用户的总体响应时间,降低了服务器的并发处理压力,在用户端等待数据处理结果时,可进行其它资源库的检索,实现了多任务检索处理和操作。
    5 结语
           本文针对动态Web信息获取问题,介绍了基于Web过程模拟的解决方法。该方法主要用于如何得到查询页面和实现信息抓取。如何提高对多种网页结构的适应性,以及感知Web信息和网页结构的更新变化,同时减少其复杂性,提高其自动化和智能性,需要作进一步研究和探讨。
    参考文献:
    [1]曹方,施韶亭.基于Web过程模拟的异构数字文献统一检索系统设计与实现[J].情报学报, 2006,25(5):575-579.
    [2]王权,施韶亭.基于PHP的统一检索系统的设计与实现[J].兰州理工大学学报,2008,34(1):91-94.
    [3] Hypertext Transfer Protocol--HTTP/1.1[EB/OL].[2008-03-19].

    http://www.w3.org/Protocols/rfc2616/rfc2616.html
    [4]PHP/CURL-using libcurl with PHP[EB/OL].[2008-03-19].http://curl.haxx.se/libcurl/php.
    [5] 甘肃科技文献资源共享平台[EB/OL].[2008-03-19].http://www.gsstd.cn
    [6] XVIII.CURL:Client URL library functions[EB/OL].[2008-03-19].
    http://cn.php.net/manual/zh/ref.curl.php.


    补充:

    用CURL吧,速度比FILE()或FOPEN()都快,参考http://curl.haxx.se/libcurl/
    简单点的
    <?
    $url='http://www.163.com';
    ob_start(); //打开输出缓冲区
    $ch = curl_init(); //初始化会话
    curl_setopt( $ch, CURLOPT_URL, $url ); //设定目标URL
    curl_exec( $ch ); //发送请求
    //$retrievedhtml = ob_get_contents(); //返回内部缓冲区的内容
    //ob_end_clean(); //删除内部缓冲区的内容并关闭内部缓冲区
    curl_close( $ch ); //会话结束
    ?>
    复杂点的
    <?
    $url='http://202.201.7.9/CSTJ/Sear.dll?SearchZK';
    $param='E=%3C1%2C4%3E%3A%28%28Title_C%3DCAm%29*Years%3D%282002%2B2003%2B2004%2B2005%2B2006%2B2007%29%29&S=1&N=20&P=1&C=0&H=%28%CC%E2%C3%FB%3DCAD%29*Year%3D2002-2007&M=&KM=&GX=&CSID=%7BC8E8BDCF-73D3-45F2-9FE9-89C8B28A02D1%7D'; //指定POST数据
    ob_start(); //打开输出缓冲区
    $ch = curl_init(); //初始化会话
    curl_setopt( $ch, CURLOPT_URL, $url ); //设定目标URL
    curl_setopt( $ch, CURLOPT_POST, 1 ); //设定表单发送方式为POST
    curl_setopt( $ch, CURLOPT_POSTFIELDS, $param ); //POST数据
    curl_exec( $ch ); //发送请求
    //$retrievedhtml = ob_get_contents(); //返回内部缓冲区的内容
    //ob_end_clean(); //删除内部缓冲区的内容并关闭内部缓冲区
    curl_close( $ch ); //会话结束
    ?>
         通过程序模拟访问网页的方法有SOCKET通信方式、FOPEN方式、第三方组件(如:libcurl)等。当网页文件很大或者网页根本不存在的时候,使用FOPEN的方法经常会出现超时。在实际工程应用中,必须考虑系统的性能及可移植性。Web信息获取工具是系统性能好坏的一个最重要的技术环节,不论是采用PHP中的SOCKET通信方式还是FOPEN方式都不能胜任如此频繁的文件获取时间要求。系统采用性能优异的CURL访问组件,该组件远程访问速度比传统方式速度快了近200倍,采用FOPEN方式对于100个HTTP文件请求每分钟只能打开10个,而采用CURL组件方式对于2000个HTTP文件请求每分钟可以打开2000个[4]。该组件支持FTP,FTPS,TFTP,HTTP,HTTPS,TELNET,DICT,FILE和LDAP协议的访问,极大地提高了Web会话的速度和协议范围。此外,该组件支持多种开发语言工具的驱动,主要包括C、C++、PHP、PERL、JAVA、.NET等,支持广泛的操作系统,包括Solaris、NetBSD、FreeBSD、OpenBSD、HPUX、IRIX、AIX、Tru64、Linux、UnixWare、Windows等,具有广泛的可移植性,为程序开发打造了良好的接口。

    展开全文
  • 大数据分析的四个关键环节

    万次阅读 2018-07-04 18:50:38
    ▌ 什么是大数据?...信息论之父香农曾表示,信息是用来消除不信任的东西,比如预测明天会不会下雨,如果知道了今天的天气、风速、云层、气压等信息,有助于得出更准确的结论。所以大数据是用来消除不确...

    ▌ 什么是大数据?

    随着大数据时代的到来,AI 概念的火热,人们的认知有所提高。为什么说大数据有价值?这是不是只是一个虚的概念?大家怎么考虑数据驱动问题?为什么掌握更多的数据就会更有效?这些问题很难回答,但是,大数据绝不是大而空洞的。

    信息论之父香农曾表示,信息是用来消除不信任的东西,比如预测明天会不会下雨,如果知道了今天的天气、风速、云层、气压等信息,有助于得出更准确的结论。所以大数据是用来消除不确定性的,掌握更多的有效数据,可以驱动企业进行科学客观的决策。

    桑文锋对大数据有着自己的理解,数据采集遵循“大”、“全”、“细”、“时”四字法则。

    “大”强调宏观的“大”,而非物理的“大”。大数据不是一味追求数据量的“大”。比如每天各地级市的苹果价格数据统计只有 2MB,但基于此研发出一款苹果智能调度系统,就是一个大数据应用,而有些数据虽然很大,却价值有限;

    “全”强调多种数据源。大数据采集讲求全量,而不是抽样。除了采集客户端数据,还需采集服务端日志、业务数据库,以及第三方服务等数据,全面覆盖,比如美国大选前的民意调查,希拉里有70%以上胜算,但是川普成为了美国总统,因为采样数据有偏差,支持川普的底层人民不会上网回复。

    “细”强调多维度数据采集,即把事件的维度、属性、字段等都进行采集。如电商行业“加入购物车”的事件,除了采集用户的 click 数据,还应采集用户点击的是哪个商品、对应的商户等数据,方便后续交叉分析。

    “时”强调数据的时效性。显然,具有时效性的数据才有参考价值。如国家指数,CPI 指数,月初收集到信息和月中拿到信息,价值显然不同,数据需要实时拿到,实时分析。

    从另一个视角看待数据的价值,可以分为两点,数据驱动决策,数据驱动产品智能。数据的最大价值是产品智能,有了数据基础,再搭建好策略算法,去回灌产品,提升产品本身的学习能力,可以不断迭代。如今日头条的新闻推荐,百度搜索的搜索引擎优化,都是数据驱动产品智能的体现。

    ▌ 数据分析四个关键环节

    桑文锋把数据分析分为四个环节,数据采集、数据建模、数据分析、指标。他提出了一个观点,要想做好数据分析,一定要有自底向上的理念。很多公司的数据分析自顶向下推动,用业务分析指标来决定收集什么数据,这是需求驱动工程师的模式,不利于公司长久的数据采集。而一个健康的自底向上模式,可以帮助公司真正建立符合自己业务的数据流和数据分析体系。

    一、数据采集

    想要真正做好大数据分析,首先要把数据基础建好,核心就是“全”和“细”。

    搜集数据时不能只通过 APP 或客户端收集数据,服务器的数据、数据库数据都要同时收集打通,收集全量数据,而非抽样数据,同时还要记录相关维度,否则分析业务时可能会发现历史数据不够,所以不要在意数据量过大,磁盘存储的成本相比数据积累的价值,非常廉价。

    常见的数据采集方式归结为三类,可视化/全埋点、代码埋点、数据导入工具。

    第一种是可视化/全埋点,这种方式不需要工程师做太多配合,产品经理、运营经理想做分析直接在界面点选,系统把数据收集起来,比较灵活。但是也有不好的地方,有许多维度信息会丢失,数据不够精准。

    第二种是代码埋点,代码埋点不特指前端埋点,后端服务器数据模块、日志,这些深层次的都可以代码埋点,比如电商行业中交易相关的数据可以在后端采集。代码埋点的优势是,数据更加准确,通过前端去采集数据,常会发现数据对不上,跟自己的实际后台数据差异非常大。可能有三个原因:第一个原因是本身统计口径不一样,一定出现丢失;第二点是流量过大,导致数据丢失异常;第三点是SDK兼容,某些客户的某些设备数据发不出去,导致数据不对称。而代码埋点的后台是公司自己的服务器,自己核心的模拟可以做校准,基本进行更准确的数据采集。

    第三种是通过导入辅助工具,将后台生成的日志、数据表、线下数据用实时批量方式灌到里面,这是一个很强的耦合。

    数据采集需要采集数据和分析数据的人共同参与进来,分析数据的人明确业务指标,并且对于数据的准确性有敏感的判断力,采集数据的人再结合业务进行系统性的采集。

    二、数据建模

    很多公司都有业务数据库,里面存放着用户注册信息、交易信息等,然后产品经理、运营人员向技术人员寻求帮助,用业务数据库支持业务上的数据分析。但是这样维护成本很高,且几千万、几亿条数据不能很好地操作。所以,数据分析和正常业务运转有两项分析,数据分析单独建模、单独解决问题。

    数据建模有两大标准:易理解和性能好。

    数据驱动不是数据分析师、数据库管理员的专利,让公司每一个业务人员都能在工作中运用数据进行数据分析,并能在获得秒级响应,验证自己的新点子新思维,尝试新方法,才是全员数据驱动的健康状态。

    多维数据分析模型(OLAP)是用户数据分析中最有效的模型,它把用户的访问数据都归类为维度和指标,城市是维度,操作系统也是维度,销售额、用户量是指标。建立好多维数据分析模型,解决的不是某个业务指标分析的问题,使用者可以灵活组合,满足各种需求。

    三、数据分析

    数据分析支持产品改进

    产品经理在改进产品功能时,往往是拍脑袋灵光一现,再对初级的点子进行再加工,这是不科学的。《精益创业》中讲过一个理念,把数据分析引入产品迭代,对已有的功能进行数据采集和数据分析,得出有用的结论引入下一轮迭代,从而改进产品。在这个过程中大数据分析很关键。

    Facebook 的创始人曾经介绍过他的公司如何确定产品改进方向。Facebook 采用了一种机制:每一个员工如果有一个点子,可以抽样几十万用户进行尝试,如果结果不行,就放弃这个点子,如果这个效果非常好,就推广到更大范围。这是把数据分析引入产品迭代的科学方法。

    桑文锋在 2007 年加入百度时,也发现了一个现象,他打开邮箱会收到几十封报表,将百度知道的访问量、提问量、回答量等一一介绍。当百度的产品经理提出一个需求时,工程师会从数据的角度提出疑问,这个功能为什么好?有什么数据支撑?这个功能上线时如何评估?有什么预期数据?这也是一种数据驱动产品的体现。

    数据驱动运营监控

    运营监控通常使用海盗模型,所谓的运营就是五件事:触达是怎么吸引用户过来;然后激活用户,让用户真正变成有效的用户;然后留存,提高用户粘性,让用户能停留在你的产品中不断使用;接下来是引荐,获取用户这么困难,能不能发动已有的用户,让已有用户带来新用户,实现自传播;最后是营收,做产品最终要赚钱。要用数据分析,让运营做的更好。

    数据分析方法

    互联网常见分析方法有几种,多维分析、漏斗分析、留存分析、用户路径、用户分群、点击分析等等,不同的数据分析方法适用于不同的业务场景,需要自主选择。

    举个多维分析的例子,神策数据有一个视频行业的客户叫做开眼,他们的软件有一个下载页面,运营人员曾经发现他们的安卓 APP 下载量远低于 iOS,这是不合理的。他们考虑过是不是 iOS 用户更愿意看视频,随后从多个维度进行了分析,否定了这个结论,当他们发现某些安卓版本的下载量为零,分析到屏幕宽高时,看出这个版本下载按钮显示不出来,所以下载比例非常低。就这样通过多维分析,找出了产品改进点。

    举个漏斗分析的例子,神策数据的官网访问量很高,但是注册-登录用户的转化率很低,需要进行改进。所以大家就思考如何把转化漏斗激活地更好,后来神策做了小的改变,在提交申请试用后加了一个查看登录页面,这样用户收到账户名密码后可以随手登录,优化了用户体验,转化率也有了可观的提升。

    四、指标

    如何定义指标?对于创业公司来说,有两种方法非常有效:第一关键指标法和海盗指标法。

    第一关键指标法是《精益数据分析》中提出的理论,任何一个产品在某个阶段,都有一个最需要关注的指标,其他指标都是这个指标的衍生,这个指标决定了公司当前的工作重点,对一个初创公司来说,可能开始关注日活,围绕日活又扩展了一些指标,当公司的产品成熟后,变现就会成为关键,净收入(GMV)会变成第一关键指标。

    更多数据分析干货和案例,可以关注“神策数据”公众号了解~

    想了解神策数据产品,可以点击体验 Demo 试用~

    展开全文
  • Internet信息获取能力

    千次阅读 2005-04-03 20:41:00
    Internet信息获取能力是研究生必备的一项素质。及时准确地获取领域内的研究进展信息,是保证研究工作创新性的前提;随心所欲地大范围地获取信息,是拓展知识面的有效手段;在浩如烟海的资料中快速定位自己急需的信息...

    Internet信息获取能力是研究生必备的一项素质。及时准确地获取领域内的研究进展信息,是保证研究工作创新性的前提;随心所欲地大范围地获取信息,是拓展知识面的有效手段;在浩如烟海的资料中快速定位自己急需的信息,是解决问题的一条有效途径。

    随着Internet的飞速发展,可获取的信息量日渐丰富,乃至出现信息过载、资源迷向等问题[1]。搜索引擎的问世,在一定程度上解决了Internet信息获取困难的问题。近年来,国内已有四五百篇文献从各种应用背景和技术角度出发探讨Internet信息获取及各种搜索引擎的特点、用法等[2],但是,如何系统地有针对性地提高研究生的Internet信息获取能力(具体讲,在Internet信息获取中应该把握哪些指标或尺度、如何去把握)又是一个值得探讨和总结的新问题。本文提出了Internet信息获取广度、纯度、深度、速

    度和柔度五项指标,结合研究生论文工作的实际需要,以实例形式探讨了利用Google(www.google.com)为主的搜索工具进行Internet信息获取的方法和技巧。
    一、Internet信息获取广度的拓展
    一般来说,研究生在刚刚步入某一研究领域时,对该领域的知识都是比较陌生的,甚至
    是空白的,从Internet获取相关信息进行学习不失为一条便捷途径。通过有导向性地拓展Internet信息获取的广度,可以有效扩大研究领域相关的知识面。Internet信息获取广度定义为W=IAcquired/IInternet,其中IAcquired为已获取信息量,IInternet为Internet可获取信息量,信息量一般为网页数量或文献数量。广度的拓展,即提高W值,从用户角度讲,只能通过提高IAcquired值来实现,IAcquired既受搜索引擎索引量及查全率的制约,也受用户搜索指令的限定,可以通过选择适当的搜索引擎及拓展必要的关键词等方法来拓展Internet信息获取的广度。
    实例1.选择英文Google,拓展可用信息的语言范围。Google的网页索引量已近43亿,覆
    盖250多个国家,支持132种语言,是目前最大的搜索引擎。在第一次使用Google时,Google会根据当前操作系统确定语言界面(中国大陆地区一般为简体中文)。对于中国的研究生来说,所熟悉的语言绝大多数都是汉语和英语,对于其它语种的信息,即使搜索到了也未必能看懂。如果将Google的使用语言设置更改为英文,则搜索到的意大利语、法语、西班牙语、德语和葡萄牙语资料,Google均能提供其英译文(点击搜索结果后面的“Translate this page”超级链接即可),这样,大大拓展了可用信息的语言范围。如,关于robot的法文网页765 000页,德文网页163 000页,这些网页的处理都是用中文Google所力所不能及的。
    实例2.拓展关键词,扩大相关信息的覆盖范围。以搜索“潜艇安全”相关知识为例,可
    以将待搜索关键词拓展为:潜艇、潜水艇、潜器、水下、海洋、海军、安全、失事、事故、海损、沉没、脱险、救援、救生、救生艇、救生钟、救生舱、隐蔽性、不沉性、水声、通信、声纳、鱼雷、水雷、攻击、反潜、水下作业、水动力、水下机器人、水下航行器、submarine、life saving、rescue、simulation、underwater等,然后将扩展后的关键词进行适当的组合搜索。如,仅用“潜艇安全”作为关键词在Google中搜索所有网站,只可搜到43 300个网页,再用“潜水艇安全”可搜索到14 300个网页(其中的3 000个网页是用“潜艇安全”搜索的结果中所不包含的),再用“submarine life saving”又可搜索到51 700个网页。在搜索过程中,可以从同义词、近义词、反义词、谐音字、错字(拼音错、五笔错、拼写错)、别字、通假字、简体字、繁体字、中文、外文、缩写等方面着手对关键词进行逐步拓展。
    Internet信息获取广度的拓展,保证了信息获取的全面性和广泛性,但往往同时带来信
    息过载的负面效应,这便涉及到如何控制信息获取纯度问题。
    二、Internet信息获取纯度的控制
    Internet信息获取纯度定义P=IValuable/IAcquired,其中,IValuable为已获取的有可
    用价值的信息量,P在W>0时有意义。P值的提高只能通过降低IAcquired来实现,与W值的提高是一对方向相反的矛盾过程。搜索引擎的查准率是提高纯度的前提条件(Google采用PageRank专利技术能提供准确率极高的搜索结果),用户的搜索指令是控制纯度的直接手段。搜索信息提纯的基本做法是增加关键词(逻辑与)、减除关键词(逻辑非)或

    短语搜索,一般的搜索引擎中都支持这些功能。在Google中还支持针对特定文件类型(filetype)、网站域名(site)、URL(inurl或allinurl)和网页标题(intitle或allintitle)的搜索。
    实例3.使用逻辑组合缩小搜索范围。以搜索“基于agent理论的智能机器人(
    intelligent robot)技术的资料”为例,表1给出了采用关键词的各种逻辑组合在Google中的搜索结果。从表1可以清晰看出纯度控制的过程和效果。

    表1 使用逻辑组合搜索
    搜索方法 关键词表达式 搜索到的网页数
    单词 robot 6 430 000
    单词逻辑与 intelligent robot 526 000
    单词逻辑与 agent intelligent robot 109 000
    单词逻辑与、非 agent intelligent robot –internet 49 900
    短语逻辑与、非 agent "intelligent robot" –internet 850

    实例4.使用限定词在特定范围内搜索。以搜索“MIT机器人研究文献资料”为例,表2给出了依次对网站域名、URL和文件类型进行限定后在Google中的搜索结果。从搜索到的网页链接(限篇幅未给出)可以看出,限定词搜索的针对性非常强,搜索结果相当精确。
    表2 使用限定词搜索
    搜索方法 关键词表达式 搜索到的网页数
    单词 robot 6 430 000
    限定网站域名 robot site:mit.edu 12 800
    限定URL robot site:mit.edu inurl:publications 247
    限定文件类型 robot site:mit.edu inurl:publications filetype:pdf 148

    三、Internet信息获取深度的挖掘
    研究生开题前,需要阅读大量专题文献。Internet上的专业技术文献,绝大多数都赋存
    于各类Web数据库中,普通搜索引擎对这些数据库一般都望尘莫及,必须使用各Web数据库专用的联机检索系统才能挖掘到必要的信息获取深度。Internet信息获取深度定义为D=IWeb-DB/IValuable,其中,IWeb-DB为从Web数据库中检索到的信息量,D在IValuable>0时有意义,D值的提高只能靠提高IWeb-DB值来实现。
    现存的Web数据库风格各异,但是科技文献数据库的检索方法却大同小异,一般都需要“
    登录-检索-下载”几个环节。各高校图书馆会提供本校可用的文献数据库检索入口、账号信息及使用指南,此不赘述。
    四、Internet信息获取速度的提高
    Internet信息获取速度定义为 ,其中,tSearch为获取到可用信息所花费的搜索时间,
    或称信息提纯时间。提高S值可通过提高纯度P值或降低tSearch值来实现。tSearch值受搜索引擎响应速度的影响,但影响不大,如,Google有15000多台服务器,200多条T3级宽带,搜索用时一般不超过0.2秒,所以,tSearch值主要还是受搜索方法的影响,若能直接提供(而不是反复试搜)尽可能完整的、必要的关键词作为查询线索并借助搜索引擎的特殊功能,则会迅速定位到目标信息上。这一过程,与信息获取纯度的提高是一致的,是加速提高P值的过程。
    实例5.使用“手气不错”获取信息一步到位。研究生在论文工作中,常常需要查询某实
    验室的publications清单、某高校图书馆电子资源等,以了解相关研究信息或检索下载文献资料,但却没有记住网址。可以将目标网站尽可能完整的名称作为关键词,利用Google首页的“手气不错”功能,一般都可以直接打开目标网页,不用再把过多时间耽

    误在网址查找上。如,用“清华大学图书馆”做关键词,单击“手气不错”按钮可直接进入清华大学图书馆的首页:http://www.lib.tsinghua.edu.cn/
    五、Internet信息获取柔度的增强
    Internet信息获取柔度(即灵活性)定义为F=(W+P+D+S)/4,这是评价Internet信息获取

    效果的综合指标,前面探讨的四项指标较多地依赖于搜索引擎或检索工具所支持的功能,而这项指标更多地依赖于用户的经验和技巧。增强Internet信息获取柔度需要用户对关键词的抽取与组合、Internet上目标信息的分布位置和可能存在形式以及各搜索引擎的用法与特长都有相当的熟悉程度。
    实例6.用活搜索引擎增强信息获取柔度。研究生在阅读英文文献时,经常遇到陌生的术
    语或者缩写翻译不出来,可以通过搜索引擎来协助翻译。以翻译“These activities included mapping, soil and rock chip sampling, geophysical surveys and RC and diamond drilling.”中的“RC”为例,先在金山词霸(http://www.iciba.net)、英华金典(http://www.powerdict.com)、Dictionary(http://dictionary.com)等在线词典中查找,均未查到,考虑使用搜索引擎。

    表3 给出了Internet翻译信息获取的过程,第6步搜到“…both diamond and reverse-circulation (RC) drilling…”,第7步搜到“…反循环钻进. reverse circulation drilling…”,由此确定“RC”是“反循环钻进”的英文缩写。
    表3 用Google获取翻译信息
    步骤 搜索范围 关键词表达式 搜索结果(项)
    1 金山词霸 RC 0
    2 英华金典 RC 0
    3 Dictionary RC 0
    4 Google简体中文网页 rc 103 000
    5 Google所有网站 rc 14 900 000
    6 Google所有网站 rc diamond drilling 12 100
    7 Google简体中文网页 reverse circulation 417

    参考文献
    1 王继成等.Web信息检索研究进展.计算机研究与发展,2001,38(2):187-193
    2 蒋福兰.搜索引擎使用技巧.科技情报开发与经济,2003,13(5):178-179

    展开全文
  • 规划、引进和构建PACS及RIS系统是一系统工程,其不同于医学成像设备(如CT、MR、CR等)的引进,对国内大多数医院及其医学影像学科而言,执行PACS及RIS系统的规划、设计和论证过程,仍然存在相当的难度和较多不易把握...

       规划、引进和构建PACS及RIS系统是一个系统工程,其不同于医学成像设备(如CT、MR、CR等)的引进,对国内大多数医院及其医学影像学科而言,执行PACS及RIS系统的规划、设计和论证过程,仍然存在相当的难度和较多不易把握的环节。

    在正式的PACS规划和引进过程,通常的步骤是先产生一个需求方案文档,称为RFP(Requirement For Proposal),作为指导整个系统引进过程的纲领文件。当在需求方案中充分地规划和定义了医院和影像学科信息化过程所可能要求的主要系统需求,然后按此方案完成系统的引进和构建,这是成功地实现医院医学影像学科信息化建设的可靠保证。

      但是,完成一个真正有价值的RFP,要求对所规划的信息系统(如PACS系统)设计的技术层面以及相关领域的知识和技能具有相当程度的了解和掌握,否则将难以使RFP真正具有确保系统成功实现的纲领性指导文件的职能。

      RIS系统亦是医院最重要的医学影像学信息系统之一,其与PACS共同构成医学影像学信息化环境。尤其是近年来DICOM标准向RIS管理域的扩展,以及IHE(Integrating The Healthcare Enterprise)对医学影像学环境的信息流管理模型的定义,为医院对RIS系统规划定义了更深层次的需求。对用户而言,其关键点在于,必须将医学影像学信息化环境作为一个整体进行设计和规划,这应该成为成功实现医院医学影像学科信息化建设的基本要求,因此,RIS系统的规划也应该顺理成章的成为RFP基本内容之一。

      下面把在国内医院环境中,执行PACS和RIS系统规划、设计、购买和构建过程可能需要考虑和论证的主要环节,或者说建立医院PACS和RIS系统需求方案应该关注的问题和要求做一个概括的说明和介绍,希望能对医院医学影像学科信息化过程提供有价值的参考。

    一、 PACS系统
    1. 影像采集设备(Modality)

      影像采集设备的引进和购买虽然并不包括在PACS的引进和购买范畴,但影像设备作为PACS系统的数据采集前端,是PACS系统规划和购买过程必须予以考虑和论证的部分,因为PACS系统必须顺利地实现与纳入PACS系统管理框架的现有(或将购买的)影像采集设备间的连接和数据通讯。在PACS规划和购买过程对已装备或将要装备的影像采集设备需要进行两方面的论证,即DICOM标准遵从和影像通讯连接(Connectivity)的论证。

      1) DICOM标准遵从论证:下述需求除了应用在PACS规划和购买过程,也同样可以作为新的影像采集设备购买过程的需求规划。需要确认的DICOM SOP支持类型及其执行功能描述如下:

    基础DICOM SOP遵从:

    DICOM SOP支持

    角色

    功能执行描述

    Storage*

    SCU

    DICOM影像从成像设备传送(push)至支持DICOM Storage SOP(作为SCP角色)的PACS系统设备(如PACS服务器或PACS工作站)

    Modality Worklist

    SCU

    直接从支持DICOM Worklist SCP的RIS系统获取患者的人口统计学信息(姓名/ID/年龄等)及检查相关信息,自动完成影像检查设备控制台端的数据登录过程

    Modality Performed Procedure Step (mPPS)

    SCU

    执行向RIS系统(及PACS系统) 传递和更新影像检查过程及检查状态信息,通常作为与Worklsit SOP执行过程匹配的操作过程

    Storage Commitment

    SCU

    在影像远程存储过程中通告和传递影像存储执行过程及状态信息,通常是在应用Storage SOP实现影像归档存储(archiving)过程中执行

    Print Management

    SCU

    执行从成像设备或PACS设备经网络将影像送至DICOM打印机完成影像打印输出过程

    扩展的DICOM标准遵从:

    DICOM SOP支持

    角色

    功能执行描述

    Storage*

    SCP

    接受从其它支持DICOM Storage SCU的成像设备或PACS系统设备(如PACS工作站)回传的影像

    Query/Retrieve

    SCU

    直接从支持DICOM Query/Retrieve SCP的PACS系统设备(如PACS服务器或PACS工作站)查询及提取DICOM影像(pull)

    * 基础的要求是至少提供对该成像设备所产生的影像类型IOD的存储(Storage)执行过程的支持,譬如,成像设备为CT机,则至少要求支持CT Storage SCU, 如果为MRI设备,则至少支持MR Storage SCU.

       一般的情形,90年代中期以后的数字化成像设备可以提供Storage SCU支持,并通常为设备的标准配置,具体遵从细节应该以该设备附带的DICOM Conformance Statement陈述文档描述为准。90年代末以后多数提供商已将Modality Worklist SCU作为其影像设备的标准配置,近年来,将mPPS和Storage commitment SCU作为标准配置的影像设备也逐步增多;扩展的DICOM标准遵从所列项目,一般情形设备提供商多将其作为成像设备的选配项,对设备的规划提出这类需求可能会增加投资,因此医院应根据实际需求决定是否执行这类功能规划。

      2) 影像通讯连接(Connectivity):

      a) DICOM影像设备的连接和通讯:在典型的PACS影像工作流,影像应该从影像采集设备直接传送至PACS服务器完成影像的归档存储过程,即是说,DICOM影像设备在逻辑上应该是直接与PACS服务器连接和通讯,因为DICOM Storage SCU是影像采集设备基础的DICOM标准遵从项,而对DICOM Storage SCP的支持也是PACS服务器的最基本的要求和属性,因此,在PACS系统的网络拓扑中DICOM影像采集设备直接与PACS服务器通讯并完成影像的归档存储过程(archiving),成为必然的要求。对于某些PACS提供商的系统拓扑中DICOM影像设备的影像经过某类专用工作站或所谓DICOM网关后再转接至PACS服务器的系统构型,用户在规划和引进过程中有必要对此提出疑问并进行审慎的论证。

      b) 非DICOM影像设备的连接和通讯:对于90年代中期以前的不能提供DICOM标准支持的影像设备,完成与PACS系统的连接和通讯需要采用一类称为DICOM网关的转换设备或软件完成非DICOM影像至DICOM影像的转换后再传送至PACS服务器完成归档存储过程。因此,存在这类情形的医院在考虑PACS系统的规划和购买时,应该将DICOM网关的论证列入规划范畴。通常采用的DICOM网关执行方式主要包括以下几种方式:

      * 软件升级:要求成像设备提供商执行影像设备软件升级,完成对DICOM影像输出的支持。如果投资状况允许,这应该作为首选的方式,其通常可以获得标准的DICOM IOD(如CT IOD或MR IOD)类型输出,但此种软件升级方式通常价格较为昂贵。

      * 专用的DICOM网关设备:部分影像设备商可以提供专用的DICOM网关设备,用于将非DICOM影像设备接入PACS系统,采用这类专用网关设备也可以获得较为可靠和效率较高的DICOM影像转换,但对国内多数医院可能也同样存在价格承受力的问题。

      *视频采集转换:这里的视频采集转换指通常由PACS系统商提供的DICOM网关解决方案,由视频采集卡和转换控制软件组成。优点在于一旦该非DICOM设备淘汰后,该网关仍可应用于其它具有视频输出的影像设备(如B超等),缺点在于影像质量缺乏标准的控制手段以及采集操作可能存在不便。

      其它的影像格式转换方式也有通过(如FTP)获取影像采集设备的非DICOM影像后,直接执行影像格式转换操作获取DICOM影像后输出。这类方式其用户获得的网关软件模块仅对应于用户环境中某一特定的成像设备的影像类型,而这类影像设备多已接近淘汰年限,一旦该设备停止使用,其应用的DICOM网关软件很难直接应用于医院的其它设备,其投资的效用也随之终止。从这个意义而言,医院在规划过程中对于应用此类DICOM网关的方案需进行充分的论证和权衡。

    2. PACS服务器管理系统(包括工作流管理和接口系统)
      PACS服务器管理系统的规划和购买论证可能需要包括以下几方面的内容:

      1) DICOM标准遵从:完整的遵从应该包括通讯、数据库设计和影像媒质存储格式管理三个层次分别提供对DICOM标准第8部分(通讯)、第6部分(数据定义)和第10部分(Media Storage/File Format)定义和规范的全方位支持。

      a. DICOM通讯:
       基础的DICOM SOP遵从:

    DICOM SOP支持

    角色

    功能执行描述

    Storage*

    SCP

    DICOM影像提供归档存储服务,接受来自支持DICOM Storage SCU的PACS系统设备(如影像采集设备或PACS工作站)的DICOM影像

    Query/Retrieve

    SCP

    为支持DICOM Query/Retrieve SCU的PACS系统设备(如PACS工作站)提供影像查询和调取服务


    Storage Commitment

    SCP

    在影像远程存储过程中执行影像安全存储的能力的确认以及通告影像完成归档存储过程的状态信息传递

    * 至少应该提供对DICOM标准定义的全部影像IOD的Storage SCP的支持

      b. 数据库设计:
       DICOM标准第6部分(DICOM Dictionary)对执行DICOM标准规范的操作和处理过程可能涉及的数据类型、属性等做了相当详尽的定义,PACS(也包括RIS)系统数据库设计提供对DICOM标准第6部分的数据定义的遵从和支持,是保证系统在医学影像学信息化环境中始终具备良好的适应性和兼容能力的基础。如果一个PACS提供商的系统产品数据库设计不能对DICOM Dictionary(DICOM标准Part 6)所定义的数据类型及其属性提供充分的支持,在用户环境实际的应用中,譬如在执行某些新的SOP(如新的影像类型)执行过程中,该数据库很可能将出现不兼容和匹配问题,这类问题可能迫使PACS提供商不得不对其数据库执行改动操作,显然,这种情形对PACS产品的用户存在潜在的危险和不利。但如何确认PACS提供商的系统数据库具备对DICOM Dictionary定义的遵从,作为用户端的医院较难获得确定的信息和证据,或许可能的处理方式是要求PACS商承诺其提供对医院医学影像学信息化环境中可能涉及的全部数据类型的兼容能力。

      c. 影像媒质存储格式管理
       在影像存储和存储管理格式方面提供对DICOM标准的完整遵从,对用户存储的数据的持续有效性是至关重要的,这应该被视为最高层次的数据安全需求。简言之,在影像存储格式管理方面提供对DICOM标准的完整遵从,可以确保对医院而言至关重要的影像数据的安全和有效性不会依赖于特定的系统提供商,即便系统提供商的系统产品或其维护支持服务过程因各种原因不能持续,医院不得不对已有系统的部分或全部进行更改或更换时,系统已积累的全部影像数据信息仍然可以导出至新的系统管理框架内,从而保证医院的数据资料管理的连续性和持续有效性,不致于因提供商或其产品的原因被部分丢失甚至完全废弃。
       具体的要求,包括两部分:(1) 要求PACS提供商在影像数据存储格式管理上保证提供对DICOM标准第10部分的完整遵从,包括媒质存储支持DICOM File-set定义和DICOMDIR格式管理;(2) 要求提供并执行DICOM标准定义的压缩算法。某些系统提供商执行自己专有的压缩算法,虽然其声称可以实现更高倍率的无损压缩,但是,这样的结果是完全窒息了DICOM标准遵从提供的开放性特征,使医院的影像数据的导出完全依赖于特定系统提供商的软件执行过程(解压缩过程),这显然使影像数据的持续有效性面临着潜在的危险。

      2) 在线存储系统及设备规划

      影像归档存储(Archiving)是PACS的基本任务及功能要求,存储管理模式和应用设备的选择等,对系统的响应速率存在着显著的影响,同时,影像存储设备及其管理系统部分也是影响PACS总体投资的主要因素。因此,对PACS系统存储管理设备的规划应该予以相当的重视。

      典型的PACS存储模式和管理流程通常分为在线(Online)、近线(Nearline)和离线(Offline)存储及管理。医院在规划PACS系统时应该要求系统提供商对影像数据在上述三种状态存储管理模式间迁移过程的控制和维护能够提供自动执行和管理的能力,这是PACS服务器管理过程的基本要求。

      通常情形,在线存储用磁盘阵列实现,一般采用RAID-5构型,以提供良好的容错能力、较高的数据读取速率及最大的磁盘空间利用率。近线存储目前多采用光盘库(CD/DVD jukebox)或磁带库(DLT jukebox)实现,推荐采用前者。磁带库存储管理对环境要求较高,为保证数据存储的可靠性和良好的读取能力,可能需要对数据磁带执行定期的转录和重写操作。影像数据位于在线或近线存储位置可以执行不需人工介入的自动查询和影像自动迁移、转存,离线存储指影像数据存储媒质单元(如光盘、磁带等)被放置于与系统分离的存放位置,系统不能执行离线存储媒质上的影像数据的自动读取操作过程,需要人工介入操作。

      通行的PACS系统存储架构为磁盘阵列+光盘库(或磁带库)模式,这种模式比较好地兼顾了近期影像数据(在线存储)的快速响应能力、中远期影像的自动读取操作能力和对投资水平实施适当控制这三方面的要求。在线存储成本较高,应根据用户的投资水平设计合适的在线存储间期,从而完成最贴近医院实际情形的PACS存储管理解决方案。

      近年来,随着磁盘阵列成本价格的显著降低,尤其是性价比较好的SCSI to IDE模式磁盘阵列在技术上的成熟,为PACS存储方案提供了一个非常具有吸引力的选择。医院现在可以用接近普通PC存储的投资,获得性价比非常高的磁盘阵列在线存储,基于这类磁盘阵列,医院可以从容的规划PACS系统的完全在线存储方案,即能够以逐年扩展在线存储(磁盘阵列)容量的方式,真正实现所有影像全部处于在线状态,为系统的快速响应能力提供完全的保障,同时,因所有影像均为在线状态,仅需配置简单的光盘刻录设备(CD/DVD-R)作为影像数据备份解决方案即可,省去传统PACS存储方案中昂贵的光盘库或磁带库投资,使系统整体投资水平和执行效率都可同时获得优化。因此,推荐在PACS系统在线存储方案规划中选择磁盘阵列-CD/DVD-R并执行影像全在线存储管理模式。

      另一类低端的PACS存储解决方案是基于普通PC机配置硬盘的简单存储方式,这类方案虽然有投资水平低的长处,但PC系统的不稳定、PC硬盘读写I/O的响应速率限度等都不同程度的制约了这类存储方式的性能发挥。虽然PC存储也可以基于操作系统实现RAID-5类的容错构型,但其效率受系统资源等因素的限制也影响其性能的提升。因此,基于普通PC的存储方式应用于中等规模以上的PACS系统存储存在着较多的不利因素。

      3) 影像工作流管理能力

      PACS影像的应用操作过程主要是医学影像的诊断浏览过程,这个过程的特殊性在于一次操作和处理的影像数据容量巨大,即影像诊断过程不仅需要操作当前检查的影像序列,同时常常需要操作同一患者既往多次(多种)检查的全部影像,而这些影像的存储或响应位置可能在本地硬盘,也可能位于远程(如PACS服务器)系统的在线或近线存储内,甚至位于多个不同的存储管理系统管理域内。这种情形决定了要获得较高的系统响应速率,单纯依靠PACS系统的影像在线存储和扩展网络带宽都难以满足需求,这就是近年发展起来的PACS影像工作流管理(Workflow Management)进程所要承担和实现的任务。

      目前比较通行的PACS工作流管理进程包括自动路由(Auto-routing)、影像预取(Pre-fetching)和影像预载(Pre-loading)等。只有真正有效地运用了特定的影像工作流管理进程,才能可靠地保证PACS影像诊断过程所要求的执行效率和响应速率。

      因此,推荐医院在PACS系统的规划中对影像工作流管理进程提出具体的需求,以确保PACS提供商的相关产品可以满足医院对系统响应的特定要求。

    3. PACS工作站系统
       PACS影像工作站的规划和购买论证可能需要包括以下几方面的内容:

       1) DICOM标准遵从
       基础的DICOM SOP遵从:

    DICOM SOP支持

    角色

    功能执行描述

    Storage*

    SCU

    DICOM影像从工作站传送(push)至支持DICOM Storage SCP的PACS系统设备(如PACS服务器或其它PACS工作站)

    Query/Retrieve

    SCU

    从支持DICOM Query/Retrieve SCP的PACS系统设备(如PACS服务器或其它PACS工作站)查询或调取DICOM影像(pull)

    Print Management

    SCU

    执行影像从工作站经网络送至DICOM打印机完成影像打印输出过程

    *应该要求提供对医院当前或今后可能操作的影像IOD类型的Storage SCU支持

       这里需要说明的是,PACS影像工作站DICOM标准遵从的规划并非必需的项目。对PACS影像工作站提出DICOM标准遵从的要求往往预示着投资额度的增加,对每一项DICOM标准遵从的增加在多数PACS提供商的产品都可能要求额外的付费,减少工作站对DICOM标准遵从的项及数目则预示着投资额的降低。因此,医院在执行PACS系统的论证和规划时,有必要对每一台/组PACS工作站必需的DICOM标准遵从项进行恰如其分的评估和研究,以期提出一个可满足医院及医学影像学科正常工作流程执行中对影像工作站DICOM标准遵从的基本需求。

      PACS影像工作站通讯的对象主要为PACS服务器,如果医院的影像学科采用同一PACS提供商的产品完成系统构建任务,PACS工作站与服务器、工作站与工作站间的通讯通常不必执行速率较低的DICOM通讯,而可以通过提供商内部定义的通讯方式实现更有效率的影像数据交换。但是,考虑到医学影像学科环境往往存在着其它第三方网络系统资源(如影像采集设备、后处理工作站等),以及影像学科的发展和系统今后的扩展都可能引入第三方系统设备,因此,至少应考虑一台影像工作站具备必要的DICOM标准遵从,以便为当前应用的PACS系统提供一个基于工作站途径的与第三方DICOM标准遵从系统及设备执行通讯和数据交换的接口方式。

      PACS工作站对于DICOM Print Management SCU的支持,可以为PACS系统硬拷贝输出提供一个便捷的执行方式,但是,工作站具备执行影像胶片打印输出能力使任何具有工作站影像操作权限的人均可执行影像的胶片硬拷贝输出过程,这可能增大医学影像学科的胶片输出管理难度,这些因素都需要在医院执行PACS系统规划过程中予以考虑和权衡。

      2) 工作站构型和配置的规划和考虑
       主要是两个方面的规划和考虑,即显示分辨率和工作站配置构型选择。

      显示分辨率是一个需要慎重考虑的问题。在目前的工作站硬件技术水平状态下,选择较高的分辨率预示着投资额可能会显著地增加,因此,基于国情的设计,可能需要根据医院的实际投资水平确定一个既能满足基本诊断要求又不至于显著增加医院的投资压力的PACS工作站显示分辨率规划方案。根据ACR(America College of Radiology)标准,对PACS诊断工作站显示分辨率要求分为两类,一类是Small matrix images如CT/MR/RF/DSA等,显示分辨率512×512×8bit可满足诊断要求,即普通PC机配置的彩色显示器应可基本满足分辨率需求;另一类称为Large matrix images,如CR/DR影像,ACR对分辨率要求的定义为1024×1024×10bit,这需要专业的灰阶显示器才能达到这一参数指标。但专业的灰阶显示器昂贵的价格所造成的投资压力对于国内大多数医院可能都存在着承受力问题,作为变通的解决方式医院虽可以采用宽屏的彩色显示器(分辨率通常可达1600×1200×8bit)作为替代方案,但建议投资水平允许的医院尽可能保证至少规划一套标准的灰阶显示器以便确保复杂病例影像的诊断和会诊质量。

      在工作站配置构型的选择上,由于医学影像诊断的执行和完成过程同时涉及PACS和RIS系统的操作,即PACS和RIS系统工作流程在此环节需要被物理地集成在同一位置,因此,影像诊断工作站的配置和构型应该适应这一需求,并能够提供优化的执行方式使诊断医师可以方便地进行PACS和RIS系统相关软件模块的操作。单机双屏(一台主机配置两台显示器)的工作站构型应该是一个较为可取的配置,其可以为诊断医师提供同时执行RIS诊断报告过程和PACS软拷贝影像浏览过程的能力,同时双屏也可以提供较之单屏更大的影像浏览和显示空间,有利于诊断过程的操作和执行。目前通行的计算机操作系统如Windows 98、Windows 2000和Windows XP均可容易的实现单机双屏构型配置。推荐医院在进行PACS工作站规划时选择单机双屏的影像工作站构型。

    4. 医学影像浏览服务系统

      现代PACS的管理和应用范畴已经扩展至整个医院信息化环境,PACS影像除了应用于影像学科的影像诊断过程外,另一个重要的应用领域是为医院临床诊疗过程提供网络化的医学影像学支持服务。现在通常采用Web方式(Intranet方式)实现,即在PACS系统框架内建立一个提供医学影像及其相关信息浏览服务的Web服务器,为医院整体信息化环境提供影像、影像检查及影像诊断报告的查询和浏览功能。

      医院在执行PACS的影像浏览服务系统规划过程时主要需要着重关注以下几个方面:
      1. 影像流程设计与DICOM标准遵从:根据不同的影像数据流程考虑可能要求影像Web服务器提供不同的DICOM SOP遵从,通常情况下应该支持下述DICOM SOP执行:

      a) Storage SCP:应该要求支持医院信息化环境中可能应用的全部DICOM影像IOD类型的Storage SCP。执行 Storage SCP可以接受来自PACS服务器的DICOM影像,即放射科PACS的影像可以通过DICOM通讯迁移一个拷贝至Web服务器管理环境。
      b) Query/Retrieve SCU:执行DICOM Query/Retrieve SCU使Web服务器可以直接向PACS服务器查询并提取需要的影像。

      2. 影像格式及压缩方式的考虑:影像格式通常有两种选择,一是直接提供DICOM格式影像浏览;另外一种选择是将DICOM影像转换为JPEG等普通影像格式后提供浏览。推荐采用DICOM影像浏览方式,因为DICOM影像可以为浏览者提供更为丰富的患者及影像相关信息和操作功能。从减轻医院信息化环境网络干带宽压力以及保证浏览效率考虑,影像浏览服务通常需要对影像采用适当倍率的压缩(有损压缩)后提供浏览,从安全的角度而言这也是必要的,目的是使这类向整个医院信息化环境开放(共享)的影像不同于作为医疗档案存储的PACS服务器管理的原始影像。如果可能,应该强调用户可以自定义影像的压缩倍率,以便可以容易的选择提供适宜影像质量的压缩率。

      3. 集成RIS系统的相关信息和数据:除了提供影像的浏览服务以外,影像检查相关的信息如诊断报告、检查状态信息等,也应该可以通过该Web服务提供浏览服务,这要求提供商能够同时集成PACS和RIS的数据信息。

      4. 影像数据浏览过程的用户安全控制(影像工作站的控制和用户权限的管理):影像在医院整个信息化环境的共享,实际上相当于在一定程度上对公众环境开放,因此,是存在着安全问题的。目前通常采用的基础安全管理方式包括两类,一是影像浏览工作站侧的控制,即通过软件管理的途径仅允许指定的工作站执行影像浏览操作;另一个方式是用户注册及权限管理,即只允许通过专门管理的用户注册程序执行注册过程的用户能够执行影像浏览操作。这两者的结合,可以在一定程度上提供安全的保障。
      5. 临床影像浏览要求的显示分辨率及工作站配置:根据ACR标准,临床影像浏览过程采用常规的PC显示器分辨率可以满足需求,因此,对影像浏览工作站通常没有特殊的要求。但是,由于操作的数据是医学影像,常常要求同时对数十帧以上的影像执行操作和处理,因此,这类影像浏览工作站宜配置足够的系统资源(如CPU、内存及网络接口带宽等)。

    二、 RIS系统

       RIS系统的规划对医院及其医学影像学科是一个需要予以相当重视的内容,这是因为RIS系统的引进和执行是医学影像学科信息化环境建立的关键组成,换言之,完成影像学科传统的管理模式向数字化、计算机化管理模式的转换过程,主要有赖于一套解决放射科整体工作流程的RIS系统的建立以及成功运行。

      RIS系统的规划应该强调两点:(1)流程化系统管理。要求对放射科整体工作流进行管理、控制和操作,而不是简单操作以工作站为中心的相对独立执行的功能模块;(2) 相关标准及规范的遵从和执行。现在讨论RIS系统的规划,存在两个不可回避的内容,即标准(DICOM/HL7)遵从及IHE流程方案的执行能力。

    1. IHE流程方案及标准(DICOM/HL7)遵从
      IHE流程方案的支持及标准(DICOM/HL7)遵从对现代RIS系统规划有相似的含义,因为IHE定义的流程模型的基础主要是通过标准(主要是DICOM和HL7标准)的执行完成数据信息在医院信息化环境(着重在影像学环境)中优化的执行和通讯。医院用户执行RIS系统规划时,应重点要求和考虑两点:

      1) 要求提供必要的DICOM SOP支持和HL7接口通讯能力。DICOM SOP遵从方面,现阶段至少应该提供Modality Worklist SCP和Modality Performed Procedure Step SCP的支持;HL7支持方面,在RIS-HIS通讯界面应该能够提供双向(送出和接收)数据通讯的HL7接口能力,在RIS-PACS层面至少能够提供单向(RIS至PACS)的HL7通讯接口。

      2) 要求具备持续地跟踪并执行IHE流程方案的响应能力。IHE的流程方案的定义是一个动态变化和增长的过程,RIS提供商要具备跟踪并快速响应和执行新的流程方案的能力,除了对发展状态和动向的把握以外,更重要的是需要对医院尤其是医学影像学科工作流程执行的特点和需求的理解和把握。真正做到了对这类流程的理解,软件的实现是比较容易的。由于IHE流程方案的发展是一个动态的过程,在医院用户环境中的RIS系统的执行(包括运行管理、功能操作过程以及工作流程模型的设计和调整等)也应该是一个动态的过程,医院在规划时应该对此予以关注和考虑。

    2. 系统整体工作流程管理
      RIS系统的规划,必须强调实现对医学影像学科整体工作流程执行过程的管理,即在对影像学检查实际流程中的各个环节的操作和处理上具备专门的功能模块设计的基础上,同时应强调系统对各功能模块执行流程化的集中控制和管理,即集中式管理模式,软件架构通行采用Server/Client模式。集中式的管理使RIS常规工作流程中的各执行环节的操作容易实现有效控制,同时亦能可靠地保障不同功能模块之间的数据交互和通讯执行的效率.

    3. 其它相关因素考虑
      1) 系统用户化过程:RIS系统是一个用户化需求相当突出的信息管理系统,一则因为其关联的信息管理流程较多(PACS系统及医院环境其它信息管理系统),同时,不同层次和规模的医院均可能存在着大量个性化的流程执行和应用惯例方面的特殊要求。因此,医院在规划RIS系统时,应该对自己的具有个性化和特征性的一些运行操作和管理模式做到心中有数,并在拟就的需求规划方案中予以强调和体现。由于用户环境对RIS系统的需求存在着动态变化的特点,因此,有必要要求RIS系统提供商具备动态地响应用户变化和新产生的需求的能力;从RIS系统的功能执行方面,应该要求RIS提供商的系统产品能够赋予用户充分的用户化设置和定义的能力,譬如数据项(如检查部位/检查部门/申请科室/收费/诊断模板等等)的自定义能力,以便提供灵活的系统执行机制适应复杂的用户环境需求。
      2) 用户权限管理:由于RIS系统的许多操作涉及患者医疗档案数据的产生、编辑和处理,因此,执行严格的和独立的用户权限管理是必要的。医院在执行RIS系统规划时应该对此提出明确而具体的需求说明。
      3) 与PACS、HIS系统的通讯和交互:RIS系统在一定意义上是连接HIS与PACS的一个中间环节,在IHE流程执行模型中这一特点尤为突出。因此,RIS必须具备相应的功能执行能力完成与不同状态的HIS系统及PACS系统工作流的集成和数据通讯,理想情形,应该是基于标准(主要是DICOM/HL7标准)层面的集成。在IHE定义的流程,RIS系统与PACS系统至少需要在影像采集设备(Modality)、PACS服务器和影像工作站三个环节上实现集成和通讯。对于此项,医院在执行系统规划时,应该有适当前瞻性的考虑并提出明确的需求陈述。

    三、 结论与说明
      总而言之,执行医学影像学信息系统(PACSRIS)的引进规划对国内医院用户是一个必要且有价值的过程和任务,在系统的引进之前完成一个基本满足医院相关需求的规划文本,可以帮助医院容易地界定将引进的系统应该达到的规模、实现的主要功能指标和任务以及对于实际投资水平进行预估和控制,同时,规划文本本身亦可以作为规范和保障系统引进、实施过程的指导性文件。因此,有条件的医院推荐在执行系统引进过程之前,对医院的实际需求和PACSRIS系统相关的技术要求进行必要的归纳和准备,咨询该领域的专业人士和机构,尔后建立自己的PACS & RIS系统规划方案,这样将会大大降低系统投资的风险和确保系统投资的有效性。

    展开全文
  • 信道信息获取和应用

    万次阅读 多人点赞 2016-05-18 09:01:38
    知己知彼,百战不殆--信道信息获取和应用  上一回我们说到了变化莫测的MIMO信道,并且留下了一美好的假设:“如果在发送数据之前,我们能够提前获得信道信息,是不是能对发送策略有指导作用,并且有效的帮助...
  • 处理环节的处理过程:1,判断登录用户的权限2,获取以前提交过的环节的数据。3,获取当前处理环节提交的数据,并且保存或者草稿保存,返回处理结果。4,根据流程图和本处理环节的处理结果判断下一处理环节。5,试图...
  • 信道信息获取和应用(转载)

    千次阅读 2018-06-19 15:35:06
    知己知彼,百战不殆--信道信息获取和应用 上一回我们说到了变化莫测的MIMO信道,并且留下了一美好的假设:“如果在发送数据之前,我们能够提前获得信道信息,是不是能对发送策略有指导作用,并且有效的帮助我们...
  • 声明:此处为博主,真实开发过程的记录,直奔主题,没有测试环节,请见谅。 一、前期准备工作 微信公众平台的注册好的appid、密钥,点我去注册了解 微信公众平台中需要设置授权域名,遵循微信的规则 二、登录...
  • 一、通过研究现有的文档、资料获取需求信息 这些文档资料包括: 1、各种文件(战略规划、规章制度、汇报材料、工作总结、上下行文件、会议记录等等); 2、各种报表(财务、行政及其他); 3、业务过程中的各种...
  • 由于前一阵太忙,隔了这么久才更新第三篇,实在抱歉...知己知彼,百战不殆--信道信息获取和应用  上一回我们说到了变化莫测的MIMO信道,并且留下了一美好的假设:“如果在发送数据之前,我们能够提前获得信道信息
  • 所以,我们可以提炼出发送端拥有信道矩阵的第一好处:如果发送端拥有了H的信息,就可以对它进行SVD分解,从而得到右酉阵V,利用它,可以将传输过程转化成我们期望的“对角阵”形式。 ------------------ ...
  • MQTT获取离线消息小议

    千次阅读 2018-12-08 18:10:56
    微消息队列系统在客户端成功建立连接并通过权限校验后,会自动加载离线消息并下发到客户端,但是实际在使用过程中会出现消费端启动后迟迟无法获取离线消息的问题,本文主要介绍延迟消息的发送与接收环节需要注意的...
  • 需求经过大脑的过程

    万次阅读 2020-07-31 07:00:00
    前言需求分析,是产品设计的前置过程。由于产品经理身处于沟通的中心,我们需要在很短的时间内评估需求的价值,并给出解决方案。一需求会在产品经理的脑海里经过什么过程呢?本文将从需求的分析、拆...
  • PID控制以及各种控制环节-C语言实现

    千次阅读 2019-12-12 10:28:23
    总是可以由简单的子系统构成,分析典型环节的特点,其目的是为了通过典型环节的特点分析更为复杂的系统,实际工程应用中,真正完全通过理论的方式建立模型是非常困难的,实际的模型建立过程是一复杂的过程,...
  • 软件需求获取方法

    千次阅读 2014-06-21 17:34:30
    软件需求获取是软件需求开发的关口环节,关口没把守好,后面就会全面溃败。   软件需求获取个人认为有以下几方法:   面谈和问卷调查; 小组讨论; 情景串联; 参与、观察业务流程; 现有产品和竞争...
  • fetch API获取返回值的方式

    万次阅读 2017-11-11 10:51:48
    但是在使用的过程中,经常有同学不能顺利从传统的Ajax请求(如果使用jquery的话,就是$.ajax,$.post,$.get)转移到新的fetch方式,很多时候就是卡在了获取响应数据的环节上。用fetch来获取数据,如果响应正常返回,...
  • JBPM学习(一):实现一简单的工作流例子全过程

    万次阅读 多人点赞 2014-05-02 17:32:34
    最近发现这篇文章挺多人看的,也挺多人有疑问,我很想帮你们解答,但是很无奈,这篇文章只是我当时在自学时看的一教程的记录,当时对JBPM也没有深入去学习,并且到现在也已经快4年了,这期间我都没用过JBPM,因此...
  • golang 获取客户端真实IP地址

    千次阅读 2020-04-24 20:44:48
    用户请求到达提供服务的服务器中间有很多的环节,导致服务获取用户真实的 ip 非常困难,大多数的框架及工具库都会封装各种获取用户真实 ip 的方法,在exnet包中也封装了各种 ip 相关的操作,其中就包含获取客户端 ip...
  • 解析一web请求的过程

    千次阅读 2017-10-30 23:54:00
    对一web请求的理解随着写的WEB程序越来越多,项目的部署也越来越繁琐,对于一些线上问题总是搞不清楚是哪个环节出的问题,归根结底是对整个流程的不熟悉导致,所以分析下一WEB请求从用户输入地址到页面出来到底经历...
  • Qt5.9使用Qt4的QFTP全过程

    万次阅读 热门讨论 2019-04-30 21:29:54
    文章目录1、简介2、下载并编译Qt4的库2.1 编译准备2.1.1 修改“qtftp-master\src\qftp”下的“qftp.pro”文件2.1.2 修改“qtftp-master\src\qftp”下的“qftp.h”文件2.2 编译3、应用编译好的库3.1 引用3.1.1 拷贝...
  • 公司属于外包公司,公司所用的是oracle数据库,所以,避免不了操作oracle数据库,而且动不动就是调用存储过程...这几篇文章只是学习的起步,但又是学习存储过程至关重要的一个环节,相信你看完这篇文章可以说是对存...
  • 本文笔者继续阐述Datanode服务内部的另外一部分的处理过程:Datanode服务启动以及心跳发送给SCM服务的过程。了解此本部分过程,能更加地让我们了解Datanode服务的正常运行过程是怎样的。如文章标题...
  • 炫酷大屏展示页的打造过程

    千次阅读 2017-12-10 16:26:22
    本人有幸负责关于这次展示页的前端开发,特以此文记录开发过程中的关键环节。 展示页分为三大模块:数据展示、动态展示和地图展示。效果如下: 数据展示 此模块展示我们公司至今为止的各项数据,通过...
  • sql server存储过程 以及几常用案例

    千次阅读 2016-04-23 10:41:08
    SQL Server 存储过程 ...Transact-SQL中的存储过程,非常类似于Java语言中的方法,它可以重复调用。当存储过程执行一次后,可以将语句缓存中,这样下次执行的时候直接使用缓存中的语句。...Ø 存储过程的概念
  • oracle存储过程----入门存储过程

    千次阅读 热门讨论 2018-08-09 08:21:08
      从今天开始,决定先学会写存储过程吧,总是被人问起这。   首先,我决定以学会oracle 的存储过程为目标了。 存储过程的优点,以下是我百度来的优点: 降低网络的通讯量。如果只是执行简单的SQL语句的...
  • yolo训练之样本准备环节

    千次阅读 2016-11-21 16:03:32
    我们要用yolo做我们自己的objection detection,需要自己准备样本,自己训练。在训练之前,我们需要把样本转为我们需要...4.这样准备工作基本就做好了,下一步就可以训练了。可参见 使用YOLO训练自己的数据样本经验总结
  • 信息收集总结

    千次阅读 多人点赞 2019-01-27 13:20:18
    信息收集是指通过各种方式获取所需要的信息,以便我们在后续的渗透过程更好的进行。最简单的比如说目标站点的IP、中间件、脚本语言、端口、邮箱等等。我觉得信息收集在我们渗透测试的过程当中,是最重要的一环,这一...
  • 大数据时代,百货行业信息化将如何变革?

    千次阅读 多人点赞 2016-07-21 15:28:17
    对于现代企业以及公司的未来创新发展,企业内部全面实施信息化战略划早已成为现在企业发展的一重要环节,在信息化战略实施过程中,如何把企业内部管理和创新相结合,利用信息化框架模式打通也是目前信息化进程的一...
  • 如何让产品设计以客户为中心,充分...具体来说,我们认为应该契合项目开发全周期,实现营销全过程管控,自始至终做好项目开发价值链各个环节的工作,让营销活动贯穿项目开发始终,做到“营销全周期管理”。那如何改变?

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 100,546
精华内容 40,218
关键字:

信息获取的过程4个环节