精华内容
下载资源
问答
  • 人工智能的三大局限性

    千次阅读 2019-05-13 10:53:07
    **任何技术都有局限性,AI和人工智能也不例外。其局限有三:检测、功耗和人力。 思科一份最近的调查显示,39%的CISO称其公司依赖自动化推动网络安全工作,另有34%称依赖机器学习,32%报告称高度依赖人工智能(AI)。...

    **任何技术都有局限性,AI和人工智能也不例外。其局限有三:检测、功耗和人力。

    在这里插入图片描述

    思科一份最近的调查显示,39%的CISO称其公司依赖自动化推动网络安全工作,另有34%称依赖机器学习,32%报告称高度依赖人工智能(AI)。CISO如此看好AI令人颇为意外,毕竟,除了识别恶意行为,AI在网络安全方面的应用场景似乎也不是很多。

    老实说,AI绝对有益于网络安全。随着恶意软件像流感病毒一样不断自我变异,不使用AI几乎不可能发展出恰当的响应策略。银行或信用卡提供商之类的金融机构也可以通过适当训练的AI大幅强化其SIEM系统,提升欺诈检测和预防能力。但AI并非万灵丹,炒作得再多也不是。事实上,与其他任何技术一样,AI也有其局限性。

    1. 骗过一次就能畅通无阻:AI可用于欺骗其他AI

    这是个大问题。安全人员用AI优化威胁检测的同时,攻击者也在琢磨着用AI规避检测。公司企业用AI以更高的准确率检测攻击,攻击者就用AI来开发更智能、会进化的恶意软件来规避检测。基本上,恶意软件就是用AI来逃过AI检测。恶意软件一旦通过了公司的AI检测关,可以很轻松在公司网络内横向移动而不触发任何警报,公司的AI会将恶意软件的各种探测行为当做统计错误加以排除。而到恶意软件被检出之时,安全防线早已被洞穿,伤害也可能已经造成。

    1. 功耗成问题:低功耗设备可能拖不动AI

    物联网(IoT)设备通常都是低功耗小数据量的。如果攻击者成功将恶意软件部署到了这一层次,那AI基本就顶不上用了。AI需要大量内存、算力和大数据才可以发挥作用。而IoT设备通常不具备这几个条件,数据必须发送到云进行处理才可以受到AI的响应。而那时,已经太迟。就好像出车祸时车载AI会自动拨打报警电话并报告车辆所处位置,但车祸已经发生的事实改变不了。车辆自动报警可能比等路人帮忙报警要快一点,但仍然无法预防撞车。AI最多有助于在设备完全失控之前检测出有什么不对劲,或者,在最坏的情况下,让你不至于失去整个IoT基础设施。

    1. 已知的未知:AI无法分析自己不知道的东西

    严格控制的网络上AI运行良好,但现实世界缤纷多彩不受控。AI有四大痛点:影子IT、BYOD项目、SaaS系统、雇员。无论你给AI灌注了多少大数据,都得同时解决这4个痛点,而这是难度大到几乎不可能的任务。总有雇员会通过不安全WiFi网络在个人笔记本电脑上打开公司的Gmail邮件,然后,敏感数据就此流失,AI甚至连知道这一事件的机会都没有。最终,公司自己的应用可以受到AI保护,防止用户误用,但终端用户使用你根本感知不到的设备你是无法防护的。另外,仅提供智能手机App,不提供企业访问控制,更不用说实时日志的云系统,你又怎么引入AI呢?这种情况,企业没有办法成功利用机器学习。

    AI确实有所帮助,但它并非游戏规则颠覆者。AI可用于在受控系统中检测恶意软件或攻击者,但难以防止恶意软件被部署在公司系统中,而且除非你确保它能控制你所有终端设备和系统,否则它一点用都没有。网络攻防战一直在继续,只不过,防御者和攻击者都在用与以往不同的武器,而我们的防御只有在恰当部署和管理之下才会有效。

    与其将AI当成网络安全救星,不如把精力放在更基本的老问题上:缺乏控制、缺乏监视、缺乏对潜在威胁的理解。只有了解了用户和用户使用的设备,知道用户都会拿这些设备来干什么,然后确保所用系统能切实受到AI的保护,才可以开始部署并训练AI。

    展开全文
  • Hadoop的局限性

    千次阅读 2015-09-21 12:33:55
    1、抽象层次低,需要手工编写代码来完成,使用上难以上手; 2、只提供两个操作,Map和Reduce,表达力欠缺; 3、一个Job只有Map和Reduce两个阶段(Phase),复杂的计算需要大量的Job完成,Job之间的依赖关系是由...


    1、抽象层次低,需要手工编写代码来完成,使用上难以上手;
    2、只提供两个操作,Map和Reduce,表达力欠缺;
    3、一个Job只有Map和Reduce两个阶段(Phase),复杂的计算需要大量的Job完成,Job之间的依赖关系是由开发者自己管理的;
    4、处理逻辑隐藏在代码细节中,没有整体逻辑;
    5、中间结果也放在HDFS文件系统中;
    6、ReduceTask需要等待所有MapTask都完成后才可以开始;
    7、时延高,只适用Batch数据处理,对于交互式数据处理,实时数据处理的支持不够;
    8、对于迭代式数据处理性能比较差。
    


    摘抄自:知乎评论

    展开全文
  • 自动化化测试的局限性

    万次阅读 2020-09-23 10:08:00
    在传统的Web应用程序中,很大一部分计算发生在后端服务器上。然后将结果(HTML,CSS和JavaScript形式)返回给用户并由浏览器处理。当软件的核心复杂集中在服务器上时,可以在高度相似的环境中(例如,在某些连续...

    出售软件时,没有什么比软件本身的质量更重要的了。如果您的软件无法实现用户期望的功能,那么您的业务将步履维艰。这意味着至关重要的是,您必须[1]知道用户希望软件执行的操作,并且[2]知道您的软件会执行此操作。最近,我一直在根据健康软件产品开发的两个基本要求来考虑自动化测试的局限性。

    自动化测试的好处

    考虑限制之前,让我们首先考虑的自动化测试怎么  做 帮助我们满足用户的期望。在许多方面,您的开发团队都是您的第一位也是最重要的用户。自动化测试使这些“用户”可以非常清楚地描述他们期望软件如何运行。事实上,当你能描述软件应该如何与这样的精确度表现,计算机可以检查,就可以检查,在该软件的行为描述方式  快速 和  反复。这些是自动化测试的巨大收益,并且这些收益驱使商业软件行业在过去的几十年中认真对待自动化测试。

    自动化测试的局限性

    但是,即使只是简单地确认软件的行为符合预期,自动化测试也有一些限制。由于测试套件中编码了期望值,因此存在第一个限制。在大多数情况下,实现该功能的开发人员就是编写测试的人。对于开发人员而言,除了构建功能时他所考虑的方案之外,很难考虑其他方案。这意味着甚至可能不考虑可能的边缘情况,更不用说进行测试了。 

    还有一个现实:从定义上说,任何具有足够价值的软件都将由他人支付,对于任何人的头脑来说,跟踪它的每个活动部分本质上太复杂了。因此,不可能以自动化测试套件的形式充分表达这种复杂性。即使有了强大的自动化测试套件,用户也将发现错误,因为没有开发团队可以预期用户可能会遇到的状态或条件的每种可能组合。此外,没有开发团队可以预见用户对应用程序的无数(通常是不同的)期望该软件将并且应该运行。

    测试单页应用程序

    在构建“单页应用程序”(SPA)时,这些限制会更加严重。在传统的Web应用程序中,很大一部分计算发生在后端服务器上。然后将结果(HTML,CSS和JavaScript形式)返回给用户并由浏览器处理。当软件的核心复杂性集中在服务器上时,可以在高度相似的环境中(例如,在某些连续集成服务器上)测试该软件。但是,单页应用程序会将核心计算卸载到用户的浏览器中。期望 开发团队  以很高的精确度了解其服务器环境的详细信息,但很难  预期 您的各种用户浏览器的详细信息。他们可以使用多种不同浏览器中的一种,在少数操作系统之一的顶部运行几种浏览器引擎中的一种,并以多种可能的方式在多种设备之一上配置

    浏览器扩展的某种组合。

    尽管所有Web软件都  以  各种可能条件(和其他条件)的某种特定组合运行,但是SPA通过在某些特定环境中计算 出数以百万计的可能性中的主逻辑而引入的增加的复杂性  强烈地限制了自动化测试的效率。您的团队可以在一个特定环境中运行自动化测试,也可以尝试在多个环境中运行测试。但是,后一种选择会线性地增加测试套件的时间成本,同时也会增加测试套件的复杂性,因为现在要求它具有足够的通用性,可以在您选择的各种环境下运行。

    调和开发人员和用户的期望

    最终,如果没有实际用户使用您的软件并确认其行为符合预期,就不可能确认您的软件是否达到了用户的期望。当然,这就是为用户提供软件的方式。您将软件交给他们,他们可以在他们拥有的任何特定环境中运行该软件,然后他们要么实现他们的期望,要么就没有达到他们的期望。 

    确实,以最简单的形式,错误只不过是未满足的期望而已。有时,开发该软件的开发团队会考虑这些期望,但是在某些情况下实现是错误的。但是有时候,开发团队从未考虑过这种期望。但是,从客户的角度来看,没有区别。他们期望软件以一种方式,以一种方式进行结构,在某些地方提供某些信息的行为,而实际上却没有。 

    开发团队通常根据原始考虑因素来组织此反馈。如果团队最初希望该软件以预期的方式运行,则客户报告的问题是一个错误。如果团队不希望软件以预期的方式运行,则客户报告的问题是功能请求。但是,在任何一种情况下,开发人员和产品经理都需要相同的核心信息:

    • 用户期望的情况是什么 

    • 实际情况是什么 

    • 为什么未满足的期望成为问题 

    当然,正如每个软件开发团队都知道的那样,用户根本不会或无法提供如此清晰的反馈。绝大多数用户甚至没有报告未满足的期望,而那些经常提供很少细节和不专心观点的用户。

    获得有用的反馈

    没有比真正使用您的软件的真实人提供的结构更好的反馈更好的反馈了。而且,没有比人群测试更好的方法来收集此反馈。这是因为仅向要在真实环境中运行该软件的真实用户提供软件是不够的。这些用户还必须向您报告有用的详细信息,软件的行为方式,他们的期望值,原因,地点,条件以及其他条件等。 

    自动化测试会在失败时为您的开发团队提供有用的详细信息,但它们永远无法提供期望。您的开发团队将不得不将它们自己编码为测试。您的真实用户总是在真实环境中“测试”您的软件,但是他们很少向您提供有关他们的期望,在特定情况下以及软件行为方式不同的有用的详细信息。单靠这些都不是足够的。

    推荐阅读

    扫码关注我们

    更多福利等待你发现

    展开全文
  • 线性回归模型的局限性和注意点

    千次阅读 2020-03-03 22:10:46
    回归分析是传统的研究变量关系重要的一种方式,特别是在机器学习和深度... 线性回归分析在实际使用中,虽然简单有效,但是使用者往往容易因为没有充分认识到线性回归模型的局限性和注意点而误用,导致得到多...

           回归分析是传统的研究变量关系很重要的一种方式,特别是在机器学习和深度学习兴起之前,回归分析基本就是探究变量关系之间的主要方式。线性回归又是回归分析中很重要的一种方式,由于其模型的简单性和有效性,线性回归分析在回归分析中始终扮演极其重要的角色。

           线性回归分析在实际使用中,虽然简单有效,但是使用者往往很容易因为没有充分认识到线性回归模型的局限性和注意点而误用,导致得到很多不准确甚至相反的结论,因此本文将总结几点线性回归模型中的主要的局限性和注意点。

    1、线性模型,顾名思义,其只能捕捉变量之间的线性关系,对于一些非线性的特别是层级结构,其无能为力;因此,对于线性模型的使用,要预先对变量的特点有一个大概的了解,不能万事皆线性,数据一丢,回归一跑就完事,这是容易犯错的。通常情况下,线性模型可以捕捉到变量之间的线性关系,但是如果变量之间存在某种非线性函数关系,且预期函数是连续可微的,那么根据泰勒定理,该函数可以用多项式函数逼近,特别的,只要自变量变化够小,我们可以用线性模型去近似,这一点给我们对于线性模型的使用提供了一定的信心,特别是在高频交易领域,对于信号的建模,线性模型往往是更简单有效的。但是如果是对于一些自变量和因变量之间具有强烈的层级结构关系的情况,这时线性模型并不能较好的对其建模,这时使用机器学习中的其他方法建模往往具有更好的效果。所以,预先对变量的特点和变量之间的关系有大概的了解,然后选择合适的模型去建模估计参数是很重要的。

    2、我们建模的意义在于预测,在于对某种现象提供未来的参考意义,所以,一个模型在未来有效是建模的基本前提,不然模型将失去意义。那么在线性回归中,将如何保证,或者说在哪里体现出模型的未来有效性呢?一般在教科书中,对于时序数据,会要求变量的序列至少是平稳的,这里要求其平稳的意义就在于保证模型的未来有效性(在协整概念中,不要求序列平稳,但是应该存在协整关系,这里的协整关系也是一种对模型未来有效性的保证)。如果序列是平稳的,那么该模型就具有未来意义,可以保证当下估计的得到的模型,即当下得到的变量之间的关系在未来一定时间内是稳定的;如果序列不平稳,那么利用历史数据得到的模型就无法进行预测,因此,在建模时,我们总需要一些基本假设,默认这些假设在未来依然成立,那么模型得到的关系在未来才会成立,才能具有预测意义。但是在预期平稳性时,我们往往不会预期序列一直平稳,很多时候,有些变量序列会因为大环境的变化发生某种持久的改变,这时就需要进行重新估计模型,重新估计参数,所以我们一般只预期变量在未来一段时间平稳,模型只在未来一段有效,所以需要不断的调整模型,重新估计,调整参数。所以对于历史数据,当我们预期历史某些时点发生了一些可能改变变量特性的事件,也应该以该时点进行分化,进行分步回归,而不是放在一个回归之中。当然,有时如果我们可以预先知道变量系数和某些变量的关系,即使变量不平稳,那么我们也可以通过在模型中刻画这种具有时变性的特征进行估计,只不过这时模型严格来说不再是线性的,而是一种变形。总而言之,平稳性保证系数稳定,保证预测能力,时变形导致系数发生变化,可通过分步回归解决,或者使用新的具有时变特性的模型重新建模。

    3、R方是一个相对重要的衡量模型合适度的指标。R方是估计项的方差和真实项因变量方差的比值,R方越大,说明该模型越能解释因变量的变化,即该模型是越合适的。在不预先设定随机项分布的前提下,一般用最小二乘去估计模型的参数,在最小二乘方式下,如果自变量和其他解释变量数据不变,那么当新增一个解释变量后,R方几乎都是增加的,至少不会降低,这个从最小二乘的原理可以很容易的推导出来。所以通过R方直接对比不同模型的解释力是不合适的,如果直接通过R方对比,则应该控制变量个数,这也是在忽略数据层面的差异的前提下,对此,引出调整R方,其在定义误差项相变化比于总体因变量变化的比值时,考虑了自由度,考虑了变量个数,从而可以相对解决该问题,因此对于多元回归分析,在对比模型的解释力时,应该看调整R方,而不是R方。此外,只要自变量个数够多,那么R方总是可以够大,即因变量的变化总是可以通过增加解释变量的个数来被解释,但要注意的是,这种被解释只是在样本数据层面经由这种估计方法而呈现出来的一种数字结果,这是数学上的必然性结果;不断的增加自变量个数,相当于随机向量空间的维度不断增加,那么新增维度总是可以在生成新的估计向量时提供减小误差的帮助,最坏不过是该新增维度的系数为0,这样结果总是不会更差。所以盲目的新增解释变量,新增维度,会把随机项的维度也给部分覆盖掉,即把噪声也进行建模,这就造成了所谓的过拟合。过拟合的模型自然就是在样本内,因为数字游戏,使得因变量被解释的很好,R方很大,甚至接近1,但是在样本外,由于过拟合,造成模型不正确,具体的,变量个数和变量系数不正确,自然导致预测效果很差,即模型泛化能力很差,这样的模型是没有意义的。所以,这就引出了下一点,即应该如何避免过拟合,如何选择解释变量。

    4、一个模型的可靠性,不仅仅在于合理的建模方法,很大程度上还在于该模型背后的故事。线性回归得到的结果,单纯从统计意义上,只能得到相关关系,而统计上的相关关系如果要相对稳健的应用到现实中,我们往往要求解释变量和因变量之间具有严格逻辑支撑的因果关系。虽然统计上,也有类似Granger因果检验这种检验因果关系的方式,但是严格来说,这种检验也只是在时间先后上的一种相关性检验。如果不从哲学意义上论证因果关系的定义,只从传统以及现实应用的定义上,因果关系一定意味着时间上的先后性,但是这种时间尺度到底是多少是不确定的,到底是一个小时还是一天,甚至是一个月才会起作用?这背后还是需要严格分析的,所以在使用所谓的Granger因果检验时,还需要特别注意时间尺度的定义,比如,如果真实的因果关系需要在月的时间尺度上发挥作用,但是检验中的时间尺度定义是天,而且滞后项的选取不够长,那么该检验结果将是错误的。此外,即使检验出时间上的先后性,这只说明了因果关系的时间先后性,即该检验的结果是因果关系存在的必要条件,而不是充分条件,但是必要性的意义在于增加了因果关系存在的条件概率。最终的最终,模型的可靠性需要建立在因果关系上,而因果关系需要建立在逻辑分析上,这里的逻辑分析更具体的是指额外的基于逻辑而进行的分析和实证,并不是单纯停留在空想层面。所以,对于线性回归来说,更一般的做法是,根据潜在的逻辑关系去选择变量,而不是盲目加入变量,回归得到结果,这样很容易出现伪回归结果,即误把相关关系变量当做因果变量,从而造成模型的不稳健,不可靠。当然,也有一些非常规做法是通过data mining找到一些潜在有用的变量,但是最后还是要知道变量关系背后的逻辑,这步是不可缺少的,不然模型只是一个黑箱,容易出现意想不到的结果。当然,从统计意义上,这种黑箱还是具有一定的意义,只是模型不再那么稳健可靠,容易出现预料之外的结果,如果实在要使用这种黑箱,一定要明晰其局限性。

    5、模型的两大主要功能是变量分析和预测,前者一般在计量经济实证研究中比较常见,其研究的核心在于探究某个或者某几个变量对因变量的影响,所以着重点在于某个变量上,这种研究方式中,侧重对重点变量的系数估计的准确性,所以会涉及到变量遗漏的内生性问题分析,即围绕这个重点变量进行变量遗漏的内生性问题分析,查看是否有变量遗漏;对于预测来说,目的是预测因变量,所以是尽量找到可以解释因变量的潜在解释变量。对于这两点区别,在研究方式和侧重点上有所不同。前者强调对于重点变量对于因变量的影响,所以对其系数估计的准确性是核心,由于要准确估计其系数,那么可能影响系数估计的因素就需要排除,这类因素最需要注意的往往就是变量遗漏造成的内生性问题,这种内生变量具有的特点就是会因变量有影响同时和其他解释变量相关,那么这样的变量遗漏就会造成内生性问题,解决这类问题往往就是找全相应的遗漏变量,以满足外生性条件,或者找到工具变量。对于预测,则是找全潜在的解释变量,以更准确的进行预测,这时无论解释变量之间是否相关,都应尽可能补全;这种情况下,有时候由于数据量不足,同时存在解释变量之间高度相关,即多重共线性问题,就会造成变量系数估计不准确且方差过大,所以这会造成对预测的偏差较大,这时往往采取剔除其中之一的高度相关变量,然后再进行回归,这样虽然会造成系数估计不准确,但是由于剔除的变量和其中之一的解释变量高度相关,所以对因变量的预测并不会造成多大的影响。所以可以发现,对于两种不同的目的,侧重往往不一样。

    6、对于变量遗漏的内生性问题分析,没有行之有效的统计检验,直接检验出模型是否存在变量遗漏的内生性问题,对此,只能通过逻辑分析去判断是否存在可能的内生性问题,即是否存在和解释变量相关同时会影响因变量的变量。外生性条件是解释变量和随机项不相关,这是模型的一个基本假设,且无法从估计的结果进行检验,因为最小二乘估计方法得到的结果,就是通过解释变量和残差项正交得到的。这样一个基本假设的意义在于,保证了参数估计的无偏性和一致性,因此一旦存在内生性,参数估计的无偏性和一致性就得不到满足,就会存在误差。这个其实很好理解,如果存在变量遗漏,那么就相当于改变了解释变量空间,这样因变量到解释变量空间的最短距离造成的投影在各个解释变量上的分解肯定会发生变化,从而造成估计系数的变化。为了满足外生性条件(当然还有互为因果和测量误差也会造成内生性问题,但是测量误差对于不可重复的经济数据来说难以解决,互为因果可以通过滞后解决,而往往变量遗漏才是比较需要分析的地方),就需要尽量的多分析多思考,找全遗漏变量,或者找到合适的工具变量。如果找到了合适的工具变量,那么可以通过Hausman检验来判断原模型是否真的存在内生性问题,该检验的一个前提条件就是需要工具变量,而不是直接在原模型的基础上检验是否存在内生性问题,可是既然已经找到了合适的工具变量,说明内生性问题已经基本解决了,该检验也只在其他层面上具有一定的意义。

    展开全文
  • 准确率Accuracy的局限性

    千次阅读 2019-03-22 12:01:42
    前提问题分析: Hulu的奢侈品用户广告主们希望把广告定向投放给奢侈品用户。Hulu通过第三方数据平台(DMP)拿到了一部分奢侈品用户的数据,并...准确率的局限性 准确率是指分类正确的样本占总样本的比例: Accuar...
  • 近日,有越来越多的学者正在探讨机器学习(和深度学习)的局限性,并试图为机器学习的未来探路,纽约大学教授 Gary Marcus 就对深度学习展开了系统性的批判。此前,图灵奖获得者,UCLA 教授 Judea Pearl 题为...
  • 卷积神经网络综述

    千次阅读 2019-02-25 14:51:38
    下面来简单介绍和归纳总结一下国内外卷积神经网络的结构,分析...卷积神经网络不仅具有传统神经网络的较好容错、自适应和较强自学习能力等优点,还具有自动提取特征、权值共享以及输入图像与网络结构结合良好...
  • 如果外层是一个很大的表,那么这个查询的性能会非常糟糕。当然我们可以优化这个表的写法: select tast_user.* from tast_user inner join user using(tast_user.id) where user.name like '王%' 另一个优化...
  • 传统的HDFS单Namenode架构的局限性

    千次阅读 2016-06-01 22:46:05
    先来看看几个基本概念: 1.Namespace(命名空间): 1).有目录文件以及block组成 2).他支持所有对于命名空间相关系统的操作,如增删改查。...通过控制注册以及阶段的心跳,来保证DataNode在正确运行
  • 去中心化及其局限性

    万次阅读 2019-05-13 18:56:53
    去中心化及其局限性 这张表总结了一部分新的 P2P 网络中的去中心化工具。区块链就是其中的一个! 本次演讲我将提出三个问题:(1)去中心化是什么?我们真的知道答案吗?(2)我们真的想要去中心化吗?不要...
  • 加速度频域积分的实现及其局限性分析

    万次阅读 多人点赞 2018-08-05 20:01:00
    在加速度精度不高或者加速度数据不经处理的情况下,积分得到的位移量会一直有一个累计误差,而且会越来越,这时有人就会把目光移到频域中,在频域中对加速度进行积分会怎样呢?会不会有出乎意料的效果呢? 什么是...
  • CT和MRI的局限性分析

    千次阅读 2014-07-07 17:13:03
    但也存在一些应用上的局限性。在这些局限性中,有的为检查方法的基本原理所限制,比较难以克服;有的为机器性能和技术因素所引起,可通过科学技术的进步和新技术的开发加以克服;有的是人为因素所造成的,通过技术...
  • 1.自动化测试简介 1.1 什么是自动化测试 1.2 自动化测试的前提 1.3 自动化测试的优势 1.4 自动化测试的局限 2.自动化测试框架及工具的选择 2.1 主流自动化测试框架及工具介绍 2.2 自动化测试框架及工具的分析与选择
  • GAN的局限性 即便如此,传统的 GAN 也不是万能的,它有下面两个不足: 1. 没有用户控制 (user control) 能力 在传统的 GAN 里,输入一个 随机 噪声,就会输出一幅 随机 图像。 但用户是有想法滴,我们想输出的...
  • 深度学习较其他机器学习方法在各类...因此本文力图阐述深度学习的局限性,引发更多对深度学习的思考。 人工智能已经达到了炒作的顶峰。新闻报告称有的公司已经使用 IBM Watson 取代了工人、算法在诊断上击败
  • 大数据的十大局限

    千次阅读 2017-02-03 13:14:55
    在这里谈大数据的十大局限性,并非要否定其价值。相反,只有我们充分认识了大数据的特点和优劣势,才能更加有效地对其进行采集、加工、应用,充分挖掘和发挥其价值。
  • 格兰杰因果关系检验的局限性

    万次阅读 2018-08-08 17:19:59
    好久没有写博客了,今天翻译一篇描述格兰杰因果关系检验局限性的文章,前面关于格兰杰因果关系检验的介绍来自我个人的经验,原文看这里:Limits of Granger Causality。 一. 格兰杰因果关系 格兰杰因果关系是由...
  • 车牌识别算法及其MATLAB实现

    万次阅读 多人点赞 2018-10-26 20:56:41
    训练(难度, 自己能力不够) 思路雏形: 已有思路: 我的思路: 二、算法评价(一切默认图像平行): 局限性: 图片稍有倾斜便会难正确识别, 图片稍微模糊也难正确识别, 车牌上的点"."对识别影响特别, 噪声干扰时...
  • GB28181的局限性

    千次阅读 2016-07-01 10:26:16
    新国标GB/T28181-2011已经实施将几年了,在为国内安全防范、视频监控系统建设提供了有效方向和规范的同时,也存在着些许局限性,如果不尽快解决,会在建设过程中带来不少的困扰,并造成新的标准混乱。
  • JAVA上百实例源码以及开源项目

    千次下载 热门讨论 2016-01-03 17:37:40
     Java 3DMenu 界面源码,有人说用到游戏中不错,其实平时我信编写Java应用程序时候也能用到吧,不一定非要局限于游戏吧,RES、SRC资源都有,都在压缩包内。 Java zip压缩包查看程序源码 1个目标文件 摘要:Java源码...
  • 数据流分析的局限性

    千次阅读 2016-02-29 22:06:31
    引子前面我们介绍了很多关于数据流分析的知识,虽然说数据流分析是整个代码分析基础中的基础,但是数据流分析还是存在很大局限性,一部分局限性来自于数据流分析所做的假设(例如假设所有路径可达),一部分局限性...
  • 查询优化器在提供这些特性的同时,也存在一定的局限性,这些局限性往往会随着MYSQL版本的升级而得到改善,所以本文会列出一些常见的局限性,且不包含所有的。   1.1 关联子查询 描述: 因为select …from table...
  • 深度强化学习1——强化学习到深度强化学习

    万次阅读 多人点赞 2018-10-05 22:04:43
    然而比较复杂的、更加接近实际情况的任务则往往有着很大的状态空间和连续的动作空间。当输入数据为图像,声音时,往往具有很高维度,传统的强化学习很难处理,深度强化学习就是把深度学习对于的高维输入与强化学习...
  • CT和MRI的局限性和克服措施

    千次阅读 2011-03-30 13:29:00
    如金属节育环对盆腔部的成像影响很大,但对头颅的成像影响较小,图像上的干扰也较小。  (三) 对钙化病灶显示  钙化病灶在T1加权和T2加权图像上大多表现为低信号,特征不强,比较难以肯定。这对于某些含有特征...
  • 【图像融合】基于小波变换的图像融合

    万次阅读 多人点赞 2017-10-04 20:42:54
      传统的信号理论,是建立在Fourier分析基础上的,而Fourier变换作为一种全局性的变化,其有一定的局限性,如不具备局部化分析能力、不能分析非平稳信号等。在实际应用中人们开始对Fourier变换进行各种改进,以...
  • 数据集成

    万次阅读 2018-05-13 21:16:32
    数据集成内容定义:数据集成是要将互相关联的分布式异构数据源集成到一起, 使用户...数据集成难点: ( 1 ) 异构: 被集成的数据源通常是独立开发的, 数据模型异构, 给集成带来很大困难。这些异构主要表现在: 数据...
  • 图像去噪算法综述

    万次阅读 多人点赞 2019-03-22 16:43:18
    阈值的选择对降噪效果有着很大的影响,如果阈值太小,降噪后的信号仍然有噪声存在,反之,阈值太大则重要的图像特征又将被滤除,造成图像模糊,阈值的选择始终是在抑制噪声和保护图像细节之间折中。目前应用较多的...
  • LSTM的性能局限

    千次阅读 2019-09-05 11:13:32
    元学习论文总结||小样本学习论文总结 2017-2019年计算机视觉顶会文章收录 AAAI2017...一:LSTM的局限性 循环神经网络(RNN),长短期记忆(LSTM),在现在都得到了广泛的应用。LSTM和RNN被发明于上世纪80、90年代...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 286,997
精华内容 114,798
关键字:

很大的局限性