热门好课推荐
猜你喜欢
相关培训 相关博客
  • 百万级的数据,无论侧重OLTP还是OLAP,当然就是MySql了。过亿级的数据,侧重OLTP可以继续Mysql,侧重OLAP,就要分场景考虑了。实时计算场景:强调实时性,常用于实时性要求较高的地方,可以选择Storm;批处理计算场景:强调批处理,常用于数据挖掘、分析,可以选择Hadoop;实时查询场景:强调查询实时响应,常用于把DB里的数据转化索引文件,通过搜索引擎来查询,可以
    2015-11-22 21:24:28
    阅读量:1590
    评论:0
  • 自己感觉大数据里面用到的数据库比较多,因此我自己做一个总结。后面会有详细的学习教程。
    2017-07-25 10:17:40
    阅读量:3492
    评论:0
  • 一、项目背景由于以前系统设计数据库的时候没花多少心思,随着业务越来越复杂,做数据分析的时候经常卡在数据质量上面。痛定思痛,最近部门总监交下来一项任务,做一套数据质量的规范出来,绞尽脑汁想想有零星想法但没有成熟的系统性解决方案,但是又确实很熟悉。仔细想想,大学里学习数据库的时候讲到的范式不就是解决数据库设计时候的问题吗?二、数据库模型什么是数据库?数据库就是数据存放的地方。为什么需要数据库?数...
    2019-04-25 14:54:23
    阅读量:231
    评论:0
  • 首先声明:数据库的大数据处理一般不在实际操作中应用,这是为了避免数据库被占用,而导致资源不能被访问,还有内存分配等方面出现。基本概念:大数据也称之为LOB(Large Objects),LOB又分为:clob和blobclob用于存储大文本。Textblob用于存储二进制数据,例如图像、声音、二进制文等。对MySQL而言只有blob,而没有clob,mysql存储大文本采用的是Te
    2011-11-17 14:55:38
    阅读量:3302
    评论:0
  • 大数据;hadoop;大数据和hadoop的关系转载于:https://www.cnblogs.com/fthjane/p/4695144.html
    2015-08-02 09:34:00
    阅读量:16
    评论:0
  • 在对大数据的认识中,人们总结出它的4V特征,即容量大、多样性、生产速度快和价值密度低,为此产生出大量的技术和工具,推动大数据领域的发展。为了利用好大数据,如何有效的从其中提取有用特征,也是重要的一方面,工具和平台化必须依靠正确的数据模型和算法才能凸显出其重要的价值。现在就文本分析作为案例来分析数据处理技术在大数据领域的作用和影响。首先讨论文本分析的三种模型:词袋模型、TF-IDF短语加权表示和
    2016-03-01 10:52:04
    阅读量:5978
    评论:0
  • 今天一大早就看到了一篇文章,叫【大数据对于运维的意义】。该文章基本上是从三个层面阐述的:工程数据,譬如工单数量,SLA可用性,基础资源,故障率,报警统计业务数据,譬如业务DashBoard,Trace调用链,业务拓扑切换,业务指标,业务基准数据,业务日志挖掘数据可视化当然,这篇文章谈的是运维都有哪些数据,哪些指标,以及数据呈现。并没有谈及如何和大数据相关...
    2015-11-02 09:30:00
    阅读量:3
    评论:0
  • 注意:本文侧重于大数据下的NoSQL数据库特点,在介绍NoSQL数据库之前,需要简单介绍下数据库种类的发展史,有因有果的逻辑才能被大家所认可嘛。数据库早期计算机刚刚兴起的年代,是没有专门存储数据的库的,基本上所有的数据信息都是以文件的形式存取,也就是无库,所以当时计算机也是比较冷的行业,毕竟刚刚起步嘛,没有系统的标准来规范这些业务标准。后来渐渐有了层...
    2019-03-18 17:09:00
    阅读量:71
    评论:0
  • 本人在校大学生最近开始学习最近较火的大数据 特写此博客来记录每天的学习内容。。  进入正题第一天学习的差不多就是一些理论知识有关大数据的相关概念列一张表来展示今天的学习内容 (备注内容)大数据定义:非常规手段采集大量数据的集合 大数据特征1.体量大2.速度快3.准确性高4.价值大(价值密度低)5.种类多传统数据与大数据对比                        比较项目传统数...
    2018-05-06 22:38:15
    阅读量:83
    评论:0
  • 前面使用flume把第一手的日志上传到了hadoop接下来就是要对数据进行分析了,这里可以使用hadoop的mapreduce,但是缺点是开发过程比较慢很多人都习惯使用sql来进行查询,hive很好的满足了这个要求而且根据大公司的精力,之前大家都是使用自己封装的mapreduce库后来都转成hive了把hadoop的日志转成hive表就是第一步了这里我尝试的方案
    2016-04-27 17:15:04
    阅读量:3647
    评论:0