精华内容
下载资源
问答
  • 高仿cf单机版登陆器

    2013-12-08 15:37:33
    高仿CF登录器,目前最高仿,cf单机版必备,支持ck竞技之王
  • 注:本文关注于“用Maven构建Mahout的开发环境”,文中的 2个例子都是基于单机的内存实现,因此选择0.6版本。Mahout在Hadoop集群中运行会在下一篇文章介绍。 2. Mahout单机开发环境介绍   如上图所示,我们...

    本文来自:http://blog.fens.me/hadoop-mahout-maven-eclipse/

    前言

          基于Hadoop的项目,不管是MapReduce开发,还是Mahout的开发都是在一个复杂的编程环境中开发。Java的环境问题,是困扰着每个程序员的噩梦。Java程序员,不仅要会写Java程序,还要会调linux,会配hadoop,启动hadoop,还要会自己运维。所以,新手想玩起 Hadoop真不是件简单的事。

         不过,我们可以尽可能的简化环境问题,让程序员只关注于写程序。特别是像算法程序员,把精力投入在算法设计上,要比花时间解决环境问题有价值的多。

    目录

    1. Maven介绍和安装
    2. Mahout单机开发环境介绍
    3. 用Maven构建Mahout开发环境
    4. 用Mahout实现协同过滤userCF
    5. 用Mahout实现kmeans
    6. 模板项目上传github

    1. Maven介绍和安装

    请参考文章:用Maven构建Hadoop项目

    开发环境

    • Win7 64bit
    • Java 1.6.0_45
    • Maven 3
    • Eclipse Juno Service Release 2
    • Mahout 0.6

    这里要说明一下mahout的运行版本。

    • mahout-0.5, mahout-0.6, mahout-0.7,是基于hadoop-0.20.2x的。
    • mahout-0.8, mahout-0.9,是基于hadoop-1.1.x的。
    • mahout-0.7,有一次重大升级,去掉了多个算法的单机内存运行,并且了部分API不向前兼容。

    注:本文关注于“用Maven构建Mahout的开发环境”,文中的 2个例子都是基于单机的内存实现,因此选择0.6版本。Mahout在Hadoop集群中运行会在下一篇文章介绍。

    2. Mahout单机开发环境介绍

    hadoop-mahout-dev

     

    如上图所示,我们可以选择在win中开发,也可以在linux中开发,开发过程我们可以在本地环境进行调试,标配的工具都是Maven和Eclipse。

    3. 用Maven构建Mahout开发环境

    • 1. 用Maven创建一个标准化的Java项目
    • 2. 导入项目到eclipse
    • 3. 增加mahout依赖,修改pom.xml
    • 4. 下载依赖

    1). 用Maven创建一个标准化的Java项目

    ~ D:\workspace\java>mvn archetype:generate -DarchetypeGroupId=org.apache.maven.archetypes 
    -DgroupId=org.conan.mymahout -DartifactId=myMahout -DpackageName=org.conan.mymahout -Dversion=1.0-SNAPSHOT -DinteractiveMode=false

    进入项目,执行mvn命令

    ~ D:\workspace\java>cd myMahout
    ~ D:\workspace\java\myMahout>mvn clean install

    2). 导入项目到eclipse

    我们创建好了一个基本的maven项目,然后导入到eclipse中。 这里我们最好已安装好了Maven的插件。

    mahout-eclipse-folder

    3). 增加mahout依赖,修改pom.xml

    这里我使用hadoop-0.6版本,同时去掉对junit的依赖,修改文件:pom.xml

    <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
    xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/maven-v4_0_0.xsd">
    <modelVersion>4.0.0</modelVersion>
    <groupId>org.conan.mymahout</groupId>
    <artifactId>myMahout</artifactId>
    <packaging>jar</packaging>
    <version>1.0-SNAPSHOT</version>
    <name>myMahout</name>
    <url>http://maven.apache.org</url>
    
    <properties>
    <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
    <mahout.version>0.6</mahout.version>
    </properties>
    
    <dependencies>
    <dependency>
    <groupId>org.apache.mahout</groupId>
    <artifactId>mahout-core</artifactId>
    <version>${mahout.version}</version>
    </dependency>
    <dependency>
    <groupId>org.apache.mahout</groupId>
    <artifactId>mahout-integration</artifactId>
    <version>${mahout.version}</version>
    <exclusions>
    <exclusion>
    <groupId>org.mortbay.jetty</groupId>
    <artifactId>jetty</artifactId>
    </exclusion>
    <exclusion>
    <groupId>org.apache.cassandra</groupId>
    <artifactId>cassandra-all</artifactId>
    </exclusion>
    <exclusion>
    <groupId>me.prettyprint</groupId>
    <artifactId>hector-core</artifactId>
    </exclusion>
    </exclusions>
    </dependency>
    </dependencies>
    </project>

    4). 下载依赖

    ~ mvn clean install

    mahout-eclipse-package

    项目的依赖程序,被自动加载的库路径下面。

    4. 用Mahout实现协同过滤userCF

    Mahout协同过滤UserCF深度算法剖析,请参考文章:用R解析Mahout用户推荐协同过滤算法(UserCF)

    实现步骤:

    • 1. 准备数据文件: item.csv
    • 2. Java程序:UserCF.java
    • 3. 运行程序
    • 4. 推荐结果解读

    1). 新建数据文件: item.csv

    ~ mkdir datafile
    ~ vi datafile/item.csv
    
    1,101,5.0
    1,102,3.0
    1,103,2.5
    2,101,2.0
    2,102,2.5
    2,103,5.0
    2,104,2.0
    3,101,2.5
    3,104,4.0
    3,105,4.5
    3,107,5.0
    4,101,5.0
    4,103,3.0
    4,104,4.5
    4,106,4.0
    5,101,4.0
    5,102,3.0
    5,103,2.0
    5,104,4.0
    5,105,3.5
    5,106,4.0

    数据解释:每一行有三列,第一列是用户ID,第二列是物品ID,第三列是用户对物品的打分。

    2). Java程序:UserCF.java

    Mahout协同过滤的数据流,调用过程。

    mahout-recommendation-process

    上图摘自:Mahout in Action

    新建JAVA类:org.conan.mymahout.recommendation.UserCF.java

    package org.conan.mymahout.recommendation;
    
    import java.io.File;
    import java.io.IOException;
    import java.util.List;
    
    import org.apache.mahout.cf.taste.common.TasteException;
    import org.apache.mahout.cf.taste.impl.common.LongPrimitiveIterator;
    import org.apache.mahout.cf.taste.impl.model.file.FileDataModel;
    import org.apache.mahout.cf.taste.impl.neighborhood.NearestNUserNeighborhood;
    import org.apache.mahout.cf.taste.impl.recommender.GenericUserBasedRecommender;
    import org.apache.mahout.cf.taste.impl.similarity.EuclideanDistanceSimilarity;
    import org.apache.mahout.cf.taste.model.DataModel;
    import org.apache.mahout.cf.taste.recommender.RecommendedItem;
    import org.apache.mahout.cf.taste.recommender.Recommender;
    import org.apache.mahout.cf.taste.similarity.UserSimilarity;
    
    public class UserCF {
    
        final static int NEIGHBORHOOD_NUM = 2;
        final static int RECOMMENDER_NUM = 3;
    
        public static void main(String[] args) throws IOException, TasteException {
            String file = "datafile/item.csv";
            DataModel model = new FileDataModel(new File(file));
            UserSimilarity user = new EuclideanDistanceSimilarity(model);
            NearestNUserNeighborhood neighbor = new NearestNUserNeighborhood(NEIGHBORHOOD_NUM, user, model);
            Recommender r = new GenericUserBasedRecommender(model, neighbor, user);
            LongPrimitiveIterator iter = model.getUserIDs();
    
            while (iter.hasNext()) {
                long uid = iter.nextLong();
                List list = r.recommend(uid, RECOMMENDER_NUM);
                System.out.printf("uid:%s", uid);
                for (RecommendedItem ritem : list) {
                    System.out.printf("(%s,%f)", ritem.getItemID(), ritem.getValue());
                }
                System.out.println();
            }
        }
    }

    3). 运行程序
    控制台输出:

    SLF4J: Failed to load class "org.slf4j.impl.StaticLoggerBinder".
    SLF4J: Defaulting to no-operation (NOP) logger implementation
    SLF4J: See http://www.slf4j.org/codes.html#StaticLoggerBinder for further details.
    uid:1(104,4.274336)(106,4.000000)
    uid:2(105,4.055916)
    uid:3(103,3.360987)(102,2.773169)
    uid:4(102,3.000000)
    uid:5                                                                                                                                                                                   

    4). 推荐结果解读

    • 向用户ID1,推荐前二个最相关的物品, 104和106
    • 向用户ID2,推荐前二个最相关的物品, 但只有一个105
    • 向用户ID3,推荐前二个最相关的物品, 103和102
    • 向用户ID4,推荐前二个最相关的物品, 但只有一个102
    • 向用户ID5,推荐前二个最相关的物品, 没有符合的

    5. 用Mahout实现kmeans

    • 1. 准备数据文件: randomData.csv
    • 2. Java程序:Kmeans.java
    • 3. 运行Java程序
    • 4. mahout结果解读
    • 5. 用R语言实现Kmeans算法
    • 6. 比较Mahout和R的结果

    1). 准备数据文件: randomData.csv

    ~ vi datafile/randomData.csv
    
    -0.883033363823402,-3.31967192630249
    -2.39312626419456,3.34726861118871
    2.66976353341256,1.85144276077058
    -1.09922906899594,-6.06261735207489
    -4.36361936997216,1.90509905380532
    -0.00351835125495037,-0.610105996559153
    -2.9962958796338,-3.60959839525735
    -3.27529418132066,0.0230099799641799
    2.17665594420569,6.77290756817957
    -2.47862038335637,2.53431833167278
    5.53654901906814,2.65089785582474
    5.66257474538338,6.86783609641077
    -0.558946883114376,1.22332819416237
    5.11728525486132,3.74663871584768
    1.91240516693351,2.95874731384062
    -2.49747101306535,2.05006504756875
    3.98781883213459,1.00780938946366

    这里只截取了一部分,更多的数据请查看源代码。

    注:我是通过R语言生成的randomData.csv

    x1<-cbind(x=rnorm(400,1,3),y=rnorm(400,1,3))
    x2<-cbind(x=rnorm(300,1,0.5),y=rnorm(300,0,0.5))
    x3<-cbind(x=rnorm(300,0,0.1),y=rnorm(300,2,0.2))
    x<-rbind(x1,x2,x3)
    write.table(x,file="randomData.csv",sep=",",row.names=FALSE,col.names=FALSE) 

    2). Java程序:Kmeans.java

    Mahout中kmeans方法的算法实现过程。

    上图摘自:Mahout in Action

    新建JAVA类:org.conan.mymahout.cluster06.Kmeans.java

    package org.conan.mymahout.cluster06;
    
    import java.io.IOException;
    import java.util.ArrayList;
    import java.util.List;
    
    import org.apache.mahout.clustering.kmeans.Cluster;
    import org.apache.mahout.clustering.kmeans.KMeansClusterer;
    import org.apache.mahout.common.distance.EuclideanDistanceMeasure;
    import org.apache.mahout.math.Vector;
    
    public class Kmeans {
    
        public static void main(String[] args) throws IOException {
            List sampleData = MathUtil.readFileToVector("datafile/randomData.csv");
    
            int k = 3;
            double threshold = 0.01;
    
            List randomPoints = MathUtil.chooseRandomPoints(sampleData, k);
            for (Vector vector : randomPoints) {
                System.out.println("Init Point center: " + vector);
            }
    
            List clusters = new ArrayList();
            for (int i = 0; i < k; i++) {
                clusters.add(new Cluster(randomPoints.get(i), i, new EuclideanDistanceMeasure()));
            }
    
            List<List> finalClusters = KMeansClusterer.clusterPoints(sampleData, clusters, new EuclideanDistanceMeasure(), k, threshold);
            for (Cluster cluster : finalClusters.get(finalClusters.size() - 1)) {
                System.out.println("Cluster id: " + cluster.getId() + " center: " + cluster.getCenter().asFormatString());
            }
        }
    
    }

    3). 运行Java程序
    控制台输出:

    Init Point center: {0:-0.162693685149196,1:2.19951550286862}
    Init Point center: {0:-0.0409782183083317,1:2.09376666042057}
    Init Point center: {0:0.158401778474687,1:2.37208412905273}
    SLF4J: Failed to load class "org.slf4j.impl.StaticLoggerBinder".
    SLF4J: Defaulting to no-operation (NOP) logger implementation
    SLF4J: See http://www.slf4j.org/codes.html#StaticLoggerBinder for further details.
    Cluster id: 0 center: {0:-2.686856800552941,1:1.8939462954763795}
    Cluster id: 1 center: {0:0.6334255423230666,1:0.49472852972602105}
    Cluster id: 2 center: {0:3.334520309711998,1:3.2758355898247653}

    4). mahout结果解读

    • 1. Init Point center表示,kmeans算法初始时的设置的3个中心点
    • 2. Cluster center表示,聚类后找到3个中心点

    6. 模板项目上传github

    https://github.com/bsspirit/maven_mahout_template/tree/mahout-0.6

    大家可以下载这个项目,做为开发的起点。

    ~ git clone https://github.com/bsspirit/maven_mahout_template
    ~ git checkout mahout-0.6

    我们完成了第一步,下面就将正式进入mahout算法的开发实践,并且应用到hadoop集群的环境中。

     

     
     
    G
    M
    T
    檢測語言阿尔巴尼亚语阿拉伯语阿塞拜疆语爱尔兰语爱沙尼亚语巴斯克语白俄罗斯语保加利亚语冰岛语波兰语波斯尼亚语波斯语布尔语(南非荷兰语)丹麦语德语俄语法语菲律宾语芬兰语高棉语格鲁吉亚语古吉拉特语哈萨克语海地克里奥尔语韩语豪萨语荷兰语加利西亚语加泰罗尼亚语捷克语卡纳达语克罗地亚语拉丁语拉脱维亚语老挝语立陶宛语罗马尼亚语马尔加什语马耳他语马拉地语马拉雅拉姆语马来语马其顿语毛利语蒙古语孟加拉语缅甸语苗语南非祖鲁语尼泊尔语挪威语旁遮普语葡萄牙语齐切瓦语日语瑞典语塞尔维亚语塞索托语僧伽罗语世界语斯洛伐克语斯洛文尼亚语斯瓦希里语宿务语索马里语塔吉克语泰卢固语泰米尔语泰语土耳其语威尔士语乌尔都语乌克兰语乌兹别克语希伯来语希腊语西班牙语匈牙利语亚美尼亚语伊博语意大利语意第绪语印地语印尼巽他语印尼语印尼爪哇语英语约鲁巴语越南语中文简体中文繁体 阿尔巴尼亚语阿拉伯语阿塞拜疆语爱尔兰语爱沙尼亚语巴斯克语白俄罗斯语保加利亚语冰岛语波兰语波斯尼亚语波斯语布尔语(南非荷兰语)丹麦语德语俄语法语菲律宾语芬兰语高棉语格鲁吉亚语古吉拉特语哈萨克语海地克里奥尔语韩语豪萨语荷兰语加利西亚语加泰罗尼亚语捷克语卡纳达语克罗地亚语拉丁语拉脱维亚语老挝语立陶宛语罗马尼亚语马尔加什语马耳他语马拉地语马拉雅拉姆语马来语马其顿语毛利语蒙古语孟加拉语缅甸语苗语南非祖鲁语尼泊尔语挪威语旁遮普语葡萄牙语齐切瓦语日语瑞典语塞尔维亚语塞索托语僧伽罗语世界语斯洛伐克语斯洛文尼亚语斯瓦希里语宿务语索马里语塔吉克语泰卢固语泰米尔语泰语土耳其语威尔士语乌尔都语乌克兰语乌兹别克语希伯来语希腊语西班牙语匈牙利语亚美尼亚语伊博语意大利语意第绪语印地语印尼巽他语印尼语印尼爪哇语英语约鲁巴语越南语中文简体中文繁体       
     
     
     
    語言功能限100個字符
     

    转载于:https://www.cnblogs.com/hellochennan/p/5409268.html

    展开全文
  • 重启电脑之后发现和ruby有关的命令不...root@ubuntu:~# cf rbenv: cf: command not found The `cf' command exists in these Ruby versions:  1.9.3-p484 root@ubuntu:~# gem -v rbenv: gem: command not fou

    ruby有关的命令不能使用, 出现下面的错误

    root@ubuntu:~# cf
    rbenv: cf: command not found

    The `cf' command exists in these Ruby versions:
      1.9.3-p484

    root@ubuntu:~# gem -v
    rbenv: gem: command not found

    The `gem' command exists in these Ruby versions:
      1.9.3-p484

    一直提示存在这样的版本,主要原因是因为管理器rbenv没有指定ruby的版本

    所以需要执行下面的命令

    root@ubuntu:~#rbenv rehash
    root@ubuntu:~# rbenv global 1.9.3-p484


    展开全文
  • 安装Zookeeper单机版步骤 1 上传Zookeeper压缩包,并解压 将解压后的zookeeper移动到/usr/local/zookeeper中 2 在解压后的文件夹中新建data文件夹.作为Zookeeper数据存放文件夹 /usr/local/zookeeper/data 3 进入...

    安装Zookeeper单机版步骤

    1 上传Zookeeper压缩包,并解压

    将解压后的zookeeper移动到/usr/local/zookeeper

    2 在解压后的文件夹中新建data文件夹.作为Zookeeper数据存放文件夹

    /usr/local/zookeeper/data

    3 进入Zookeeperconf文件夹中把zoo_sample.cfg复制一份命名为zoo.cfg

    4 修改zoo.cfgdataDir的值为data文件夹的路径

    进入Zookeeperbin文件夹,使用zkServer.sh启动和查看状态.

    1 ./zkServer.sh start   启动命令

    2 ./zkServer.sh status  查看状态

    ./zkServer.sh stop 停止

     查看状态时显示下面效果表示安装并启动成功,其中Mode:standalone表示单机版



    在防火墙中放过zookeeper的客户端端口:2181

     

    修改/etc/sysconfig/iptables

    重启服务:service iptables restart


    展开全文
  • ERROR: org.apache.hadoop.hbase.PleaseHoldException: org.apache.hadoop.hbase.PleaseHoldException: Master is initializing
  • 易语言 CF登入器 源码

    2012-05-15 13:06:31
    我自己的单机版cf登陆器 源码
  • HBase单机版

    2019-12-14 09:28:36
    HBase的单机版配置 1.官网:http://hbase.apache.org/ 2.下载hbase(最好查找国内的镜像网站,下载,速度要快) 3.下载 hbase-2.2.2-bin.tar.gz(bin.jar包)、 hbase-2.2.2-client-bin.tar.gz(客户端bin.jar包)...

    HBase的单机版配置

    (单机版在本地运行,不可以启动hdfs或者yarn或者zookeeper,要不然无法运行)

    1.官网:http://hbase.apache.org/

    2.下载hbase(最好查找国内的镜像网站,下载,速度要快)

    3.下载 hbase-2.2.2-bin.tar.gz(bin.jar包)、
    hbase-2.2.2-client-bin.tar.gz(客户端bin.jar包)、
    hbase-2.2.2-src.tar.gz(源码包)

    4.把 hbase-2.2.2-bin.tar.gz 上传到虚拟机中,
    解压压缩包
    tar -zxvf hbase-2.2.2-bin.tar.gz

    5.进入hbase文件中 修改 cof 目录下的hbase-env.shhbase-site.xml

    hbase-env.sh

    export JAVA_HOME = linux上安装的jdk的路径
    

    hbase-site.xml

    <?xml version="1.0"?>
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
    <configuration>
    	<property>
    		<name>hbase.rootdir</name>
    		<!--
    			file://表示的是本地目录
    			hdfs://表示的是hdfs的目录;
    			hdfs://namenode.example.org:8020/hbase
    		 -->
    		<value>file:///data/hbase/data</value>
    	</property>
    	<property>
    		<name>hbase.zookeeper.property.dataDir</name>
    		<!-- zookeeper的目录:data目录 -->
    		<value>/data/hbase/zookeeper_data</value>
    	</property>
    	<property>
    		<name>hbase.unsafe.stream.capability.enforce</name>
    		<value>false</value>
    		<description>
    			检查兼容性,如果设置为false,数据有可能丢失(这是一个警告)
    		  Controls whether HBase will check for stream capabilities (hflush/hsync).
    
    		  Disable this if you intend to run on LocalFileSystem, denoted by a rootdir
    		  with the 'file://' scheme, but be mindful of the NOTE below.
    
    		  WARNING: Setting this to false blinds you to potential data loss and
    		  inconsistent system state in the event of process and/or node failures. If
    		  HBase is complaining of an inability to use hsync or hflush it's most
    		  likely not a false positive.
    		</description>
    	</property>
    </configuration>
    

    6.启动hbase

    bin/start-hbase.sh
    

    停止hbase

    bin/stop-hbase.sh
    

    如果启动报错,去查看日志

    7.网页访问地址

    http://node7-3:16010
    

    8.启动客户端

    bin/hbase shell
    

    9.命令
    1)查看所有的命令

    help
    

    2)查看指定命令的用法

    help 'create_namespace'
    

    3)创建一张表

    # create '表名','列族'(column family)
    create 'test','cf'
    
    # 创建指定namespace目录下面的表;所有的表名左边要加上namespace,如果不加,默认是default
    create 'mydata:test','cf'
    

    4)查看表结构

    # list 表名
    list 'test'
    
    # 描述这张表
    describe 'test'
    

    5)插入数据

    # put 表名,键(主键),列的名字,值
    put 'test','01','cf:name','zhangsan'
    put 'test','01','cf:age','18'
    
    # 指定namespace的表插入记录
    put 'mydata:test','01','cf:name','zhangsan'
    put 'mydata:test','01','cf:age','18'
    

    6)查询

    # 查询所有记录
    # scan 表名
    scan 'test'
    
    # 扫描表的记录
    scan 'mydata:test'
    
    # 查询所有记录(根据主键查询)
    # get 表名,键
    get 'test','01'
    

    7)删除表(首先停止表的运行,在drop表)

    # disable 表名
    disable 'test'
    
    # drop ‘表名’
    drop 'test'
    

    8)退出客户端

    Quit
    
    exit
    

    9)存储到磁盘上

    # 数据先存储到内存中,然后再刷到磁盘中
    help 'flush'
    

    10)查询所有的namespace

    # 列出所有的namespace
    list_namespace
    

    11)创建namespace

    create_namespace 'mydata'
    

    10.mysql与hbase的结构对比

    数据库MySQLHBase
    数据库Namespace
    记录记录
    列族下面才有列
    展开全文
  • hbase单机版安装

    千次阅读 2019-02-25 15:55:54
    最近需要用到hbase做测试,想在本地搭建一个单机版的hbase,上网上找了很多例子,只能说坑很多,但还是爬出来了,在这儿给大家做个参考: 1.安装jdk 这个对于开发人员来说应该不是什么问题,安装完成之后在/etc/...
  • hbase单机版安装总结

    千次阅读 2018-09-18 17:57:26
    首先确认这个hbase单机版是不需要hadoop的,不要听信网上说的必须要hadoop  第二点,不需要单独安装zookeeper,使用自带的zookeeper就可以了 注意,单机版的配置和集群版配置上差别很大。 安装前需要配置好的:   ...
  • 单机版Kubernetes

    2017-02-25 16:18:19
    9cf7e98c567b: Pull complete d2ff49536f4d: Pull complete f94adccdbb9c: Pull complete 6ead1ce47d52: Pull complete 62a3114e0031: Pull complete dcb903eb752c: Pull complete 0c2c7c7f11ef: Pull ...
  • git单机版常用操作

    千次阅读 2016-12-21 15:56:20
    确认合并并提交,其中646b4cf为合并版本之一的名称,此时git会出现新的合并后的版本。 回退到老版本修改代码并且commit,会出现新的分支,并提示 fatal: You are not currently on a branch. To push the ...
  • 官网地址:http://hbase.apache.org/   文档地址:http://hbase.apache.org/book.html#quickstart HBase单机版安装 环境 操作系统 :CentOS 7.4 Java版本:JDK 1.8 1、下载HBase,可以去官网下载 命令:wget -b ...
  • HBase的单机版配置

    2019-12-14 10:15:03
    HBase的单机版配置 1.官网:http://hbase.apache.org/ 2.下载hbase(最好查找国内的镜像网站,下载,速度要快) 3.下载 hbase-2.2.2-bin.tar.gz(bin.jar包)、 hbase-2.2.2-client-bin.tar.gz(客户端bin.jar包)...
  • 环境准备: 搭建之前,需要先安装一个ubuntu的操作...redis时C语言编写的,所以在安装之前,要先安装c语言环境,就是gcc,否则不能编译源码,就是不能make 执行命令: yum install gcc-c++一、搭建redis单机版进...
  • [size=medium][color=blue][align=center]ubunutu11.10下hadoop1.1.1单机版环境搭建步骤详解(二)--单机版配置[/align][/color][/size] Hadoop是由Apache基金会开发的一个分布式系统构架。Hadoop通过分布式集群...
  • 1 单机版(Standalone模式)安装 ZooKeeper官网下载地址:http://zookeeper.apache.org/releases.html#download 如图所示进行操作: 注意一点,如果不想当小白鼠,请务必下稳定版(stable release),非稳定版安装...
  • FastDFS-单机版安装

    2017-11-28 13:37:00
    转载自: 搭建单机版的FastDFS服务器 * 为了便于理解,其中顺序有改变。 1、第八步创建软链接,可以等到第九步结束后进行。如果提前在第八步创建软链接,因为还没有安装 libfdfsclient.so文件,则创建软链接时...
  •  row3 column=cf:c, timestamp=1421762496210, value=value3 3 row(s) in 0.0230 seconds 《 6 》 get 命令获取单行数据信息 hbase(main):007:0> get 'test','row1' COLUMN CELL  cf:a ...
  • 单机版k8s集群搭建及Java Web应用部署

    千次阅读 2019-01-22 11:30:29
    最近在阅读《Kubernetes权威指南》这本书,该书最开始的例子是搭建单机版k8s集群,然后部署一个Java应用。跟着操作的过程中,遇到不少的坑,记录一下,也算是给后面的人提个醒吧。 项目介绍 该例子就是一个简单的...
  • hbase单机版初步了解

    2015-08-03 14:12:05
    搭建单机版hbase环境: 1)下载hbase,http://mirror.bit.edu.cn/apache/hbase/stable/hbase-1.0.1.1-bin.tar.gz 2)安装jdk,本人是用的openjdk 1.7的版本,设置环境变量 3)解压hbase-1.0.,1.1-bin.tar.gz 4)vi conf/...
  • centos7.5安装zookeeper单机版,参考链接:Centos7 安装kafka_2.12-2.1.0笔记【单机版】 下载路径:华为开源镜像(https://mirrors.huaweicloud.com/apache/zookeeper/zookeeper-3.4.14/zookeeper-3.4.14.tar.gz) ...
  • 本片内容主要是记录下如何在ubuntu16.04系统下配置单机版Hadoop的过程。共大家一起学习参考。不对之处请指出。
  • 搭建单机版的FastDFS服务器

    万次阅读 多人点赞 2017-04-10 18:13:06
    由于FastDFS集群搭建非常复杂,对于初期学习FastDFS来说,搭建个单机版的作为入门更为实际一些。 第一步:搭建虚拟环境  FastDFS需要在Linux系统上安装,我们一般使用的都是Windows系统,这样就需要有虚拟环境,我...
  • ubuntu 单机版 zookeeper

    2016-04-28 09:21:00
     #修改zoo.cf文件,将 dataDir=/tmp/zookeeper 改为 dataDir=/var/local/zookeeper  $sed -i "s/dataDir=\/tmp\/zookeeper/dataDir=\/var\/local\/zookeeper/g" zoo.cfg   启动及停止Zookeeper  #...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 4,303
精华内容 1,721
热门标签
关键字:

单机版cf