精华内容
下载资源
问答
  • Java连接数据库MySqL5.7以上驱动jar包

    千次阅读 2020-07-21 11:28:00
    Java连接MySqL5.7以上驱动jar包 解决Java连接数据库高版本报错问题 驱动下载: [蓝奏云] https://wws.lanzous.com/b01hjc9dc 密码:eizx

    Java连接MySqL5.7以上驱动jar包

    解决Java连接数据库高版本报错问题
    驱动下载:
    [蓝奏云]
    https://wws.lanzous.com/b01hjc9dc
    密码:eizx

    展开全文
  • mysql-connector-java-5.1.34.jarmysql 5.6 5.7可以用
  • jar包,直接复制到ide中的libs文件夹中使用,免费
  • mysql-connector-java Linux下MySQLJDBC驱动Jar包
  • mysql-jdbc驱动jar文件

    2018-06-06 15:22:34
    含有: mysql-connector-java-5.1.46.jar mysql-connector-java-5.1.46-bin.jar 符合JDBC 3.0,4.0,4.1和4.2规范。 它提供了兼容所有MySQL的功能,包括5.5、5.6和5.7
  • mysql 连接数据库jdbc所需jar包,亲测可用,请大家放心下载
  • mysql驱动jar 文件适用MySQL5.7,本人亲测可用适用ieda成功连接到数据库(mysql-connector-java-5.1.25.jar
  • JDBC驱动jar包的下载和导入

    千次阅读 2021-03-24 17:31:33
    JDBC必不可少的需要下载和导入驱动jar包,在这个过程中,相信不止我一个人犯了傻吧,下面是jar包的一个下载地址 驱动jar包下载 注意:这个jar包是8.0.23版本的,只支持jdk1.8以上的版本,1.8以下的应该去找5.*版本...
    学JDBC必不可少的需要下载和导入驱动jar包,在这个过程中,相信不止我一个人犯了傻吧,下面是jar包的一个下载地址

    驱动jar包下载
    注意:这个jar包是8.0.23版本的,只支持jdk1.8以上的版本,1.8以下的应该去找5.*版本的jar包
    为了不让各位糊涂,可以看一下下面的这张表,对应下载

    Connector/J 版本JDKJREMYSQL服务器版本
    81.8.x.1.8.x.5.6,5.7,8.0
    5.11.5.x和1.8.x.1.5.x,1.6.x,1.7.x,1.8.x *5.6 *,5.7 *,8.0 *

    如果是需要8.0.23版本的,在下载界面选择platfrom independent,然后下载第二个
    如果是需要8.0.23版本的,在下载界面选择platfrom independent,然后下载第二个
    如果是要下载之前的版本,可以点击archives,然后自行选择版本进行下载
    在这里插入图片描述
    下载并解压之后,红色框框内的包,就是我们即将要导入的包
    在这里插入图片描述
    右键复制这个jar包,然后打开IDEA
    右键day01_jdbc(大家建的叫什么就点什么),创建一个Directory,然后随便命个名,将我们复制的jar包粘贴到这个目录(Directory)里,即我这里建的libs
    在这里插入图片描述
    然后再右键libs,选择add as library,即可完成导入。

    但是,我相信还是会有小伙伴陷入迷茫,有不一样的地方,所以,这里有第二个导入的方法
    右键src,选择open moudle settings
    在这里插入图片描述
    选择dependencies,然后点击加号,选择jars or directories,找到你的jar包,选择,然后一直OK就好了
    不对,还有最后一步
    在这里插入图片描述
    把这个勾勾打上,一切就OK了

    展开全文
  • druid和mysql jdbc必要jar包,包括druid-1.1.6和mysql-connector-java-5.1.38
  • 解决Jira7.2与 MySQl 5.7 驱动包不可用问题, mysql-connector-java-5.1.39-SNAPSHOT-bin.jar
  • Mysql 5.1.7 JDBC驱动包

    2009-11-30 22:30:50
    Mysql JDBC驱动包 5.1.7,Mysql JDBC驱动包 5.1.7.rar
  • mysql-connector-java-5.1.25.jarmysql5.7本地可用 mysql-connector-java-5.1.25.jarmysql5.7本地可用
  • MySQL 5.7 等高版本关于JDBC驱动的几个问题

    万次阅读 多人点赞 2018-12-23 15:45:45
    1.mysql-connector-java:jar:5.7.24 is missing, no dependency information available // 1.由于我是用mysql5.7.24,所以就想到然的用了5.7.24版本的依赖,结果出现如上警告 <dependency> &...

    1.mysql-connector-java:jar:5.7.24 is missing, no dependency information available

    // 1.由于我是用mysql5.7.24,所以就想到然的用了5.7.24版本的依赖,结果出现如上警告
    <dependency>
        <groupId>mysql</groupId>
        <artifactId>mysql-connector-java</artifactId>
        <version>5.7.24</version>
    </dependency>
    ** 往maven依赖不对的方向尝试了很多次,还是不对(mysql-connector-java-5.7.22.jar下载不了,mysql-connector-java-5.7.22.jar.lastUpdated)
    
    // 2.有帖子说8.0版本可以,试一下,果然
    <dependency>
        <groupId>mysql</groupId>
        <artifactId>mysql-connector-java</artifactId>
        <version>8.0.13</version>
    </dependency>
    

    .为什么用8.0版本的驱动可以,5.1版本也可以,5.5、5.6、5.7都不可以(或许这些版本的连接器都是我一厢情愿的)
    . 看了下MySQL Connectors 官方文档 上面只有version8.0和version5.1两个版本的文档(看来真的是我想多了)
    .version8.0文档上有说明:Connector/J 8.0 provides compatibility with all the functionality of MySQL 5.5, 5.6, 5.7, and 8.0(都兼容,大胆用了)

    展开全文
  • MySQL各版本JDBC驱动包

    2020-03-05 18:15:32
    最新版本MySQL JDBC驱动包,还包括老版本驱动包mysql-connector-java-3.1.14(支持MySQL 3.x/4.x) mysql-connector-java-5.1.48(支持MySQL 5) mysql-connector-java-8.0.19(支持MySQL 8,兼容5.6,5.7)
  • MySQL连接java,MySQL驱动jar包下载4.CentOS7安装Hadoop2.10.14.1 hadoop-env.sh配置4.2 core-site.xml配置4.3 mapred-site.xml.template配置4.4 hdfs-site.xml配置4.5 修改环境配置4.6 初始化和启动dfs4.7运行W

    承接上篇文章Hive安装第一步:使用VMware Workstation创建虚拟机,搭建CentOS7系统环境,Linux下网络配置,Xshell连接虚拟机
    本篇文章主要介绍在CentOS7安装jdk1.8.0,MySQL5.7,Hadoop2.10.1,Hive2.3.7,sqoop1.4.7,Navicat连接hive,有蛮多配置需要修改的,安装的是伪分布式的Hadoop。
    重要:都是在root下进行操作的,root权限!!

    1.CentOS7中安装jdk1.8.0

    jdk下载地址(百度云):https://pan.baidu.com/s/1UGS_VYi6heW-pl4c7pr0DQ
    提取码:shyj
    在Windows下载好之后通过xftp传输到linux系统中,linux直接下载会很慢。我放在了Download目录下
    在这里插入图片描述
    接下来把jdk安装包解压到/usr/local,需要管理员权限,su root后进入root下解压,下面默认都是在root权限下进行操作。
    tar -zxvf jdk-8u11-linux-x64.tar.gz -C /usr/local
    解压后在/usr/local文件夹下可以看到解压的jdk包,然后配置环境变量
    vim /etc/profile
    在文档后面添加下面几行

    export JAVA_HOME=/usr/local/jdk1.8.0_11
    export CLASSPATH=$:CLASSPATH:$JAVA_HOME/lib/
    export PATH=$PATH:$JAVA_HOME/bin
    

    在这里插入图片描述
    保存后,更新环境配置
    source /etc/profile
    验证一下Java是否安装成功在这里插入图片描述

    2.CentOS7安装MySQL5.7

    mysql下载先配置yum源,配置yum源步骤如下:
    wget -i -c http://dev.mysql.com/get/mysql57-community-release-el7-10.noarch.rpm
    然后yum -y install mysql
    在这里插入图片描述
    然后yum -y install mysql-community-server.x86_64
    在这里插入图片描述
    MySQL直接在linux中直接下载的,速度有点慢,200多MB大概20-30分钟。
    安装完成后首先启动MySQL
    systemctl start mysqld.service
    查看MySQL运行状态,运行状态如图:
    systemctl status mysqld.service
    此时MySQL已经开始正常运行,不过要想进入MySQL还得先找出此时root用户的密码,通过如下命令可以在日志文件中找出密码:
    grep "password" /var/log/mysqld.log
    如下命令登录数据库:
    mysql -uroot -p
    此时不能做任何事情,因为MySQL默认必须修改密码之后才能操作数据库,如下命令修改密码:
    ALTER USER 'root'@'localhost' IDENTIFIED BY '123456';
    然后系统会提示你修改不成功,密码的复杂度不符合默认规定,下面修改密码复杂度:
    set global validate_password_policy=LOW; #密码等级设置为低
    set global validate_password_length=6; #长度设置为6
    再运行上面一条语句就成功了。
    下面的命令可以查看mysql默认密码复杂度:
    SHOW VARIABLES LIKE 'validate_password%';
    接下来开启mysql的远程访问,将云服务器上的3306端口开放;
    grant all privileges on *.* to 'root'@'%' identified by '123456' with grant option;
    然后再输入下面的命令使配置立即生效
    flush privileges;
    重新使用新密码登录数据库mysql -uroot -p,再修改一些简单的配置
    修改mysql的字符集:
    登录mysql,然后输入status,查看mysql字符集信息,编辑MySQL配置文件对默认字符集编码进行修改
    vim /etc/my.cnf
    进入文件后,新增四行代码:

    [client]
    default-character-set=utf8
    character-set-server=utf8
    collation-server=utf8_general_ci
    

    如下图修改成功后,保存并退出
    在这里插入图片描述在这里插入图片描述
    使用service mysqld restart重启mysql
    在这里插入图片描述
    输入statu查看字符集,已经修改成功了
    图片: https://uploader.shimo.im/f/bGkSssLiUcHmpUyB.png
    至此,MySQL配置完毕,可以通过which mysql查看到mysql的安装位置
    在这里插入图片描述

    3. MySQL连接java,MySQL的驱动jar包下载

    MySQL的驱动包mysql-connector-java-5.1.48-bin.jar官网下载地址:
    https://dev.mysql.com/downloads/connector/j/5.1.html
    下载有点慢,在linux中Download文件夹下使用下面的语句下载jar包
    wget http://mirrors.ustc.edu.cn/mysql-ftp/Downloads/Connector-J/mysql-connector-java-5.1.48.tar.gz
    解压到Download目录下
    tar -zxvf mysql-connector-java-5.1.48.tar.gz
    cd到解压目录下cd mysql-connector-java-5.1.48/
    在这里插入图片描述
    将该jar包后面复制到hive安装目录的lib子目录下和Sqoop安装目录的lib子目录下

    4.CentOS7安装Hadoop2.10.1

    hadoop下载地址
    https://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz
    国内镜像下载地址,下面的地址下载较快
    http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.10.1/
    下载好hadoop安装包后,通过xftp传输到linux中,解压到/usr/local目录下(安装到哪里好像可以自行设定,我只是看大家都安装到这里。。。)
    tar hadoop-2.10.1.tar.gz -C /usr/local/ #解压到/usr/local/
    mv hadoop-2.10.1 hadoop #改文件夹名字,简单一些,可选操作
    解压后需要对Hadoop的一些文件进行配置,需要配置的文件如下,hadoop-env.sh,core-site.xml,mapred-site.xml.template,hdfs-site.xml,所有的文件均位于hadoop/etc/hadoop下面,具体需要的配置如下:
    注意!!!在修改配置之前先复制一份Hadoop的配置文件,以防改错。

    4.1 hadoop-env.sh配置

    主要修改java的安装路径

    vim hadoop-env.sh
    export JAVA_HOME=/usr/local/jdk1.8.0_11
    

    在这里插入图片描述在这里插入图片描述
    :wq保存并退出

    4.2 core-site.xml配置

    vi core-site.xml
    添加下面的代码,file:/home/***/hadoop/tmp 路径改成自己的

    <configuration>
        <property>
            <name>hadoop.tmp.dir</name>
            <value>file:/home/***/hadoop/tmp</value>
            <descripition>Abase for other temporary directories.</descripition>
        </property>
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://localhost:9000</value>
        </property>
    </configuration>
    

    在这里插入图片描述
    :wq保存并退出

    4.3 mapred-site.xml.template配置

    vim mapred-site.xml.template
    添加下面的代码

    <configuration>
        <property>
            <name>mapred.job.tracker</name>
            <value>localhost:9001</value>
        </property>
    </configuration>
    

    在这里插入图片描述
    :wq保存并退出

    4.4 hdfs-site.xml配置

    vim hdfs-site.xml
    添加下面的代码,file:/home/***/hadoop/tmp 路径改成自己的

    <configuration>
        <property>
            <name>dfs.replication</name>
            <value>1</value>
        </property>
        <property>
            <name>dfs.namenode.name.dir</name>
            <value>file:/home/***/hadoop/tmp/dfs/name</value>
        </property>
        <property>
            <name>dfs.datanode.data.dir</name>
            <value>file:/home/***/hadoop/tmp/dfs/data</value>
        </property>
    </configuration>
    

    在这里插入图片描述
    :wq保存并退出

    4.5 修改环境配置

    vi /etc/profile
    在配置文件中添加Hadoop的相关配置

    #hadoop
    export HADOOP_HOME=/usr/local/hadoop
    #export HADOOP_CONF_DIR=${HADOOP_NAME}/etc/hadoop
    export PATH=$PATH:$HADOOP_HOME/bin
    export PATH=$PATH:$HADOOP_HOME/sbin
    

    在这里插入图片描述
    :wq保存并退出,source /etc/profile,使环境变量生效

    修改完上面4个文件后,还要修改环境变量配置才能正确启动datanode

    4.6 初始化和启动dfs

    回到hadoop的安装目录
    在这里插入图片描述
    初始化dfs:hadoop namenode -format或者bin/hdfs namenode -format
    在这里插入图片描述
    启动dfs: sbin/start-dfs.sh,需要输入root密码
    在这里插入图片描述
    jps查看是否正常启动
    在这里插入图片描述
    linux浏览器中输入localhost:50070,显示如下界面,成功啦!
    在这里插入图片描述

    4.7运行WordCount Demo

    1.在本地新建一个文件,在home/***目录下新建了一个words文档,
    vi words
    里面的内容可以随便填写,我在里面写了

    hello tom
    hello jerry
    hello kitty
    hello world
    hello tom
    

    :wq保存并退出,就建立了一个words文档
    在这里插入图片描述
    2. 在HDFS中新建一个文件夹,用于上传本地的words文档,在hadoop目录下输入如下命令:
    bin/hdfs dfs -mkdir /test,表示在hdfs的根目录下建立了一个test目录,使用如下命令可以查看HDFS根目录下的目录结构
    bin/hdfs dfs -ls /
    具体截图如下:
    在这里插入图片描述
    表示在HDFS的根目录下已经建立了一个test目录
    3. 将本地words文档上传到test目录中
    使用如下命令进行上传操作:
    bin/hdfs dfs -put /home/leesf/words /test/
    使用如下命令进行查看
    bin/hdfs dfs -ls /test/
    结果截图如下:
    在这里插入图片描述
    表示已经将本地的words文档上传到了test目录下了。
    4. 运行wordcount
    使用如下命令运行wordcount:
    bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.10.1.jar wordcount /test/words /test/out
    截图如下:
    在这里插入图片描述
    运行完成后,在/test目录下生成名为out的文件,使用如下命令查看/test目录下的文件
    bin/hdfs dfs -ls /test
    截图如下:
    在这里插入图片描述
    表示在test目录下已经有了一个名为Out的文件目录
    输入如下命令查看out目录下的文件:
    bin/hdfs dfs -ls /test/out
    结果截图如下:
    在这里插入图片描述
    表示已经成功运行了,结果保存在part-r-00000中。
    5. 查看运行结果
    使用如下命令查看运行结果:
    bin/hadoop fs -cat /test/out/part-r-00000
    结果截图如下:
    在这里插入图片描述
    至此,运行过程就已经完成了。如果要关闭hadoop服务,在hadoop目录下运行sbin/stop-all.sh

    5.CentOS7安装Hive2.3.7

    该章节主要是参考大佬的教程:https://blog.csdn.net/pucao_cug/article/details/71773665,写的特别详细,可以直接看大佬的安装教程,强推!下面是我自己的安装过程。

    hive下载地址:https://mirrors.cnnic.cn/apache/hive/hive-2.3.7/
    下载好hive安装包后,通过xftp传输到linux中,解压到/usr/local目录下(安装到哪里好像可以自行设定,我只是看大家都安装到这里。。。)
    tar apache-hive-2.3.7-bin.tar.gz -C /usr/local/ #解压到/usr/local/
    mv apache-hive-2.3.7 hive #改文件夹名字,简单一些,可选操作
    解压后需要对Hive的一些文件进行配置,需要配置的文件如下:hive-env.sh, hive-site.xml,所有的文件均位于hive/conf下面,具体需要的配置如下:

    5.1 hive-env.sh

    进入到/usr/local/hiv/conf目录下:
    cd /usr/local/hive/conf/
    将hive-env.sh.template文件复制一份,并且改名为hive-env.sh,命令是:
    cp hive-env.sh.template hive-env.sh
    vim hive-env.sh打开hive-env.sh配置并且添加以下内容,根据自己的路径进行修改:

    export HADOOP_HOME=/usr/local/hadoop
    export HIVE_CONF_DIR=/usr/local/hive/conf
    export HIVE_AUX_JARS_PATH=/usr/local/hive/lib
    

    在这里插入图片描述
    :wq保存并退出

    5.2 hive-site.xml

    进入到/usr/local/hiv/conf目录下:
    cd /usr/local/hive/conf/
    hive-default.xml.template文件复制一份,并且改名为hive-site.xml,命令是::
    cp hive-default.xml.template hive-site.xml
    vim hive-site.xml打开hive-site.xml查看配置:

    5.2.1.使用hadoop新建hdfs目录

    因为在hive-site.xml中有这样的配置:

      <name>hive.metastore.warehouse.dir</name>
      <value>/user/hive/warehouse</value>
      <name>hive.exec.scratchdir</name>
      <value>/tmp/hive</value>
    

    所以要让hadoop新建/user/hive/warehouse目录,/tmp/hive/目录,执行命令:
    $HADOOP_HOME/bin/hadoop fs -mkdir -p /user/hive/warehouse
    $HADOOP_HOME/bin/hadoop fs -mkdir -p /tmp/hive/
    给刚才新建的目录赋予读写权限,执行命令:
    $HADOOP_HOME/bin/hadoop fs -chmod 777 /user/hive/warehouse
    $HADOOP_HOME/bin/hadoop fs -chmod 777 /tmp/hive
    检查hdfs目录是否创建成功
    检查/user/hive/warehouse,/tmp/hive目录是否创建成功,执行命令:
    $HADOOP_HOME/bin/hadoop fs -ls /user/hive/
    $HADOOP_HOME/bin/hadoop fs -ls /tmp/
    在这里插入图片描述

    5.2.2 修改hive-site.xml中的临时目录

    将hive-site.xml文件中的${system:java.io.tmpdir}替换为hive的临时目录,例如我替换为/usr/local/hive/tmp,该目录如果不存在则要自己手工创建,并且赋予读写权限。
    vi hive-site.xml进入编辑模式,在vi里面可以使用/进行搜索,如搜索system:java.io.tmpdir,回车就能定位到了。
    在这里插入图片描述

    将hive-site.xml文件中的${system:java.io.tmpdir}替换为/usr/local/hive/tmp
    在这里插入图片描述
    ${system:user.name}都替换为root
    在这里插入图片描述
    还有几处都要修改,不然后面会有问题的,我这里就不一一放了。

    5.2.3 修改hive-site.xml数据库相关的配置

    搜索javax.jdo.option.ConnectionURL,将该name对应的value修改为MySQL的地址:

     <name>javax.jdo.option.ConnectionURL</name>  
     <value>jdbc:mysql://192.168.27.138:3306/hive?createDatabaseIfNotExist=true</value>
    

    搜索javax.jdo.option.ConnectionDriverName,将该name对应的value修改为MySQL驱动类路径:

     <property> 
            <name>javax.jdo.option.ConnectionDriverName</name> 
            <value>com.mysql.jdbc.Driver</value> 
     </property>      
    

    搜索javax.jdo.option.ConnectionUserName,将对应的value修改为MySQL数据库登录名:

     <name>javax.jdo.option.ConnectionUserName</name>
     <value>root</value>
    

    搜索javax.jdo.option.ConnectionPassword,将对应的value修改为MySQL数据库的登录密码:

     <name>javax.jdo.option.ConnectionPassword</name>
     <value>123456</value>
    

    搜索hive.metastore.schema.verification,将对应的value修改为false:

    <name>hive.metastore.schema.verification</name>
    <value>false</value>
    

    5.3 修改环境变量配置

    vi /etc/profile
    在配置文件中添加hive的相关配置

    # hive
    export HIVE_HOME=/usr/local/hive
    export HIVE_CONF_DIR=${HIVE_HOME}/conf
    export CLASS_PATH=$:CLASSPATH:$HIVE_HOME/lib
    export PATH=$PATH:$HIVE_HOME/bin
    

    在这里插入图片描述
    :wq保存并退出,source /etc/profile,使环境变量生效

    5.4 将MySQL驱动包上载到hive安装目录的lib子目录下

    把前面解压好的jar包上载到Hive的lib目录下,前面写了我的jar包解压到了Download文件夹下面,进入到该文件夹下
    cd /home/master/Downloads/mysql-connector-java-5.1.48/
    然后复制一份jar包到/usr/local/hive/lib下
    mv mysql-connector-java-5.1.48.jar /usr/local/hive/lib

    5.5 hive启动和测试

    进入到hive的bin目录 执行命令:
    cd /usr/local/hive/bin
    对数据库进行初始化,执行命令:
    ./schematool -initSchema -dbType mysql 这个时候mysql数据库中就多了一个hive数据库
    启动hive前要确保hadoop进程在运行当中,用jps查看,在hive的bin目录下启动hive,
    ./hive
    在这里插入图片描述
    测试:show functions;
    在这里插入图片描述
    执行查看sum函数的详细信息的命令:
    desc function year;
    在这里插入图片描述
    基本上到这里hive已经安装成功了!
    按照大佬的流程走一下

    5.6 执行新建表以及导入数据的测试

    执行新建数据库的hive命令:
    create database db_hive_test;
    show databases; 查看一下已经建好了
    在这里插入图片描述
    创建数据表, 在刚才创建的数据库中创建数据表,执行hive命令:
    use db_hive_test;
    create table stu(id int,name string) row format delimited fields terminated by '\t';
    将文件数据写入表中,在/usr/local/hive/tmp目录内新建一个文件,执行Linux命令(最好是重新打开一个终端来执行),往文件中添加以下内容::
    在这里插入图片描述
    touch /usr/local/hive/tmp/stu.txt
    vim stu.txt
    在这里插入图片描述
    ID和name直接是TAB键,不是空格,因为create table的时候fields terminated by ‘\t’;\t代表以tab为分隔符。
    文件已经建立好了,下面在hive命令行中执行加载数据的hive命令:
    load data local inpath '/usr/local/hive/tmp/stu.txt' into table db_hive_test.stu;
    在这里插入图片描述
    select * from db_hive_test.stu;
    在这里插入图片描述
    打开localhost:50070,点击图中的Browse the file system
    在这里插入图片描述
    输入/,点击GO,可以看到下面的Name为user的,一层一层点击,就可以看到自己建的表了
    在这里插入图片描述
    在这里插入图片描述
    可以下载
    在这里插入图片描述

    5.7 在MySQL的hive数据库中查看

    mysql -utroot -p进入MySQL环境,show databases;查看一下目前有哪些数据库
    在这里插入图片描述
    发现已经有了hive数据库,执行
    SELECT * FROM hive.TBLS;
    在这里插入图片描述
    成功啦!接下来安装sqoop,实现mysql到hive的传输。

    6.CentOS7安装sqoop1.4.7

    sqoop官方文档https://sqoop.apache.org/docs/1.4.6/SqoopUserGuide.html#_introduction
    sqoop下载地址:http://mirror.bit.edu.cn/apache/sqoop/1.4.7/
    在Windows下载好之后通过xftp传输到linux系统中,放在Download目录下,在Download下解压到 /usr/local/,改名,跟前面一样的步骤。
    tar -zxvf sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz -C /usr/local/
    mv sqoop-1.4.7.bin__hadoop-2.6.0 sqoop1.4.7
    在这里插入图片描述解压后需要对Sqoop的一些文件进行配置,需要配置的文件如下sqoop-env.sh和环境变量配置,所有的文件均位于sqoop/conf下面,具体需要的配置如下:

    6.1 修改环境变量

    vi /etc/profile,添加sqoop相关配置

    #sqoop
    export SQOOP_HOME=/usr/local/sqoop1.4.7
    export PATH=$PATH:$SQOOP_HOME/bin
    

    在这里插入图片描述
    source /etc/profile 使环境配置生效
    将sqoop-env-template.sh复制一份,并取名为sqoop-env.sh,也就是执行命令:
    cp sqoop-env-template.sh sqoop-env.sh
    在这里插入图片描述

    6.2 sqoop-env.sh

    编辑 sqoop-env.sh,vim sqoop-env.sh在最后面添加

    export HADOOP_COMMON_HOME=/usr/local/hadoop
    export HADOOP_MAPRED_HOME=/usr/local/hadoop
    export HIVE_HOME=/usr/local/hive
    

    在这里插入图片描述

    6.3 将MySQL的驱动包上载到Sqoop安装目录的lib子目录下

    mv mysql-connector-java-5.1.48.jar /usr/local/sqoop1.4.7/lib
    试试sqoop能否连接上mysql
    bin/sqoop list-tables --connect jdbc:mysql://192.168.193.3:3306/hive --username root --password 123456;
    在这里插入图片描述
    list-tables表示列出数据库中的表名,从上图可以看到成功

    查看一下hive表的内容
    sqoop eval --connect jdbc:mysql://localhost:3306/sqoop --username root --password 123456 --query "select * from stu"
    在这里插入图片描述
    sqoop导出数据到MySQL,MySQL需要先建立一个一摸一样的表结构
    将表内容导出到mysql,export-dir改成自己表所在的位置
    sqoop export --connect jdbc:mysql://localhost:3306/sqoop --username root --password 123456 --table stu --input-fields-terminated-by '\t' --export-dir /user/hive/warehouse/db_hive_test.db/stu/
    在这里插入图片描述
    在MySQL中进行查询,数据库里面已经有了sqoop数据库了
    在这里插入图片描述
    use sqoop;
    show table;
    select * from stu;
    在这里插入图片描述
    可以看到已经正确导出了!sqoop也安装成功啦!还剩最后一点点!

    7.Navicate远程连接hive服务器

    在CentOS7中开放3306 端口
    firewall-cmd --zone=public --add-port=3306/tcp --permanent

    #命令含义
    --zone #作用域 
    --add-port=3306/tcp #添加端口,格式为:端口/通讯协议 
    --permanent #永久生效
    

    重启防火墙
    systemctl restart firewalld.service
    在这里插入图片描述
    Navicat新建MySQL连接
    在这里插入图片描述
    改一下Connection Name,Host,User Name和Password
    在这里插入图片描述
    点击Test Connection,连接成功!
    在这里插入图片描述

    终于全都弄好了,哎,安装环境弄了一天半的时间,今天又花了一天时间把过程都复盘一遍记下来,参考了好多人的笔记,我累啦~但是终于可以有自己的环境了,可以好好学习hive啦!过程中当然踩过很多坑,但是我忘了截图,对8起。
    在这里插入图片描述

    参考:
    https://blog.csdn.net/qq_21187515/article/details/84850814 jdk下载
    https://www.jianshu.com/p/531cc35b15e7 linux下mysql下载安装
    https://www.cnblogs.com/hello-/articles/9600269.html Linux中安装hadoop
    https://blog.csdn.net/pucao_cug/article/details/71773665 Linux中基于hadoop安装hive
    https://blog.csdn.net/pucao_cug/article/details/72083172 Linux安装Sqoop

    展开全文
  • 由于我是用mysql5.7.24,所以就想到然的用了5.7.24版本的依赖,结果出现如上警告 <dependency> <groupId>mysql</groupId> <artifactId>mysql-connector-java</artifactId> <...
  • JDBC连接MySQL5.7的方法

    2021-01-19 23:10:09
    1.首先准备mysql 和eclipse环境,在环境搭建好之后,从eclipse官网下载jdbc驱动包,下载地址http://dev.mysql.com/downloads/connector/j/ 2.从下载的文件中取出mysql-connector-java-5.1.31-bin.jar,放到工程中...
  • 一、安装MySQL5.7数据库 写在前面:博主上课需用MySQL,版本硬性要求5.7,官网下载奈何网速不够,鸡飞狗跳,告辞!遂被安利命令行大法,百闻不如一见,啧啧啧,两句话解决,,等会,我giao,解决了???root密码呢...
  • 建立了一个java项目,然后要连接mysql5.7(小版本5.7.14)数据库 一开始是用com.mysql.jdbc.Driver的,但是会报错,然后搜了一堆。常规的解决办法如这个博主写的。 ... 其中下载connector的时候,在另外一个博客里...
  • JDBC数据库连接MySQL5.7

    万次阅读 2018-04-22 12:36:38
    1.首先准备mysql 和eclipse环境,在环境搭建好之后,从eclipse官网下载jdbc驱动包,下载地址http://dev.mysql.com/downloads/connector/j/ 2.从下载的文件中取出mysql-connector-java-5.1.31-bin.jar,放到工程中...
  • 完美支持mysql5.5,5.6,5.7版本,亲测timestamp(0-6) 都支持,之前换过几个版本都不支持timestamp(6),换了这个才支持,
  • mysql驱动jar包

    2018-08-24 11:04:43
    JDBC(Java DataBase Connectivity,java数据库连接)是一种用于执行SQL语句的Java API,可以为多种关系数据库提供统一访问,它由一组用Java语言编写的类和接口组成。JDBC提供了一种基准,据此可以构建更高级的工具和...
  • JDBC连接MySQL5.7

    万次阅读 2017-09-21 20:16:58
    1.首先准备mysql 和eclipse环境,在环境搭建好之后,从eclipse官网下载jdbc驱动包,下载地址http://dev.mysql.com/downloads/connector/j/2.从下载的文件中取出mysql-connector-java-5.1.31-bin.jar,放到工程中,...
  • 写在前面,笔者的个人主页近期升级了一下服务器,以前的VPS确实不行了,然后也就顺便用了最新版本也就是MySQL5.7,但是这个版本呢升级了很多安全策略,网上的资料(中文)也相对较少,之前因为安装这个MySQL5.7已经...
  • MySQL数据库驱动jar包

    2018-10-24 17:18:27
    Java连接MySQL数据库的驱动程序,亲测可用,如果配置连接property文件,url=jdbc:mysql://localhost:3306/ICN?useSSL=false 添加usessl=false的原因 原因是MySQL在高版本需要指明是否进行SSL连接
  • 使用JDBC连接MySQL数据库时所需要的jar包,里面包含了MySQL5.7和MySQL8.0两个版本的连接jar包以及8.0的完整资源
  • JDBC之 java - mysql 各个版本 jar包 驱动

    千次阅读 2019-08-24 17:48:55
    mysql 各个版本 jar包 驱动 : http://central.maven.org/maven2/mysql/mysql-connector-java/ 例如:mysql-connector-java-8.0.15.jar mysql-connector-java-5.1.40.jar 或者从mysql官网下载:...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 4,690
精华内容 1,876
关键字:

mysql5.7的jdbc驱动jar包

mysql 订阅