大数据学习之sqoop

Posted 李皇皓

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了大数据学习之sqoop相关的知识,希望对你有一定的参考价值。

点击下载sqoophttp://mirror.bit.edu.cn/apache/sqoop/

解压缩:tar -xvf sqoop-1.4.7.bin__hadoop-2.6.0.tar

重命名:mv sqoop-1.4.7.bin__hadoop-2.6.0 sqoop

配置环境变量

  export SQOOP_HOME=/data/bigdata/sqoop

  export PATH=$SQOOP_HOME/bin:$HIVE_HOME/bin:$SCALA_HOME/bin:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

  source /etc/profile 使文件生效

配置文件修改

  cd sqoop 进入目录

       cp conf/sqoop-env-template.sh conf/sqoop-env.sh

  打开编辑sqoop-env.sh (因为我只有hive 只配置了hive,hbase也一样)

    #Set path to where bin/hadoop is available

    export HADOOP_COMMON_HOME=/data/bigdata/hadoop-2.7.6

    #Set path to where hadoop-*-core.jar is available
    export HADOOP_MAPRED_HOME=/data/bigdata/hadoop-2.7.6

    #set the path to where bin/hbase is available
    #export HBASE_HOME=

    #Set the path to where bin/hive is available
    export HIVE_HOME=/data/bigdata/hive

mysql的驱动包上传到sqoop的lib下(之前装hive时候已经有了,拷贝过来即可,参考:https://www.cnblogs.com/lihuanghao/p/9338194.html

  cp ../hive/lib/mysql-connector-java-5.1.46.jar lib/

  注:之后导入数据可能会报错:could not find ... HIVE_CONF_DIR 解决办法:

  cp ../hive/lib/hive-exec-2.3.3.jar lib/

 

至此sqoop安装结束

附:

  先在hive中创建一个表:

      create table he_count (id int,ctype string,token string,version string,uptime int,channel string,devid string,devname string,cip string,num int,mac string,period int)ROW FORMAT DELIMITED FIELDS TERMINATED BY \'\\001\' STORED AS TEXTFILE;

  一条导入hive指令(更多请查看官网)

  sqoop import --connect \'jdbc:mysql://mysql:3306/health?autoReconnect=true\' --username sqoop --password sqoop --table he_count    --hive-import --hive-table he_count --hive-overwrite -m 1 --hive-database default -z

  

  

以上是关于大数据学习之sqoop的主要内容,如果未能解决你的问题,请参考以下文章

大数据学习之十五——sqoop的安装和使用

大数据学习之Kafka消息队列31

嘉明的云计算与大数据学习之大数据综合实验案例

Python大数据与机器学习之NumPy初体验

大数据学习之小白如何学大数据?(详细篇)

机器学习之大数据集