安装vue-lic

Posted 拾qi

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了安装vue-lic相关的知识,希望对你有一定的参考价值。

vue-cli是Vue.js开发的标准工具。它简化了程序员基于webppack创建工程化的Vue项目的过程。
引用自vue-cli官网上的一句话:程序员可以专注在撰写应用上,而不必花好几天去纠结\\webpack配置的问题。

安装和使用

(1)确保电脑已经安装了node.js如果不确定自己是否安装了node,可以在cmd命令行工具内执行: 

node -v  (检查一下 版本);

  如果 执行结果显示: xx 不是内部命令,说明你还没有安装node ,没有安装的话该博客vue目录下的第一个帖子提到过安装教程可参考

(2)vue-cli是npm上的一个全局包,使用 npm install命令,即可方便的把它安装到自己的电脑上,使用管理员身份打开命令提示符:
npm install -g @vue/cli

(3)检查是否安装成功

vue -V

(4)如果 vue -V执行结果显示:\'vue\' 不是内部或外部命令,也不是可运行的程序或批处理文件。

解决方案:

<1>确定npm是否已正确安装,在cmd中输入如下指令:

npm -v
可以查看当前npm版本号:

当显示版本号时说明npm已成功安装。

<2>输入以下命令:

   where vue

已经安装了vue,就能看到,如果看不到该指令,则回到控制台;

<3>执行以下两个指令在 cmd 输入以下命令:

  npm install -g vue

安装成功,看到了 where vue命令可看到vue.cmd:

然后,输入以下命令:

// 卸载
npm uninstall @vue-cli -g
// 安装
npm install -g @vue/cli

<4>安装完成后,通过如下任意指令查看vue的版本:

vue –V
但是,还是报错:‘vue’ 不是内部或外部命令。

还需要配置环境变量。

<5>cmd 输入 npm config list 查看目录,找到 prefix 目录下对应的地址。

 因为我这里安装node.js重写了该路径所以出现了两个,重写了用序号②,未重写用序号①

<6>在"控制面板"里面找到“系统和安全”,接着在“系统和安全”找到“系统”,找到系统界面后,在左边的侧边栏,找到“高级系统设置”,点击进去后,在高级选项卡里面,找到“环境变量”按钮,并点击进去:

<7>点击进去后,先在“系统变量”部分选中path一行,再点击下面的“编辑”按钮:

<8>点击进去后,选中页面的“新建”按钮:

注意不要复制npm config list出来的路径的双斜杠路径,

<9>在”新建“页面的最后一行,加入第5步操作里面查询到的prefix后面的路径,再点击“确定”,在接下来的页面上点击确定,此时,在cmd输入以下命令:

 vue –V

impala安装

安装规划

   

服务名称

Node01

Node02

Node03

impala-catalog

安装

不安装

不安装

impala-state-store

安装

不安装

不安装

impala-server

安装

安装

安装

impala

安装

安装

安装

   

安装impala

主节点node01执行以下命令进行安装

[root@hadoop01 ~]# yum install impala -y

[root@hadoop01 ~]# yum install impala-server -y

[root@hadoop01 ~]# yum install impala-state-store -y

[root@hadoop01 ~]# yum install impala-catalog -y

[root@hadoop01 ~]# yum install bigtop-utils -y

[root@hadoop01 ~]# yum install impala-shell -y

   

   

   

   

从节点node02和node03上安装以下服务

在node02上执行安装

[root@hadoop02 ~]# yum install impala-server -y

[root@hadoop02 ~]# yum install bigtop-utils -y

在node03上执行安装

[root@hadoop03 ~]# yum install impala-server -y

[root@hadoop03 ~]# yum install bigtop-utils -y

   

impala配置

   

impala依赖于hive,所以首先需要进行hive的配置修改;

[root@hadoop01 hive]# cd /usr/local/hive/conf/

node1机器修改hive-site.xml内容如下:

[root@hadoop01 hive]# vim hive-site.xml

<configuration>

<property>

<name>javax.jdo.option.ConnectionURL</name>

<value>jdbc:mysql://node1:3306/hive?

createDatabaseIfNotExist=true</value>

</property>

<property>

<name>javax.jdo.option.ConnectionDriverName</name>

<value>com.mysql.jdbc.Driver</value>

</property>

<property>

<name>javax.jdo.option.ConnectionUserName</name>

<value>root</value>

</property>

<property>

<name>javax.jdo.option.ConnectionPassword</name>

<value>123456</value>

</property>

<property>

<name>hive.cli.print.current.db</name>

<value>true</value>

</property>

<property>

<name>hive.cli.print.header</name>

<value>true</value>

</property>

<property>

<name>hive.server2.thrift.bind.host</name>

<value>node01</value>

</property>

<property>

<name>hive.metastore.uris</name>

<value>thrift://node01:9083</value>

</property>

<property>

<name>hive.metastore.client.socket.timeout</name>

<value>3600</value>

</property>

</configuration>

   

将配置好的配置文件发送到其他两个服务器节点上

[root@hadoop01 conf]# scp -r hive-site.xml node02:$PWD

[root@hadoop01 conf]# scp -r hive-site.xml node03:$PWD

   

添加mysql的jar包放入hive的lib目录下

   

启动hive的metastore服务

[root@hadoop01 lib]# cd /usr/local/hive/

[root@hadoop01 hive]#nohup bin/hive --service metastore &

注意:一定要保证mysql的服务正常启动,否则metastore的服务不能够启动

   

所有hadoop节点修改hdfs-site.xml添加以下内容

所有节点创建文件夹

[root@hadoop01 ~]# mkdir -p /usr/local/hadoop-2.6.0-cdh5.14.0/run/hdfs-sockets

[root@hadoop02 ~]# mkdir -p /usr/local/hadoop-2.6.0-cdh5.14.0/run/hdfs-sockets

[root@hadoop03 ~]# mkdir -p /usr/local/hadoop-2.6.0-cdh5.14.0/run/hdfs-sockets

   

修改所有节点的hdfs-site.xml添加以下配置,修改完之后重启hdfs集群生效

[root@hadoop01 soft-manager]# cd /usr/local/hadoop-2.6.0-cdh5.14.0/

[root@hadoop01 hadoop-2.6.0-cdh5.14.0]# cd etc/hadoop/

[root@hadoop01 hadoop]# vim hdfs-site.xml

<configuration>

<property>

<name>dfs.replication</name>

<value>2</value>

</property>

<property>

<name>dfs.permissions</name>

<value>false</value>

</property>

<property>

<name>dfs.blocksize</name>

<value>134217728</value>

</property>

   

<property>

<!--短路读取--就是允许impala把一些信息存储在本地磁盘上,可以加快计算的速度-->

<name>dfs.client.read.shortcircuit</name>

<value>true</value>

</property>

<property>

<!--打开"块位置的存储的元数据信息"-->

<name>dfs.datanode.hdfs-blocks-metadata.enabled</name>

<value>true</value>

</property>

<property>

<name>dfs.domain.socket.path</name>

<value>/usr/local/hadoop-2.6.0-cdh5.14.0/run/hdfs-sockets/dn</value>

<!--Datanode和DFSClient之间沟通的Socket的本地路径套接口文件-->

</property>

<property>

<!---->

<name>dfs.client.file-block-storage-locations.timeout.millis</name>

<value>10000</value>

</property>

   

</configuration>

   

将配置好的配置我呢见拷贝到其他两台服务器

[root@hadoop01 hadoop]# scp -r hdfs-site.xml node02:$PWD

[root@hadoop01 hadoop]# scp -r hdfs-site.xml node03:$PWD

   

创建hadoop与hive的配置文件的连接

   

impala的配置目录为 /etc/impala/conf

这个路径下面需要把core-site.xml,hdfs-site.xml以及hive-site.xml拷贝到这里来,但是这里使用软连接的方式会更好。

在node01服务器上创建三个配置文件的软连接

[root@hadoop01 hadoop]# ln -s /usr/local/hadoop-2.6.0-cdh5.14.0/etc/hadoop/core-site.xml /etc/impala/conf/

[root@hadoop01 hadoop]# ln -s /usr/local/hadoop-2.6.0-cdh5.14.0/etc/hadoop/hdfs-site.xml /etc/impala/conf

[root@hadoop01 hadoop]# ln -s /usr/local/hive/conf/hive-site.xml /etc/impala/conf

   

在node02服务器上创建三个配置文件的软连接

[root@hadoop02 local]# ln -s /usr/local/hadoop-2.6.0-cdh5.14.0/etc/hadoop/core-site.xml /etc/impala/conf/

[root@hadoop02 local]# ln -s /usr/local/hadoop-2.6.0-cdh5.14.0/etc/hadoop/hdfs-site.xml /etc/impala/conf

[root@hadoop02 local]# ln -s /usr/local/hive/conf/hive-site.xml /etc/impala/conf

   

在node03服务器上创建三个配置文件的软连接

[root@hadoop03 ~]# ln -s /usr/local/hadoop-2.6.0-cdh5.14.0/etc/hadoop/core-site.xml /etc/impala/conf/

[root@hadoop03 ~]# ln -s /usr/local/hadoop-2.6.0-cdh5.14.0/etc/hadoop/hdfs-site.xml /etc/impala/conf

[root@hadoop03 ~]# ln -s /usr/local/hive/conf/hive-site.xml /etc/impala/conf

   

   

所有节点修改impala默认配置

   

在node01服务器更改impala默认配置文件

[root@hadoop01 hadoop]# vim /etc/default/impala

#指定集群的CATALOG_SERVICE和STATE_STORE服务地址

IMPALA_CATALOG_SERVICE_HOST=node01

IMPALA_STATE_STORE_HOST=node01

   

在node02服务器更改impala默认配置文件

[root@hadoop02 hadoop]# vim /etc/default/impala

#指定集群的CATALOG_SERVICE和STATE_STORE服务地址

IMPALA_CATALOG_SERVICE_HOST=node01

IMPALA_STATE_STORE_HOST=node01

   

在node03服务器更改impala默认配置文件

[root@hadoop03 hadoop]# vim /etc/default/impala

#指定集群的CATALOG_SERVICE和STATE_STORE服务地址

IMPALA_CATALOG_SERVICE_HOST=node01

IMPALA_STATE_STORE_HOST=node01

   

修改配置如下图所示

   

   

所有节点创建mysql的驱动包的软连接

   

[root@hadoop01 ~]# ln -s /usr/local/hive/lib/mysql-connector-java-5.1.32.jar /usr/share/java

[root@hadoop02 ~]# ln -s /usr/local/hive/lib/mysql-connector-java-5.1.32.jar /usr/share/java

[root@hadoop03 ~]# ln -s /usr/local/hive/lib/mysql-connector-java-5.1.32.jar /usr/share/java

   

所有节点修改bigtop的java路径

在node01上修改bigtop的java_home路径

[root@hadoop01 hadoop]# vim /etc/default/bigtop-utils

export JAVA_HOME=/usr/local/java/jdk1.8.0_201

   

在node02上修改bigtop的java_home路径

[root@hadoop02 hadoop]# vim /etc/default/bigtop-utils

export JAVA_HOME=/usr/local/java/jdk1.8.0_201

   

在node03上修改bigtop的java_home路径

[root@hadoop03 hadoop]# vim /etc/default/bigtop-utils

export JAVA_HOME=/usr/local/java/jdk1.8.0_201

   

   

   

启动impala服务

在主节点node01启动以下三个服务进程

[root@hadoop01 ~]# service impala-state-store start

[root@hadoop01 ~]# service impala-catalog start

[root@hadoop01 ~]# service impala-server start

   

在从节点node02和node03上启动impala-server

[root@hadoop02 ~]# service impala-server start

[root@hadoop03 ~]# service impala-server start

查看impala进程是否存在

[root@hadoop01 ~]# ps -ef | grep impala

[root@hadoop02 ~]# ps -ef | grep impala

[root@hadoop03 ~]# ps -ef | grep impala

   

注意:启动之后所有关于impala的日志默认都在/var/log/impala 这个路径下,node01机器上面应该有三个进 程,node02与node03机器上面只有一个进程,如果进程个数不对,去对应目录下查看报错日志

   

浏览器页面访问

   

访问impalad的管理界面http://node01:25000/

   

访问statestored的管理界面http://node01:25010/

   

访问catalogd 的管理界面http://node01:25020/

   

将impala与kudu整合

   

在每一个服务器的impala的配置文件中添加如下配置:

在node01节点上修改配置文件impala

[root@hadoop01 hadoop]# vim /etc/default/impala

-kudu_master_hosts=node01:7051,node02:7051,node03:7051

在node02节点上修改配置文件impala

[root@hadoop02 hadoop]# vim /etc/default/impala

-kudu_master_hosts=node01:7051,node02:7051,node03:7051

在node03节点上修改配置文件impala

[root@hadoop03 hadoop]# vim /etc/default/impala

-kudu_master_hosts=node01:7051,node02:7051,node03:7051

   

   

 

   转自:https://www.cnblogs.com/starzy/p/10563572.html

以上是关于安装vue-lic的主要内容,如果未能解决你的问题,请参考以下文章

在vue-lic脚手架中安装mockjs,实现前后端分离开发

Vue中使用/deep/bug

VueJSVueJS开发请求本地json数据的配置

安装包怎么下载安装

MySQL免安装版与安装版区别

下载完安装包怎么安装