anaconda python3.7安装步骤

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了anaconda python3.7安装步骤相关的知识,希望对你有一定的参考价值。

《Anaconda3软件》百度网盘资源免费下载:

链接: https://pan.baidu.com/s/1pOzDpvL-l8y6zGvcOW2Ofg

?pwd=snjs 提取码: snjs

Anaconda3-2020.02最新中文版是专门为了方便使用 Python 进行数据科学研究而建立的一组软件包,涵盖了数据科学领域常见的 Python 库,并且自带了专门用来解决软件环境依赖问题的 conda 包管理系统。可以使用它创建虚拟环境,以便更轻松地处理多个项目。主要提供了包管理与环境管理的功能,可以很方便地解决多版本python并存、切换以及各种第三方包安装问题。

参考技术A

anaconda python3.7安装步骤:1、双击打开anaconda安装程序;2、依次点击【next】、【I agree】;3、选择可以运行软件的用户;4、选择安装目录,点击【install】,等待安装完成即可。

具体安装步骤:

(推荐学习:Python入门教程)

1、双击下载好的“Anaconda3-5.3.1-Windows-x86_64.exe”程序,进入到软件安装向导界面,点击next;

2、在协议界面中,我们选择i agree;

3、接着设置哪些用户可以运行软件,可以保持默认;

4、然后选择软件安装目录(默认即可),我这里的安装目录为“C:UsersAdministratorAnaconda3”;

5、最后我们点击install安装即可。

Spark python安装完全步骤

首先,Spark python开发环境搭建的准备工作:

Win10 64位专业版

Anaconda3

Java 8 64位

Spark基于Hadoop 2.7 64位


下载和准备介质:

  1. 安装与配置Anaconda https://www.anaconda.com/products/individual

  2. 安装与配置Java https://www.oracle.com/java/technologies/javase/javase-jdk8-downloads.html

  3. 安装与配置Spark https://spark.apache.org/downloads.html

  4. 安装与配置Hadoop依赖 https://spark.apache.org/downloads.html

  5. 测试spark .inspark-shell  .inpyspark

步骤截图:

1. 安装Anaconda,此步骤一般来说不会有任何问题,就像你安装其他电脑软件一样,下一步下一步,中间【记得勾选Add anaconda to the system PATH envrionment variables:】

2. 安装和配置JAVA,这个同上一步,一步步安装完后,记得配置环境变量:

首先,配置JAVA_HOME,在环境变量中新增系统变量JAVA_HOME,其值为JDK的安装目录:

Spark python安装【完全步骤】

其次,配置CLASSPATH,在系统变量中新增CLASSPATH,其值为".%JAVA_HOME%lib;%JAVA_HOME%lib ools.jar" 【注意前面有个小圆点】

Spark python安装【完全步骤】

以上步骤完成后,JAVA就安装好了,请在CLI(Command Line Interface)即Win+R运行中,输入CMD,再输入 java -version

Spark python安装【完全步骤】

3. 安装和配置spark

下载好基于hadoop 2.7预编译的程序包,spark程序不需要安装,解压后即可直接使用,解压后复制到指定的文件夹,一般为放程序的文件夹,【注意】文件夹名中不可以有空格:

Spark python安装【完全步骤】

环境变量:新增SPARK_HOME,其值为spark程序的文件路径,例如我们上面的截图是C:spark

Spark python安装【完全步骤】

接着将"%SPARK_HOME%in" "%SPARK_HOME%sbin" 加入到PATH系统变量中:

Spark python安装【完全步骤】

接着配置日志显示级别,操作方法:复制sparkconf文件夹下的log4j.properties.template 为log4j.properties,即去掉template后缀,将root用户的日志级别设置为WARN


Spark python安装【完全步骤】

So far so Good?

4. 安装和配置Hadoop:

根据url下载https://github.com/LemenChao/hadoop.dll-and-winutils.exe-for-hadoop2.7.3-on-windows_X64

然后解压到自己创建的hadoop文件夹里:

Spark python安装【完全步骤】

配置环境变量 HADOOP_HOME,新增HADOOP_HOME,其值为HADOOP文件所在目录:以上面的例子即C:Program Fileshadoop

接着,将"%HADOOP_HOME%in"添加到PATH的系统变量里

5 测试:

在cmd中敲入spark-shell以及pyspark会分别得到如下两个截图的样子,即为ok,

或者敲入cd %SPARK_HOME%

再 .inspark-shell


至此,应该无误。


以上是关于anaconda python3.7安装步骤的主要内容,如果未能解决你的问题,请参考以下文章

安装anaconda和python3.7环境

MAC安装Anaconda3 Python3.7和Python2.7共存

使用anaconda安装tensorflow (windows10环境)

全网最简约的Anaconda+Python3.7安装教程Win10(百分百成功)

anaconda+tensorflow2.2+python3.7安装

anaconda+tensorflow2.2+python3.7安装