IDEA如何运行SpringBoot项目(超详细截图)

Posted 辰兮要努力

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了IDEA如何运行SpringBoot项目(超详细截图)相关的知识,希望对你有一定的参考价值。

【辰兮要努力】:hello你好我是辰兮,很高兴你能来阅读,昵称是希望自己能不断精进,向着优秀程序员前行!

博客来源于项目以及编程中遇到的问题总结,偶尔会有读书分享,我会陆续更新Java前端、后台、数据库、项目案例等相关知识点总结,感谢你的阅读和关注,希望我的博客能帮助到更多的人,分享获取新知,大家一起进步!

吾等采石之人,应怀大教堂之心,愿我们奔赴在各自的热爱里…

📖☕️🌊📝📚🎩🚀📣

📖本篇超级详细案例截图教学 IDEA如何运行SpringBoot项目,图片点击可放大仔细看

☕️Java编译工具以及环境准备:

 IDEA      JDK1.8     mysql8.0      Maven


步骤一:配置maven

第一步:用IDEA打开项目,准备配置maven环境 ,当然如果本地没有提前配置好maven,就用IDEA默认的配置即可

配置maven步骤

🎩情况1:如果本地没有配置过maven,可以保持如下默认配置 (未配置直接忽略情况2)

🎩情况2:如果本地配置过maven仓库地址,要在上处红框修改为自己本地的maven地址

如我配置过maven仓库


🌊本地配置过maven仓库:如下三个地方配置参考案例,一个是目录,一个是xml文件,一个是jar包地址

📝因为我本地有maven环境,所以此处配置修改与我本地适配


步骤二:配置JDK环境

🎩如果代码爆红,记得检查是否配置了Java运行环境


找到配置jdk的地方,配置自己电脑的jdk环境


检查一些相关目录,修改成和jdk1.8相关东西

上述配置都记得点击Apply 然后点击OK,执行完成多次点击下图右侧刷新按钮

☕️ 如果爆红,多次点击刷新符号,也可以执行预编译,执行完后依赖正常都会下载到本地


🚀 爆红原因:本地缺少依赖包,需要下载,点击刷新符号即会下载


步骤三:检查数据库的配置

📝【配置文件】SpringBoot项目找到applicationyml文件

☕️ 检查数据库名称,数据库账号,数据库密码是否和本地的MySQL以及MySQL库一致

spring:
  datasource:
    driver-class-name: com.mysql.cj.jdbc.Driver
    url: jdbc:mysql://127.0.0.1:3306/cwgl?characterEncoding=utf-8&serverTimezone=UTC
    username: root
    password: root

备注:如果登录不上 请先排除数据库连接问题


初始化数据

使用数据库连接工具先连接MySQL,连接后,右键新建数据库(我使用的是Navicat)

名称务必保持和自己配置文件中的名称一致

将我们的sql文件复制到新建的查询里面,点击运行即可


运行项目

🚀页面输入 http://localhost:8080/ 即可访问

 登录的账号密码见数据库初始化数据

补充:不同项目根据具体配置路径访问


📣推荐阅读

Java面试总结:点击进入 Java面试专栏 关注走一波

Java基础知识:点击进入 Java基础总结 关注走一波

Java项目专栏:点击进入 Java毕设专栏 关注走一波

我们未来更高处见……


📣非常感谢你阅读到这里,如果这篇文章对你有帮助,希望能留下你的点赞👍 关注❤️ 分享👥 留言💬thanks!!!

📚愿我们奔赴在各自的热爱里!

Flink入门宝典(详细截图版)

技术图片
本文基于java构建Flink1.9版本入门程序,需要Maven 3.0.4 和 Java 8 以上版本。需要安装Netcat进行简单调试。

这里简述安装过程,并使用IDEA进行开发一个简单流处理程序,本地调试或者提交到Flink上运行,Maven与JDK安装这里不做说明。

一、Flink简介

技术图片

Flink诞生于欧洲的一个大数据研究项目StratoSphere。该项目是柏林工业大学的一个研究性项目。早期,Flink是做Batch计算的,但是在2014年,StratoSphere里面的核心成员孵化出Flink,同年将Flink捐赠Apache,并在后来成为Apache的顶级大数据项目,同时Flink计算的主流方向被定位为Streaming,即用流式计算来做所有大数据的计算,这就是Flink技术诞生的背景。

2015开始阿里开始介入flink 负责对资源调度和流式sql的优化,成立了阿里内部版本blink在最近更新的1.9版本中,blink开始合并入flink,

未来flink也将支持java,scala,python等更多语言,并在机器学习领域施展拳脚。

二、Flink开发环境搭建

首先要想运行Flink,我们需要下载并解压Flink的二进制包,下载地址如下:https://flink.apache.org/downloads.html

我们可以选择Flink与Scala结合版本,这里我们选择最新的1.9版本Apache Flink 1.9.0 for Scala 2.12进行下载。

技术图片

Flink在Windows和Linux下的安装与部署可以查看 Flink快速入门--安装与示例运行,这里演示windows版。

安装成功后,启动cmd命令行窗口,进入flink文件夹,运行bin目录下的start-cluster.bat

$ cd flink
$ cd bin
$ start-cluster.bat
Starting a local cluster with one JobManager process and one TaskManager process.
You can terminate the processes via CTRL-C in the spawned shell windows.
Web interface by default on http://localhost:8081/.

显示启动成功后,我们在浏览器访问 http://localhost:8081/可以看到flink的管理页面。

技术图片

三、Flink快速体验

请保证安装好了flink,还需要Maven 3.0.4 和 Java 8 以上版本。这里简述Maven构建过程。

其他详细构建方法欢迎查看:快速构建第一个Flink工程

1、搭建Maven工程

使用Flink Maven Archetype构建一个工程。

 $ mvn archetype:generate                                     -DarchetypeGroupId=org.apache.flink                    -DarchetypeArtifactId=flink-quickstart-java            -DarchetypeVersion=1.9.0

你可以编辑自己的artifactId groupId

目录结构如下:

$ tree quickstart/
quickstart/
├── pom.xml
└── src
    └── main
        ├── java
        │   └── org
        │       └── myorg
        │           └── quickstart
        │               ├── BatchJob.java
        │               └── StreamingJob.java
        └── resources
            └── log4j.properties

在pom中核心依赖:

<dependencies>
    <dependency>
        <groupId>org.apache.flink</groupId>
        <artifactId>flink-java</artifactId>
        <version>$flink.version</version>
    </dependency>
    <dependency>
        <groupId>org.apache.flink</groupId>
        <artifactId>flink-streaming-java_2.11</artifactId>
        <version>$flink.version</version>
    </dependency>
    <dependency>
        <groupId>org.apache.flink</groupId>
        <artifactId>flink-clients_2.11</artifactId>
        <version>$flink.version</version>
    </dependency>
</dependencies>

2、编写代码

StreamingJob

import org.apache.flink.api.common.functions.FlatMapFunction;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.windowing.time.Time;
import org.apache.flink.util.Collector;
public class StreamingJob 

    public static void main(String[] args) throws Exception 
        final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        DataStream<Tuple2<String, Integer>> dataStreaming = env
                .socketTextStream("localhost", 9999)
                .flatMap(new Splitter())
                .keyBy(0)
                .timeWindow(Time.seconds(5))
                .sum(1);

        dataStreaming.print();

        // execute program
        env.execute("Flink Streaming Java API Skeleton");
    
    public static class Splitter implements FlatMapFunction<String, Tuple2<String, Integer>> 

        @Override
        public void flatMap(String sentence, Collector<Tuple2<String, Integer>> out) throws Exception 
            for(String word : sentence.split(" "))
                out.collect(new Tuple2<String, Integer>(word, 1));
            
        

    

3、调试程序

安装netcat工具进行简单调试。

启动netcat 输入:

nc -l 9999

启动程序

技术图片

在netcat中输入几个单词 逗号分隔

技术图片

在程序一端查看结果

技术图片

启动flink

windows为 start-cluster.bat    linux为start-cluster.sh

localhost:8081查看管理页面

技术图片

通过maven对代码打包

技术图片

将打好的包提交到flink上

技术图片

查看log

tail -f log/flink-***-jobmanager.out

在netcat中继续输入单词,在Running Jobs中查看作业状态,在log中查看输出。

技术图片

Flink提供不同级别的抽象来开发流/批处理应用程序。

技术图片

最低级抽象只提供有状态流

在实践中,大多数应用程序不需要上述低级抽象,而是针对Core API编程,?如DataStream API(有界/无界流)和DataSet API(有界数据集)。

Table Api声明了一个表,遵循关系模型。

最高级抽象是SQL

我们这里只用到了DataStream API。

Flink程序的基本构建块是转换

一个程序的基本构成:

l?获取execution environment

l?加载/创建原始数据

l?指定这些数据的转化方法

l?指定计算结果的存放位置

l?触发程序执行

技术图片

五、DataStreaming API使用

1、获取execution environment

StreamExecutionEnvironment是所有Flink程序的基础,获取方法有:

getExecutionEnvironment()

createLocalEnvironment()

createRemoteEnvironment(String host, int port, String ... jarFiles)

一般情况下使用getExecutionEnvironment。如果你在IDE或者常规java程序中执行可以通过createLocalEnvironment创建基于本地机器的StreamExecutionEnvironment。如果你已经创建jar程序希望通过invoke方式获取里面的getExecutionEnvironment方法可以使用createRemoteEnvironment方式。

2、加载/创建原始数据

StreamExecutionEnvironment提供的一些访问数据源的接口

(1)基于文件的数据源

readTextFile(path)
readFile(fileInputFormat, path)
readFile(fileInputFormat, path, watchType, interval, pathFilter, typeInfo)

(2)基于Socket的数据源(本文使用的)

l?socketTextStream

?

(3)基于Collection的数据源

fromCollection(Collection)
fromCollection(Iterator, Class)
fromElements(T ...)
fromParallelCollection(SplittableIterator, Class)
generateSequence(from, to)

3、转化方法

(1)Map方式:DataStream -> DataStream

功能:拿到一个element并输出一个element,类似Hive中的UDF函数

举例:

DataStream<Integer> dataStream = //...
dataStream.map(new MapFunction<Integer, Integer>() 
????@Override
????public Integer map(Integer value) throws Exception 
????????return 2 * value;
????
);

(2)FlatMap方式:DataStream -> DataStream

功能:拿到一个element,输出多个值,类似Hive中的UDTF函数

举例:

dataStream.flatMap(new FlatMapFunction<String, String>() 
????@Override
????public void flatMap(String value, Collector<String> out)
????????throws Exception 
????????for(String word: value.split(" "))
????????????out.collect(word);
????????
????
);

(3)Filter方式:DataStream -> DataStream

功能:针对每个element判断函数是否返回true,最后只保留返回true的element

举例:

dataStream.filter(new FilterFunction<Integer>() 
????@Override
????public boolean filter(Integer value) throws Exception 
????????return value != 0;
????
);

(4)KeyBy方式:DataStream -> KeyedStream

功能:逻辑上将流分割成不相交的分区,每个分区都是相同key的元素

举例:

dataStream.keyBy("someKey") // Key by field "someKey"
dataStream.keyBy(0) // Key by the first element of a Tuple

(5)Reduce方式:KeyedStream -> DataStream

功能:在keyed data stream中进行轮训reduce。

举例:

keyedStream.reduce(new ReduceFunction<Integer>() 
????@Override
????public Integer reduce(Integer value1, Integer value2)
????throws Exception 
????????return value1 + value2;
????
);

(6)Aggregations方式:KeyedStream -> DataStream

功能:在keyed data stream中进行聚合操作

举例:

keyedStream.sum(0);
keyedStream.sum("key");
keyedStream.min(0);
keyedStream.min("key");
keyedStream.max(0);
keyedStream.max("key");
keyedStream.minBy(0);
keyedStream.minBy("key");
keyedStream.maxBy(0);
keyedStream.maxBy("key");

(7)Window方式:KeyedStream -> WindowedStream

功能:在KeyedStream中进行使用,根据某个特征针对每个key用windows进行分组。

举例:

dataStream.keyBy(0).window(TumblingEventTimeWindows.of(Time.seconds(5))); // Last 5 seconds of data

(8)WindowAll方式:DataStream -> AllWindowedStream

功能:在DataStream中根据某个特征进行分组。

举例:

dataStream.windowAll(TumblingEventTimeWindows.of(Time.seconds(5))); // Last 5 seconds of data

(9)Union方式:DataStream* -> DataStream

功能:合并多个数据流成一个新的数据流

举例:

dataStream.union(otherStream1, otherStream2, ...);

(10)Split方式:DataStream -> SplitStream

功能:将流分割成多个流

举例:

SplitStream<Integer> split = someDataStream.split(new OutputSelector<Integer>() 
????@Override
????public Iterable<String> select(Integer value) 
????????List<String> output = new ArrayList<String>();
????????if (value % 2 == 0) 
????????????output.add("even");
????????
????????else 
????????????output.add("odd");
????????
????????return output;
????
);

(11)Select方式:SplitStream -> DataStream

功能:从split stream中选择一个流

举例:

SplitStream<Integer> split;
DataStream<Integer> even = split.select("even");
DataStream<Integer> odd = split.select("odd");
DataStream<Integer> all = split.select("even","odd");

4、输出数据

writeAsText()
writeAsCsv(...)
print() / printToErr() 
writeUsingOutputFormat() / FileOutputFormat
writeToSocket
addSink

更多Flink相关原理:

穿梭时空的实时计算框架——Flink对时间的处理

大数据实时处理的王者-Flink

统一批处理流处理——Flink批流一体实现原理

Flink快速入门--安装与示例运行

快速构建第一个Flink工程

更多实时计算,Flink,Kafka等相关技术博文,欢迎关注实时流式计算:

技术图片

以上是关于IDEA如何运行SpringBoot项目(超详细截图)的主要内容,如果未能解决你的问题,请参考以下文章

Intellij IDEA下载安装教程和搭建springboot开发环境及踩坑指南(超详细图文教程)

Nacos源码启动(超详细)

Flink入门宝典(详细截图版)

超详细Docker部署SpringBoot+Vue项目(三更博客项目部署)

SpringBoot 中 MybatisX 插件的简单使用教程(超详细!!)

idea构建web项目-超详细教程