IT运维中的linux运维具体每天工作是做啥的?
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了IT运维中的linux运维具体每天工作是做啥的?相关的知识,希望对你有一定的参考价值。
个人认为一个运维最应该的一天工作时间安排:20% ,处理紧急重要的事情。
80% ,开展重要不紧急的事情的工作。
紧急重要很容易理解,其实就是救火类工作。
重要不紧急的工作,才是最能体现运维的价值的工作。
监控系统,这个是一个大话题。除了被动地监控各类服务的正常与否,还有主动开发各类协助系统分析的系统,并对整个系统的未来有规划性。
性能调优,我最喜欢的一个方面。发现性能瓶颈,解决性能问题,都很喜欢。
开发工具型系统。提高自己,和团队内所有人的工作效率的一些工具。尤其是可以快速解决那些中断的工具。
学习。这个是最重要的。运维涉及的知识面非常广,不断学习才能顺利快速解决以上各类问题,不断尝试不断经历才有足够的经验遇神杀神,遇佛杀佛。
一天一天,做好重要不紧急的工作,才能令到运维工作更有效率,整个系统更稳定,未来的发展更具有预见性。
内容来源于ITSS符合性评估落地工具-云雀运维!! 参考技术A 初中级运维的日常涉及工作:
1、评估产品需求及发展需求,设计网站架构。
2、选择IDC公司、云产品,CDN等产品。
3、采购服务器、安装系统、配置服务、服务器IDC上架。
4、调试网络、优化系统及服务。
5、上线代码、配合研发搭建环境、调试、测试代码。
6、监控硬件、软件及各种业务应用。
7、配置收集日志和,根据日志信息报警及优化系统及服务
8、解决日常问题,如硬件(服务器、交换机、硬件、网络等)、软件(网络服务)、各类业务服务故障。
9、编写自动化脚本(Shell、Python),自动化部署服务。
高级运维涉及的工作:
1、监控带宽、流量、并发、业务接口等关键资源及访问信息的变化趋势。
2、根据相应趋势变化不断优化网站架构。
3、设计各类解决方案,解决公司业务发展中的遇到的网站瓶颈。
4、编写各种自动化脚本(Shell、Python),自动化部署优化服务。
5、开发自动化部署和管理平台(CMDB),实现平台化运维。
6、开发运维管理平台、及运维工具产品,提升服务效率。
7、制定运维流程、规范、制度,并有序推进。
8、研究先进运维理念、模式,确保业务持续稳定、有序。 参考技术B 主要有以下工作
1、对Linux下各种网络服务、应用系统、监控系统等进行自动化脚本开发的工作,并根据项目对系统进行性能优化;
2、负责网站项目中Linux服务器的部署与维护,解决Linux系统下版本兼容性问题;
3、熟练部署和维护Linux服务器以及在linux服务器上架设各种服务;
4、编写shell script脚本;
5、LAMP,LNMP以及mysql,oracle数据库维护
Spark应用是用来做啥的?
Spark因其自身优势,发展势头迅猛,目前几乎所有一站式大数据平台都已集成了Spark,很多行业也都正在用Spark来改善他们的业务,以下是Spark在一些行业的具体用途:保险行业:通过使用Spark的机器学习功能来处理和分析所有索赔,优化索赔报销流程。
医疗保健:使用Spark Core,Streaming和SQL构建病人护理系统。
零售业:使用Spark分析销售点数据和优惠券使用情况。
互联网:使用Spark的ML功能来识别虚假的配置文件,并增强他们向客户展示的产品匹配。
银行业:使用机器学习模型来预测某些金融产品的零售的资料。
政府:分析地理,时间和财政支出。
科学研究:通过时间,深度,地理分析地震事件来预测未来的事件。
投资银行:分析日内股价以预测未来的价格走势。
地理空间分析:按时间和地理分析Uber旅行,以预测未来的需求和定价。
航空公司:建立预测航空旅行延误的模型。
设备:预测建筑物超过临界温度的可能性...... 参考技术A 1. Spark是基于内存的迭代计算框架,适用于需要多次操作特定数据集的应用场合。需要反复操作的次数越多,所需读取的数据量越大,受益越大,数据量小但是计算密集度较大的场合,受益就相对较小;2. 由于RDD的特性,Spark不适用那种异步细粒度更新状态的应用,例如web服务的存储或者是增量的web爬虫和索引。就是对于那种增量修改的应用模型不适合:3. 数据量不是特别大,但是要求实时统计分析需求。
以上是关于IT运维中的linux运维具体每天工作是做啥的?的主要内容,如果未能解决你的问题,请参考以下文章