首页 > 企业文档 > 岗位职责 > 详情页

大数据技术运维岗位职责(推荐5篇)

2023-07-18 09:00:19

千文网小编为你整理了多篇相关的《大数据技术运维岗位职责(推荐5篇)》,但愿对你工作学习有帮助,当然你在千文网还可以找到更多《大数据技术运维岗位职责(推荐5篇)》。

第一篇:大数据运维工程师岗位的主要职责

职责:

1、负责企业无人机光伏巡检系统云端专家系统的运行安全、平稳,为客户提供畅通、快速、良好的服务感受;

2、负责服务器基础环境的部署、配置、办公软硬件、计算机网络的日常维护和管理,保障公司IT设施运行平稳;

3、负责办公软硬件、网络环境的故障排除、办公设施的规划与改造,不断提高办公IT设施的易用性和安全性;

4、负责公司网站、企业邮箱、业务系统等信息化系统的日常维护工作和基础用户支持;

5、负责处理公司网络和服务器方面突发事件,紧急事件;

6、负责公司软件产品的安装指导,承担部分软件售后技术支持工作。

7、企业临时交办的相关任务。

任职要求

1、计算机、信息IT类专业本科或以上学历,两年以上工作经验;

2、精通Linux操作系统、Windows操作系统、了解体系结构,以及邮件、网站等应用系统的维护、管理,熟练掌握Python/Shell/go/java等至少一门语言;

3、熟悉业界主流技术,如Nginx、Tomcat、Mysql、Postgresq等;

4、熟悉Zabbix、Nigos等监控工具,熟悉Saltstack、Ansible等自动化运维工具;

5、熟悉最新的计算机配置和服务器配置,并能独立部署,掌握排除一般软硬件故障的办法;

6、强烈的上进心和求知欲,善于分析和解决问题,较强的学习能力和沟通能力,良好的团队合作精神,能够熟练阅读涉及产品和技术的英文文档;

7、各种公有、私有云公司工作过,从事相关维护工作优先;有大数据存储架构设计部署、分布式文件管理等经验的'优先,有Python编程能力的优先;有网站开发编程经验或从事过Windows/Linux平台上的编程,或了解Oracle,MySQL,SQI Server等数据库中的一个或多个可以进行简单应用开发,或有参与过企业信息化项目经验者优先。

第二篇:大数据运维工程师工作的岗位职责

大数据运维工程师工作的岗位职责

大数据运维工程师需要明确工作范围,定期与客户沟通工作量,并获取客户回执,及时归档。以下是学习啦小编整理的大数据运维工程师工作的岗位职责。

大数据运维工程师工作的岗位职责1

职责:

1、负责公司大数据集群的构建,任务调度、监控预警,持续完善大数据平台,保证稳定性、安全性;

2、负责集群容量规划、扩容、集群性能优化及日常巡检和应急值守,参与大数据基础环境的架构设计与改进;

3、深入研究大数据业务相关自动化运维技术,持续优化集群服务架构,探索新的大数据运维技术及发展方向;

任职要求:

1、熟悉Linux系统及基础命令操作,能够独立编写Shell或Python脚本,开展日常服务器的运维工作;

2、熟悉并不限于大数据生态圈Hadoop、Strom、Spark、HDFS、Kafka、Zookeeper、Hbase、Redis、ElasticSearch、fastdfs

等相关基础组件的框架知识和运行原理;

3、熟悉软硬件设备,网络原理,有丰富的大数据平台(CDH、HDP)部署、集群运维和性能优化等经验;

4、具备一定的系统自动化运维理论体系和实际经验,能够利用各种开源监控工具、运维工具,HA、负载均衡软件完成工作任务;

5、具备较强的学习能力、抗压能力、动手能力和分析解决问题的能力;

6、熟悉JVM虚拟机调优;

7、熟悉jenkins持续集成;

8、有一定的文档编写能力;

9、能适应短期出差,有公安视频图像侦查业务方向经验者优先;

大数据运维工程师工作的岗位职责2

职责:

1.负责公司大数据平台的运维保障;

2.负责大数据平台的架构审核、业务监控、持续交付、应急响应、容量规划等;

3.为线上服务高效稳定运行负责,支撑业务和数据量的快速扩张;

4.负责生产及测试集群诸如故障定位恢复、系统安全、性能优化等;

任职要求:

1.计算机相关专业本科及以上学历,3年以上相关工作经验

2.精通Hadoop大数据生态圈,熟悉Hadoop各组件的原理,并有实际部署维护经验;包括但不限于HDFS、YARN、Kafka、Spark、HBase、Kerberos、Hive、Kudu、Zookeeper等;

3.具备很强故障排查能力,有很好的技术敏感度和风险识别能力,良好的服务意识,善于团队协作,项目管理,主动思考,自我驱动力强;

4.有相关动态编排容器技术和虚拟化技术工作经验者优先;

5.深入理解Hadoop各组件的原理和实现,有阅读源码能力者优先;

6.具备很强的ownership,故障排查能力,有很好的技术敏感度和风险识别能力。

大数据运维工程师工作的岗位职责3

1、负责建设大数据平台的规划、架构设计和技术选型;

2、开发和使用Hadoop大数据自动化运维与监控工具;

3、基于大数据应用需求,负责优化平台的性能,消除性能瓶颈,解决业务的疑难问题;

4、熟悉Hadoop、Hive、Hbase、Storm、Spark等技术框架; 熟悉java、scala、sqllite等相关技术;具备软件设计、编码开发测试、文档编写的能力;

5、积极了解业界发展、互联网相关新技术及趋势,参与规划公司大数据产品未来技术架构方向;

6、负责大数据平台内部所涉及到的各类数据库、数据存储的搭建、备份、日常维护、性能调优;以及大数据平台系统运维、监控和故障分析与处理;

7、能够很好的和其它团队的同事沟通协作;

8、负责文档的书写和完善,保证文档的及时更新;

9、有大型开源系统维护经验优先。

大数据运维工程师工作的岗位职责4

职责

1、负责企业大数据平台的运行监控维护,及时发现并解决平台故障和数据处理异常;

2、负责大数据平台的数据运营,开展数据采集和数据清洗稽核,保障数据质量,支撑应用开展需要,为数据应用开发团队提供支撑;

3、负责完善数据平台的运维监控和数据质量保障手段,负责相应运维脚本、数据分析脚本的开发和部署;

4、对数据平台运营情况进行分析和总结,并提出优化建议。

应聘资格要求

1.2019届全日制统招应届硕士及以上(特别优秀的可放宽至本科)(不含专升本、二级学院)。

2.英语水平:达到国家四级或四级考试425分以上。

3.身体健康,举止大方,具备良好的素质修养。

4、较强的执行能力、组织协调能力、学习分析能力、沟通协调能力及良好的文字表达能力。

5具有较高的企业忠诚度和良好的道德修养,爱岗敬业,有事业心、责任心、团队合作精神。

大数据运维工程师工作的岗位职责5

职责:

1、负责大数据环境的现场运维和实施。

2、负责大数据环境的故障分析、问题排除;

3、负责大数据环境(hadoop生态)集群环境安装、维护、部署、优化。

任职要求:

1、精通Hadoop生态圈各个组件原理。

2、具备Hadoop/Kafka/Zookeeper/Spark/Storm/Flume/Hive等集群运维经验者优先。

3、熟悉mysql、Oracle等主流数据库

4、熟悉linux操作系统、shell脚本

5、掌握Python/Shell/Java中至少1种开发语言;

第三篇:大数据运维工程师岗位的主要职责

1、承担团队的日常管理,如值班安排、工作分配、日常考评等;

2、组织制订、完善与本部门相关的管理制度、标准操作手册SOP、维护操作MOP和应急预案等;

3、组织制定中心基础设施保养计划,做好相关计划的实现、控制及优化工作;

4、审核、报批、组织实施各类变更申请、事件报告工作,做好相关应急工作的指挥与处理;

5、组织开展数据中心基础设施运行维护相关培训、训练与演练;

6、协助商务部与外包服务商洽谈相关维护服务合同,监督服务实施并要求进行审核与考评,确保相关基础设施的'稳定运行;

7、负责数据中心基础设施资源统计、容量预警工作,做好每月用水用电统计、PUE统计与分析;

8、配合数据中心进驻客户的场地选址、平面布局、改造实施、进驻管理等支持协调工作;

9、基础设施月报、环境报告的编写和提交;

10、数据中心基础设施的持续优化和改善;

11、负责上级主管领导交办的其它工作。

第四篇:大数据运维工程师岗位的主要职责

1) 承担团队的日常管理,如值班安排、工作分配、日常考评等;

2) 组织制订、完善与本部门相关的管理制度、标准操作手册SOP、维护操作MOP和应急预案等;

3) 组织制定中心基础设施保养计划,做好相关计划的实现、控制及优化工作;

4) 审核、报批、组织实施各类变更申请、事件报告工作,做好相关应急工作的指挥与处理;

5) 组织开展数据中心基础设施运行维护相关培训、训练与演练;

6) 协助商务部与外包服务商洽谈相关维护服务合同,监督服务实施并要求进行审核与考评,确保相关基础设施的稳定运行;

7) 负责数据中心基础设施资源统计、容量预警工作,做好每月用水用电统计、PUE统计与分析;

8) 配合数据中心进驻客户的场地选址、平面布局、改造实施、进驻管理等支持协调工作;

9) 基础设施月报、环境报告的编写和提交;

10) 数据中心基础设施的持续优化和改善;

11) 负责上级主管领导交办的其它工作。

第五篇:大数据运维工程师岗位的主要职责

职责:

负责网宿云各个产品线日常运维运营工作和自动化运维工具开发;

负责网宿云各个产品线自动化运维方案,疑难问题分析,告警优化;

具备良好的`沟通能力,能全链路推动产品质量,为产品线质量负责;

其他和以上工作相关的专项事务。

任职要求:

熟悉Linux操作系统,熟练应用常用命令(awk,sed,grep等),能分析并定位出系统常见的性能问题;

精通shell/python编程,或熟悉java编程,有项目开发经验者优先;

熟悉TCP/IP协议,能抓包做基本协议分析;

具备良好的分析和研究能力,热爱技术,有研发经验优先;

本科及以上学历,计算机相关专业,1年以上工作经验。

推荐专题: 大数据技术运维岗位职责

相关推荐
本站文档由会员上传,版权归作者所有,如有侵权请发送邮件至89702570@qq.com联系本站删除。
Copyright © 2010 - 千文网移动版
冀ICP备2020027182号