千文网小编为你整理了多篇相关的《大数据技术运维岗位职责(合集)》,但愿对你工作学习有帮助,当然你在千文网还可以找到更多《大数据技术运维岗位职责(合集)》。
职责:
1.负责Hadoop、spark、hbase、oozie、hive等平台运营和优化工作,保障平台服务运行稳定、高效。
2.负责大数据方案架构及方案落地;
3.开发Hadoop大数据管理平台与监控建设;
3.负责hadoop平台部署、维护;生产问题、告警、故障处理及服务器维护、日常值班;
4.负责集群网络架构、机器管理等。
任职资格:
1. 全日制本科以上学历,三年以上后台系统运营工作经验;
2. 熟悉hadoop原理,具有Hadoop平台应用及管理经验,熟悉hadoop、hive、spark、hbase、oozie、druid、kylin、flink等开源项目及部署、维护、调优;
3. 熟悉linux操作系统及调优;熟悉sql编程,熟悉Shell/Python/Java/Perl语言的一种或多种,有开发经验优先, 熟悉nagios,cacti,ganglia,zabbix,zenoss优先;
4. 对大数据和自动化运维开发有浓厚兴趣,有大规模hadoop运维经验者优先;有hadoop/hbase/spark/hive 开发经验者优先。
1、负责客户提供现场生产问题支持、运行环境部署和系统日常运行维护工作;
2、接听用户电话、解答回复用户反馈的`问题;
3、做好客户跟踪、回访及支持、维护工作,及时解答处理客户使用系统过程中出现的问题;
4、记录问题跟踪日志,定期总结问题报告,配合开发部门完善系统功能。
职责:
1,负责软件系统的部署运行;
2、负责业务数据系统接入的规划和实施;
3,理解行业业务,梳理业务数据模型;
4,完成项目实施过程中各类文档的编写、收集、整理、归档;
5,与客户保持密切沟通,建立良好的客户关系,保障良好的客户满意度;
有效的分析和控制客户需求,解决项目实施过程中遇到的质量问题和管理问题。
岗位要求:
1、全日制本科以上学历,软件工程、计算机科学相关专业;
2、3年以上的软件/项目管理实施经验;
3、熟悉Linux操作,熟练编写shell/python脚本;
4、了解常用开源分布式系统Hadoop/Spark/Hive/Hbase;
5、熟练使用SQL语句,熟悉ETL工作;
6、熟悉Oracle,mysql等关系型数据库;
7、具有强烈的责任感与团队合作精神,出色的沟通及学习能力;
8、有较强的分析问题能力,独立解决问题能力,能接受在客户公司办公。
1、负责公司大数据/Hadoop/hive/hbase/flink等离线实时数据平台运维保障;
2、负责内部大数据自动化运维以及数据化运营平台开发工作;
3、负责Hadoop/Hbase等系统的业务监控、持续交付、应急响应、容量规划等;
4、深入理解数据平台架构,发现并解决故障及性能瓶颈,打造一流的`数据平台;
5、持续的创新和优化能力,提升产品整体质量,改善用户体验,控制系统成本。
6、善于表达、理解客户数据服务需求,具备数据需求转化落地能力。
职责:
负责优化公司信息系统整体规划,建立健全公司网络安全体系,确保信息安全;
监控IT系统日常运行,确保公司网络安全及各网络系统的正常稳定(服务器、防火墙、交换机、路由器);
负责运维数据的分析,找出瓶颈,评估容量,完成扩容、架构改造等工程;
保障系统正常高效运行,设计自动化运维方案,制定管理策略;
负责公司所有相关IT设备的管理工作,协助公司软件的.选择和 IT咨询服务;
负责运维团队的管理,制定团队工作目标,培养运维人才。
任职要求:
本科以上学历,计算机相关专业,5年以上相关工作经验;
精通Linux系统,具有丰富的系统管理、故障处理与性能调优经验;
熟悉各种虚拟化技术,分布式管理、容错、备份,负载均衡等技术;
精通Shell/Python等至少一门脚本语言;
熟悉通信及IP网络的架构、设备、使用配置和日常维护;
有微服务化持续集成、交互,灰度发布经验者加分;
有Docker、Kubernetes等容器化解决方案经验者加分。
1、负责应用系统的日常管理与运行维护;
2、负责日常计算机及网络维护,提供IT软硬件软件方面的服务与支持;
3、负责服务器系统、数据库、常用服务支撑软件的'安装、维护、迁移、故障处理;
4、负责不同开发环境持续集成搭建、优化及维护。
推荐专题: 大数据技术运维岗位职责