2022年大数据运维工程师岗位的主要职责是(十八篇)
范文为教学中作为模范的文章,也常常用来指写作的模板。常常用于文秘写作的参考,也可以作为演讲材料编写前的参考。相信许多人会觉得范文很难写?这里我整理了一些优秀的范文,希望对大家有所帮助,下面我们就来了解一下吧。
大数据运维工程师岗位的主要职责是篇一
2) 组织制订、完善与本部门相关的管理制度、标准操作手册sop、维护操作mop和应急预案等;
3) 组织制定中心基础设施保养计划,做好相关计划的实现、控制及优化工作;
4) 审核、报批、组织实施各类变更申请、事件报告工作,做好相关应急工作的指挥与处理;
5) 组织开展数据中心基础设施运行维护相关培训、训练与演练;
6) 协助商务部与外包服务商洽谈相关维护服务合同,监督服务实施并要求进行审核与考评,确保相关基础设施的稳定运行;
7) 负责数据中心基础设施资源统计、容量预警工作,做好每月用水用电统计、pue统计与分析;
8) 配合数据中心进驻客户的场地选址、平面布局、改造实施、进驻管理等支持协调工作;
9) 基础设施月报、环境报告的编写和提交;
10) 数据中心基础设施的持续优化和改善;
11) 负责上级主管领导交办的其它工作。
大数据运维工程师岗位的主要职责是篇二
职责:
根据产品需求,完成产品功能的设计、编码、测试和发布;
现场项目支持工作,对现场反馈工单问题进行分析、定位和解决;
对现场项目提出的新需求进行分析、设计并完成;
根据产品和技术发展要求,完成平台的设计、开发和支持维护工作。
职位要求:
本科及以上学历,计算机、软件工程相关专业,3年以上相关工作经验;
精通sql、greenplum/postgresql、impala、oracle、mysql至少1种技术、可融汇贯通灵活转换使用;
熟悉hadoop平台zookeeper、hdfs、spark、mr及hbase等常用组件的运行原理;
基于linux/unix平台进行shell、python的常用脚本开发。
大数据运维工程师岗位的主要职责是篇三
职责:
1、负责hadoop、hbase、hive、spark等大数据平台 规划、部署、监控、系统优化等,确保高可用;
2、负责公司大数据平台的运维管理工作,集群容量规划、扩容及性能优化;
3、处理公司大数据平台各类异常和故障,确保系统平台的稳定运行;
4、设计实现大规模分布式集群的运维、监控和管理平台;
5、深入研究大数据业务相关运维技术,持续优化集群服务架构,探索新的大数据运维技及发展方向。
任职要求:
1、熟悉hadoop/hbase/hive/spark/kafka/zookeeper等开源项目的安装与调试,升级扩容;
2、熟悉hadoop大数据生态圈,包括但不限于hdfs、yarn、hive、hbase、spark、kafka、flume等;
3、精通一门以上脚本语言(shell/perl/python等),熟练掌握linux系统及常规命令与工具,熟练的shell脚本编写能力。
大数据运维工程师岗位的主要职责是篇四
职责:
1、负责公司大数据平台自动化运维开发、监控和优化工作,保障数据平台服务的稳定性和可用性;
2、负责公司hadoop核心技术组件日常运维工作 ;
3、负责公司大数据平台现场故障处理和排查工作;
4、研究大数据前沿技术,改进现有系统的服务和运维架构,提升系统可靠性和可运维性;
任职要求:
1、本科或以上学历,计算机、软件工程等相关专业,3年以上相关从业经验
2、精通linux运维命令,熟悉linux的维护和管理,熟悉shell/python脚本开发,掌握scala/java优先;
3、熟悉大数据项目实施:包括不限于kafka、hadoop、hive、hbase、spark等大数据生态的平台搭建,监控和调优;
4、良好团队精神服务意识,沟通协调能力;
大数据运维工程师岗位的主要职责是篇五
职责:
1.负责大数据管理平台产品的运维支撑工作,包括项目实施(安装、调优、培训)、项目联调以及其他日常维护等;
2.负责大数据管理平台产品的自动化运维相关脚本的开发、维护等;
3.参与大数据管理平台其他相关工作;
4.领导交付的其他事宜任职要求
任职要求:
1.熟悉linux(redhat/centos)软硬件环境、系统管理和优化,熟练部署、优化各种常用服务,熟练使用linux 命令;
2.具备一定的故障排查能力,能够独立排查及解决操作系统层的各类问题,有良好的技术敏感度和风险识别能力,熟悉一门以上脚本语言(shell/python等);
3.熟悉hadoop大数据生态圈,包括但不限于zookeeper、hdfs、yarn、hive、hbase、spark、kafka、flume、es、mysql等;
4.熟悉hadoop各组件的原理和实现,有实际部署维护、管理( 包括元数据管理)及优化经验,并拥有持续调优能力,运维管理过大规模数据平台经验者优先考虑;
5.熟悉掌握常用的安全协议和组件服务,对hadoop各组件的权限、安全、kerberos进行配置管理。熟悉ssl、acl、kerberos等在大数据环境场景的使用;
6.大型节假日需低频次维护各项目,可以调休;
7.具备良好的服务意识,善于主动思考,自我驱动力强。有良好的沟通、协调能力,富有团队精神,有较强的文档编写能力;
8.本科或硕士毕业于211、985等国内知名高校者优先(注意,仅是加分项,不是必须);
9.有实际工作经验者优先;
大数据运维工程师岗位的主要职责是篇六
职责:
1、负责公司大数据/hadoop/hive/hbase/flink等离线实时数据平台运维保障;
2、负责内部大数据自动化运维以及数据化运营平台开发工作;
3、负责hadoop/hbase等系统的业务监控、持续交付、应急响应、容量规划等;
4、深入理解数据平台架构,发现并解决故障及性能瓶颈,打造一流的数据平台;
5、持续的创新和优化能力,提升产品整体质量,改善用户体验,控制系统成本。
6、善于表达、理解客户数据服务需求,具备数据需求转化落地能力。
任职要求:
1、大学本科及以上学历,计算机或者相关专业;
2、深入理解linux系统,运维体系结构,精于容量规划、性能优化;
3、具备一定的开发能力,精通一门以上脚本语言;(shell/perl/python等),熟悉java等开发语言一种及以上优先;
4、具备很强的故障排查能力,有很好的技术敏感度和风险识别能力;
5、能够承受较大的工作压力,以结果和行动为准则,努力追求成功;
6、熟悉hadoop、hbase、hive、spark、tez等原理并具备管理,配置,运维经验;
7、熟悉分布式系统设计范型,有大规模系统设计和工程实现的了解者优先。
8、具有运营商流量数据加工处理经验者优先。
大数据运维工程师岗位的主要职责是篇七
职责:
1、负责应用系统的日常管理与运行维护;
2、负责日常计算机及网络维护,提供it软硬件软件方面的服务与支持;
3、负责服务器系统、数据库、常用服务支撑软件的安装、维护、迁移、故障处理;
4、负责不同开发环境持续集成搭建、优化及维护;
任职要求:
1、3年以上相关经验,大专以上学历,二年以上大中型在线系统运维的工经验,会python优先
2、至少掌握一门脚本语言,如shell、perl、python等等;
3、熟悉mysql数据库的管理,熟悉mysql备份和恢复、mysql mmm复制以及mysql的性能调优;
4、有一定的mysql数据库的运维经验,了解redis/activemq/kafka/tomcat/nginx等开源软件;
5、熟悉svn/git等源代码管理工具,至少熟悉一种主流的持续集成工具(jenkins、teamcity、crusecontrol等);
6、熟悉运维监控工具,如zabbix等;
7、有较好的团队管理和组织协调能力,具有良好的职业道德和团队协作精神,具备积极主
大数据运维工程师岗位的主要职责是篇八
职责:
1、负责客户提供现场生产问题支持、运行环境部署和系统日常运行维护工作;
2、接听用户电话、解答回复用户反馈的问题;
3、做好客户跟踪、回访及支持、维护工作,及时解答处理客户使用系统过程中出现的问题;
4、记录问题跟踪日志,定期总结问题报告,配合开发部门完善系统功能。
任职资格:
1、大专及以上学历,计算机或网络相关专业毕业。
2、熟悉oracle数据库和unix/linux 系统,具有一定的数据库操作能力;
3、具备较强的客户沟通能力,能够耐心、迅速的分析并理解客户提出的问题和需求;
4、具备良好的团队合作精神、高度的责任感,对工作积极严谨;
5、注重细节,工作细心,有良好的规范化文档书写能力。
6、能够出差到客户现场进行维护工作
大数据运维工程师岗位的主要职责是篇九
职责:
1、负责智慧化菜场项目上的网络安全运行与维护;
2、根据业务需求进行调试、优化和部署;
3、负责弱电的设计与设备配置;
4、现场的技术支持及运维服务。
岗位要求:
1、专科及以上学历,计算机相关专业;
2、1年及以上it相关工作经验,有项目经验的优先考虑;
3、熟练掌握网络设备的配置及网络维护知识;
4、熟练掌握windows server或linux;
5、优秀的沟通能力,较强的服务意识。
大数据运维工程师岗位的主要职责是篇十
职责
1、熟悉公司运维流程和系统,对于系统性的问题处理流程具有概念性的理解。
2、熟练掌握公司各个应用系统,为用户提供技术支持,解决用户问题,并完善作业指导书;
3、定期分析和总结用户请求,不断完善常见问题解决方法;
4、执行和反馈,维护公司的各个新、旧系统上线或升级工作,并推动实施;
5、定期及时的提供数据报表或提取相应的分析数据;
任职资格:
1.计算机、电子及相关专业,大学本科以上学历,英语cet-4以上;
2.具有计算机软件领域1年以上的工作经验,具有大型it系统实施和运维管理经验者优先考虑;
3.专业技能: 熟练主流的主机、网络、安全、数据库系统产品,精通各种办公软件;
4.具备较强的分析、判断能力;较强文字、语言表达能力;以及善于团队管理和培训工作;
5.能够承受较强的工作压力,能适应团队协作工作环境,适应快节奏的工作;
以下经验者优先考虑:
1.能够使用中文和英语进行流利的书面沟通和口头沟通。
2.具有iot物联网,java软件部署实施经验为佳;
3.有相关开发经验,了解j2ee架构,或有自动化测试经验者为佳;
4.对于linux系统运维和系统架构有相关监控和维护的经验。
5.具有撰写公司内部文档和流程的经验和能力。
大数据运维工程师岗位的主要职责是篇十一
职责:
1、熟悉基础网络知识,熟悉tcp/ip协议工作原理;
2、熟悉web相关技术,包括apache/nginx/tomcat、memcached/redis/mysql等应用服务的安装、配置和维护;
3、熟悉服务器硬件,具备系统、应用软件的报错及故障定位、处理的能力;
4、检测、跟踪和分析流行安全漏洞、设计和实施防御方案。
任职要求:
1、专科及以上学历,专业不限;
2、有linux理论基础,热爱技术岗位,能够及时补充自己技术缺陷;
3、有团队意识,责任心强,对自己有一定的规划;
4、至少掌握shell/python其中一种脚本编程;
5、批量、自动化管理服务器集群的能力,有较强的技术文档总结性工作的经验。
大数据运维工程师岗位的主要职责是篇十二
职责:
1.监控并分析系统的运行状况,监控结果并定期报告,提出系统的优化方案与建设建议。
2.系统事件响应与系统维护:进行系统事件的响应,分析,进行系统故障的判断并与供应商商讨合理解决方案,并提供定期报告。
3.系统变更(含上线前测试与上线):完成公司信息系统的系统变更/升级,进行应用系统软件相关厂商进行审核,上线前测试等,确保服务质量。
4.系统非功能测试(性能与容量)与维护。参与集中交易类系统非功能的测试与调优。
5.容灾维护与演练:参与数据备份、容灾方案的维护与演练。
岗位要求:
1.大专或以上学历,至少1年以上券商工作经验;优秀的应届本科毕业生也可以考虑;
2.有良好的协调沟通能力,负责与系统供应商之间进行沟通
3.熟悉“工作系统”所列举的部分相关系统;
4.熟悉linux系统基本操作;
5.熟悉tomcat应用及部署
6.熟悉oracle、sqlserver数据库基本操作。
7.学习能力强,有较强的责任心、团队合作意识及敬业精神;
大数据运维工程师岗位的主要职责是篇十三
职责:
1、负责zabbix监控优化、日常告警分析处理;
2、协助开发构建管理系统环境,不断优化系统架构、提升部署效率、优化资源利用率;
3、虚拟化管理,主动协调资源推动问题解决;
4、参与系统的监控方案、容灾方案、自动化运维方案的制定和实施。
5、完成协作团队领导分配任务。
任职要求:
1、大专以上学历,具有5年以上运维工作经验;
2、专业知识与技能要求:
a、熟悉常用的linux命令,具有shell或python脚本编写能力;
b、熟悉mysql、mongodb、 ,elasticsearch 等数据库常用的操作;
c、熟悉zabbix,prometheus监控系统;
d、有腾讯云等云平台使用经验者优先。
3、有 ,k8s经验;
4、较好的抗压能力、问题分析与解决能力;
5、较强的责任感,良好的沟通与协调能力。
大数据运维工程师岗位的主要职责是篇十四
职责:
1、游戏服务器的日常系统运维工作,包括:环境部署搭建,服务器的监控、升级、安全、性能优化,游戏数据库管理等;
2、研究系统的服务架构,实现性能优化和提高系统的健壮性;参与制定和改进应急预案、策略和流程,提高服务运行质量;
3、配合开发人员进行软件系统、服务器环境部署,参与运维支撑平台的建设;
4、保障游戏服务器长期,安全,稳定的运行。
任职要求:
1、对centos、windows、suse等操作系统有一定的理解和把握,至少一年以上相关经验;
2、掌握linux下shell,perl或python等一种以上的系统环境编程语言;
3、熟悉常用数据库(mssql/mysql等)的操作管理及参数配置, 熟悉常用web软件(nginx, tomcat等)操作管理及参数配置;
4、对技术敏感而细致,乐于发现,对解决具有挑战性问题充满激情;
5、具备良好的敬业精神和高度的责任心,能适应高强度工作;
6、了解自动化运维或有游戏运维经验者优先。
大数据运维工程师岗位的主要职责是篇十五
职责:
i、负责hadoop集群的安装部署、维护及调优:
2、负责spark的安装邮署、维护及调优:
3、负责基于大数据平台开发的应用系统的部署、日常维护、调优和问题处理
4、负责elk 平台的部署及维护。
技能要求:
1 、2年以上大数据运维工仵经验;
2、熟悉hadoop生态圈技术栈及各个组件原理:
⒊、熟练掌握hdfs、hive、hbase、sρark、sqooρ 等组件,具备部署、维护、调优的能力:
4、热悉kylin技术原理,有一定的维护经验优先:
5、掌掇elk的日常维护技能·有一定的维护.经验优先:
6、有一定的hql/sql 性能调优经验;
7、具备基本的 java、python等语言开发能力优先:
8、有较强的沟通、团队协作及学习能力。
大数据运维工程师岗位的主要职责是篇十六
职责:
1、负责项目现场的运维工作,及时响应用户的现场问题、需求及相关工作;
2、配合公司的开发、测试、服务部门,进行现场的支撑工作;
3、配合公司商务及销售部门完成相关技术工作;
任职要求:
1、熟练掌握并配置windows、linux、ad域、中间件等相关知识;
2、熟悉oracle、mysql、db2数据库的安装及维护,熟练掌握sql语言;
3、有较强的沟通协调能力,较强的文档协作功底;
4、有较强的抗压能力,能适应一定程度的加班工作。
大数据运维工程师岗位的主要职责是篇十七
职责:
1、负责应用的测试、运行保障,版本发布、变更、监控、测试环境维护;
2、负责业务系统故障处理、定位并解决网络、硬件、操作系统及应用程序的各种异常;
3、负责应用系统的性能分析与系统优化,不断提高系统运行效率;
4、负责镜像仓库和版本发布的管理工作,制定镜像、产品的发布和部署相关流程;
5、负责开发运维系统的自动化和标准化工作;
6、响应和支撑开发部门进行服务器/虚拟机的设置和管理。
任职要求:
1、精通操作系统管理(centos/redhat/winserver);
2、熟悉shell、python;
3、熟悉常用的开源监控工具,如zabbix、cacti、nagios等;
4、熟悉lvs、haproxy等负载均衡技术;
5、熟悉如下应用的安装、配置、性能调优、备份/恢复:nginx、apache、oracle、mysql、neo4j、redis、tomcat;
6、熟悉常规的虚拟化技术,如xen、kvm、lxc、vmware、vsphere。
大数据运维工程师岗位的主要职责是篇十八
职责:
1.负责服务器的搭建、部署、监控、调优、升级、日常维护和管理工作;
2.负责处理系统方面日常变更、控制突发情况,对疑难问题进行分析并解决;
3.支持服务器系统部署、应用调整和优化,提高操作效率,增强系统可用性;
4.云台与产品发布迭代,升级部署。
【任职要求】
1.了解各种计算机软硬件,可独立进行安装、调试及故障排除;
2.了解局域网的维护及网络安全知识,可熟练进行局域网的搭建和网络设备的基本维护和故障处理;
3.知道运用linux服务器进行维护与管理;
4.了解nginx,tomcat等相关服务部署;
5.了解mysql数据库管理、监控和备份优先;
6.了解常见云如阿里云使用。