『壹』 大数据运维岗位是干什么的
大数据运维指互联网运维,通常是属于技术部门。其职责:负责大数据平台的稳定性和性能优化;大数据项目的运维亏颂工作;针对业务的需求制定运闷空陵维解决方案;完善监控报警系统,对业务关键指标进行监控蚂戚和报警通知;负责大数据的方案架构及方案的落地;负责集群网络架构及机器的管理等
『贰』 大数据架构师的基本职责
大数据架构师需要参与规划从数据源到数据应用的整体流程,并参与相关产品的决策。下面是我为您精心整理的大数据架构师的基本职责。
大数据架构师的基本职责1
职责:
1.负责整个大数据平台架构的设计和构建;
2.负责构建大数据平台的数据交换、任务调度等通用平台;
3.制定开发、测试、实施、维护的标准和规范,指导和培训工程师,不断提升团队能力。
4.参与系统需求分析、架构设计、技术选型、应用设计与开发以及测试与部署,负责编写核心部分代码。
5.持续挑战新的技术方向,攻克大数据量、高并发、高可用、可扩展等技术难点。
任职要求:
1.3年以上大数据架构经验,丰富的数据仓库、数据挖掘、机器学习项目经验
2.大规模数据处理的架构和设计实战经验
3.精通Spark、MR,熟练HDFS、Yarn、Hbase、Hive、MongoDB,熟悉Kafka、Redis、Storm、Mahout、Flume、ElasticSearch、GraphDB(NEO4J或其他)等,并具有丰富的大型数据平台工程经验
4.深刻理解大数据处理(流计算,分布式计算,分布式文件系统,分布式存储等)相关技术和实现方法
5.熟悉主数据、元数据、数据质量等企业数据管理相关的体系和方法,熟练linux/Unix平台上的开发环境
6.本科或以上学历,计算机软件或相关专业,丰富的java开发经验和互联网背景优先。
7.具有比较强的问题分析和处理能力,有比较优秀的动手能力,热衷技术,精益求精
大数据架构师的基本职责2
职责:
1. 深刻理解政府行业业务模式,构建政府行业的数据模型,制定公司大数据技术发展路线;
2. 对接业务研究和技术部门,主动搜集和转化需求,组织数据中心业务开发,进行数据相关产品需求分析和设计;
3. 搭建数据仓库,研发数据库管理系统,搜集、提取、处理业务积累的海量数据,开展数据分析和挖掘;
4. 根据公司战略和发展需要,规划数据中心重点工作和任务;落实部门人员、事务管理,开展跨部门、跨地区协作,协助对外交流与合作。
职位要求:
1. 5年以上相关工作经验,有团队管理和项目管理经验者优先;
2.了解政府运作机制,掌握财政行业知识,有电子政务行业经验者优先;
3. 熟练掌握使用Java或Python,精通数据库查询语言如SQL,Oracle等,在机器学习模型和算法方向有应用经验者优先;
4. 具备数据中心产品策划整体思维,有大数据处理、分析、挖掘经验者优先;
5. 逻辑思维严密,具备业务抽象、分解和标准化的能力,口头和书面表达优秀;
6. 有较强的大局意识和良好的团队合作意识,富有领导力,具备优秀的人际交往和沟通能力。
大数据架构师的基本职责3
职责:
1、从事电信行业大数据项目相关业务调研、产品标准建设、核心模型设计和优化、系统测试等相关工作
2、与数据专业委员会一起研究数据建模方案和建模工具,负责产品线产品的数据架构、数据模型设计
3、参与研究数据库之间的数据转换方式,参与项目中的数据移植工作,收集在项目中的数据移植经验,优化产品的数据模型
4、负责培训本部门队伍的数据模型基础理论工作,建立数据模型团队
岗位要求:
1、统招本科学历,3年以上主流数据上(DB2、Oracle、SQLServer、Mysql等)ETL设计、开发经验,具备大型数据仓库逻辑模型和物理模型设计经验,精通SQL,有较好的SQL性能调优经验;
2、拥有Python,R等数学建模工具的使用经验,并具备一定的数据处理和建模经验,可以输出相应的模型分析结果、模型比较、模型效率以及对模型的理论和判断依据方法并对其进行完整的解释和说明;
3、熟悉统计学基本原理,做过实战的数据建模项目;
4、有分布式数据仓库建设相关经验者优先,具备电信行业数据仓库建设相关经验者优先;
大数据架构师的基本职责4
职责:
1、负责大数据平台的架构设计、核心代码开发等任务;根据项目要求编写相关技术文档;
2、负责大数据平台的架构评审,代码评审,上线评审;参与数据应用需求、设计、审核和评审;
3、负责核心模块研发,负责大数据平台的搭建,完成系统调试、集成与实施;
4、负责建立和维护大数据平台技术标准规范,指导开发人员编写代码;
任职要求:
1、本科及以上计算机相关专业毕业;
2、精通离线和实时数据处理流程,掌握离线数据处理框架hive、impala、spark-sql等,掌握实时数据处理常用技术工具,包括Storm、SparkStreaming等;
3、熟悉大数据技术生态圈,精通大数据技术架构,有大数据平台构建经验;
4、掌握常见数据流接入工具,包括Flume、kafka等;
5、熟练掌握基本的Linux操作系统和某种脚本语言编程(如Shell等);
6、掌握一种或以上实时处理语言,如JAVA、SCALA、PYTHON等,有SCALA经验者优先;
7、有实际大规模数据(TB级以上)处理经验优先;
大数据架构师的基本职责5
职责:
1、负责公司的大数据处理框架的研发设计工作,梳理可实现方案和技术规范;
2、开发、完善公司大数据平台;参与公司离线、实时大数据处理系统的设计、开发、测试及多个业务模块的自动化集成;
3、负责业务平台数据统计分析模块的设计与规划;
4、负责公司产品研发过程中的数据及存储设计;
5、带领和培养团队完成组织分解的目标;
任职要求:
1、统招本科及以上学历,计算机、软件工程相关专业,至少8年以上工作经验,5年以上大数据开发经验;
2、熟悉Java、Hadoop、HDFS、Hive、HBase、Spark、Storm、Flume等相关技术的基础架构
3、熟悉数据仓库,数据算法,分布式计算技术理论,具有大数据整体系统架构设计经验;
4、熟悉Linux系统,熟练使用shell/perl/python脚本处理问题;
5、对深度学习框架(Tensorflow)和机器学习(svm 随机深林贝叶斯等)有一定了解的优先;
6、能够组织项目开发组协同工作,包括团队沟通、计划、开发环境管理等
『叁』 大数据开发工程师的基本职责-岗位职责
大数据开发工程师的基本职责-岗位职责
在学习、工作、生活中,很多情况下我们都会接触到岗位职责,明确岗位职责能让员工知晓和掌握岗位职责,能够最大化的进行劳动用工管理,科学的进行人力配置,做到人尽其才、人岗匹配。我们该怎么制定岗位职责呢?以下是我为大家整理的大数据开发工程师的基本职责-岗位职责,仅供参考,欢迎大家阅读。
职责:
1、参与大数据平台搭建以及项目技术架构。
2、数据分析,挖掘,模型具体的产品化;
3、根据产品需求,分析编写和制定大数据相关解决方案
岗位要求:
1、计算机相关专业本科以上学历,编程基础扎实,有2年以上大数据开发经验
2、熟悉Hadoop生态和体系架构,熟悉Flink、Spark,Hive等常用开源工具
3、熟悉Flume,kakfa,scribe等日志收集体系
4、熟悉主流数据库(Oracle、postgresql、Mysql、Sql Server)中的1种及以上,有较好的SQL性能调优经验
5、有数据仓库ETL经验者优先
6、有用户行为日志采集、海量数据处理、数据建模方面经验者优先
7、有持续学习的能力;喜欢开源软件,乐于知识分享;对工作认真负责;可以独立承担较大工作压力
职责:
1、数字货币领域数据统计分析,负责数字货币量化投资策略的设计、管理以及实际投资运作
2、与交易员对接,制定切实可行的的'策略测试计划,开展新策略模型的开发和验证
3、协助交易员进行交易、风险管理,并对实际交易结果进行量化的绩效分析,推动交易自动化
4、上级交办的其他工作
任职要求:
1、数学/计算机/金融专业毕业,有扎实的算法和机器学习的理论基础
2、有量化实盘交易经验,具备丰富的数学建模经验及较强的数据处理能力优先
3、对金融市场的价格波动有独特理解和深入的量化分析,具备一定对冲策略研究经验;
4、对数字货币领域感兴趣,结果导向;
5、有网页抓取和爬虫程序编写经验者优先。
职责:
1、大数据日志分析系统的设计,选型和开发;
2、配合各业务给予数据支持,对产品和运营数据总结和优化;
3、处理用户海量数据,提取、分析、归纳用户属性,行为等信息,完成分析结果;
4、发现并指出数据异常情况,分析数据合理性;
5、公司大数据基础架构平台的运维,保障数据平台服务的稳定性和可用性;
6、大数据基础架构平台的监控、资源管理、数据流管理;
7、基于数据分析的可预测的云平台弹性扩展解决方案。
任职要求:
1、日志分析数据系统实际经验;
2、3年以上互联网行业研发经验,有使用Hadoop/hive/spark分析海量数据的能力;
3、掌握Hadoop、Flume,Kafka、Zookeeper、HBase、Spark的安装与调试;
4、熟悉大数据周边相关的数据库系统,关系型数据库和NoSQL。
5、掌握Linux操作系统的配置,管理及优化,能够独立排查及解决操作系统层的各类问题;
6、有良好的沟通能力,具备出色的规划、执行力,强烈的责任感,以及优秀的学习能力。
职责:
1、负责数据分析、加工、清理、处理程序的开发;
2、负责数据相关平台的搭建、维护和优化;
3、负责基于Hadoop/Spark/Hive/kafka等分布式计算平台实现离线分析、实时分析的计算框架的开发;
岗位要求:
1、本科学历须211院校以上,硕士及以上学历不限院校,计算机软件及相关专业
2、熟悉Java和Scala语言、熟悉常用设计模式、具有代码重构意识;
3、熟练使用hadoop、hbase、Kafka、hive、spark、presto,熟悉底层框架和实现原理;
4、使用Spark Streaming和Spark SQL进行数据处理,并具有SPARK SQL优化经验;
5、需要有至少2年开发经验,有flink开发经验优先;
6、学习能力强,喜欢研究新技术,有团队观念,具备独立解决问题的能力。
职责:
1、负责大数据平台的基础环境搭建与性能优化,完成平台的构建与维护、实时流计算平台、分布式调度、可视化报表等平台的架构与研发;
2、对各种开源框架进行深入的代码剖析和优化;
3、参与大数据技术方案评审;
4、指导初中级大数据工程师工作;
岗位要求:
1、计算机相关专业全日制专科及以上学历,具有3年或以上的分布式计算平台研发工作经验;
2。对大数据相关组件:Hadoop、Spark、Hbase、Hive、Flink、Kafka、Flume等架构与底层实现有深入理解,具备相应的定制和研发能力,尤其需要精通Flink框架;
3。具备构建稳定的大数据基础平台的能力,具备数据收集、数据清洗、数据仓库建设、实时流计算等系统研发经验;
4。对技术有热情,有不错的数据思维和敏感度,有一定的数据分析能力优先,对深度学习、机器学习有一定的了解优先;
5。工作有计划性,责任心和执行能力强,具备高度的责任心、诚信的工作作风、优秀沟通能力及团队精神。
;『肆』 大数据架构师工作职能有哪些
职责一:全局复的技术规制划
全局技术规划是专职架构师必须要做的工作,全局技术规划要能非常明确的指引整个团队在同一时间向同一个方向前进,这对架构师的心力和体力都是有很大的考验,全局规划不仅要与业务紧密沟通,还必须有对应的技术深度和广度,应采取正确的方法论,勇敢做出判断和决策!
职责二:统一的方法&规范&机制
专职架构师不仅要能够做出全局技术规划,还要能提供统一的方法、规范和机制以保障全局技术规划的顺利有序进行,这是一项相对复杂且繁琐的过程,需进行全方位的拆解,直到权责清晰对等。
职责三:完备的基础构建
基础构建的完备程度对全局技术规划来说是十分重要的,为全局技术规划得以顺利实施提供了强大的武器库,因此,专职架构师要制定完备的基础构建。
职责四:落地的规划才是架构
这是对专职架构师最大的挑战,专职架构师应实时关注全局技术规划实施的进度,把控发展的方向,以确保与规划预期结果保持一致!
『伍』 大数据开发所在的部门名称
大数据事业部。
岗位职责:负责构建分布式大数据服务平台,包含大数据存储,离线/实时计算,实时查询,大数据系统运维等工作。基于大数据平台完成各类统计和开发任务,承担数据抽取、清洗、转化等数据处理。熟悉业务形态,参与需求分析和方案设计。协助承担架构性体系工作,配合技术实施方案、交流材料的编写。从事大数据相关技术研究,跟进大数据技术发展方向。
大数据(bigdata),或称巨量资料,指的是所涉及的资料量规模巨大到无法透过主流软件工具,在合理时间内达到撷取、管理、处理、并整理成为帮助企业经营决策更积极目的的资讯。
『陆』 大数据运维工程师的具体职责描述
大数据运维工程师需要负责公司大数据平台的运维管理工作,集群容量规划、扩容及性能优化。下面是我为您精心整理的大数据运维工程师的具体职责描述。
大数据运维工程师的具体职责描述1
职责:
1、负责数据平台的运维管理工作(部署、监控、优化、故障处理);
2、负责Hadoop/Spark/Flink/Elasticsearch/Kafka等系统的架构审核、容量规划、成本优化;
3、负责大数据平台的用户管理、权限分配、资源分配;
4、参与数据挖掘、机器学习的平台的设计、并给出可执行的运维方案;
5、参与数据平台的相关工具开发(包括自动化部署、监控、ETL等);
6、深入理解数据平台架构,发现并解决故障隐患及性能瓶颈;
7、ETL工具、调度工具、关系型数据库的运维。
任职资格:
1、本科以上学历,计算机软件相关专业;
2、1年以上大数据相关组件运维经验(hadoop/yarn/hbase/hive/spark/kafka等),1年以上的CDH或HDP维护经验,3年以上系统运维相关经验;
3、深入理解Linux系统,能独立部署开源软件,熟练掌握一门以上脚本语言(shell/perl/python等),熟悉python开发语言优先;
4、逻辑思维能力强,做事有条理,责任心强,工作积极主动,执行力强,有良好的团队协作意识。
大数据运维工程师的具体职责描述2
职责
1. 负责大数据ETL系统,运维及保障服务稳定可用;
2. 负责数据采集交换方案以及联调测试;
3. 负责采集交换任务的评审和上线;
4. 负责及时排除ETL流程故障,形成知识库,完善运维文档;
5. 负责监控和优化ETL的性能,持续性地提出改进自动化运维平台建议
技能要求
1. 计算机科学或相关专业本科及以上学历;
2. 熟悉Linux系统,熟练编写shell/perl/python一种或多种脚本语言;
3. 熟悉Hive、Hadoop、MapRece集群原理,有hadoop大数据平台运维经验者优先;
4. 熟悉数据库的性能优化、SQL调优,有相应经验;
5. 抗压能力强,有强烈的责任心,良好的沟通能力、学习能力及团队合作能力。
大数据运维工程师的具体职责描述3
职责:
1、负责分布式大数据平台产品的运维和运维开发,保证其高可用和稳定性;
2、负责大数据系统架构的可运维性设计、容量规划、服务监控,持续优化服务架构、集群性能;
3、通过技术手段控制和优化成本,通过自动化工具及流程提升大数据平台运维效率;
4、为项目开发人员提供大数据技术指导及解决大数据平台应用中遇到的技术难题;
任职资格:
1、三年以上大数据运维相关工作经验,有大型互联网公司工作经验者优先,全日制本科及以上学历;
2、熟练掌握至少一门开发语言,有Java或Python语言开发经验优先;
3、精通Hadoop生态及高性能缓存相关的各种工具并有实战经验,包括但不限于Hadoop、HBase、Hive、Presto、Kafka、Spark、Yarn、Flink、Logstash、Flume、ClickHouse等;
4、熟悉Mysql等常用关系数据库,熟练编写SQL语句,有分布式nosql数据库应用、性能调优经验优先;
5、熟悉Linux环境,能够熟悉使用shell脚本;
6、对大数据技术有强烈兴趣,有志于往大数据方向深层次发展;
7、具有很强的责任心、执行力、服务意识、学习能力和抗压能力;
8、具备较好的沟通能力、主动性及责任感。
大数据运维工程师的具体职责描述4
职责:
1、负责大数据集群的日常维护、监控、异常处理等工作,保障集群稳定运行;
2、负责大数据批处理管理以及运维;
3、负责大数据集群的用户管理、权限管理、资源管理、性能优化等;
4、深入理解数据平台架构,发现并解决重大故障及性能瓶颈,打造一流的数据平台;
5、跟进大数据前沿技术,不断优化数据集群;
6、有华为大数据平台运维经验优先;
岗位要求:
1、1年以上大数据运维或开发经验;
2、有良好的计算机和网络基础,熟悉linux文件系统、内核、性能调优,TCP/IP、HTTP等协议;
3、熟悉大数据生态,有相关(HDFS、Hive、Hbase、Sqoop、Spark、Flume、Zookeeper、ES、Kafka)的运维及开发经验;
4、熟练使用shell、python等脚本语言开发相关运维管理工具;
5、良好的文档撰写习惯;
大数据运维工程师的具体职责描述5
职责:
1、负责公司内部及项目中大数据集群的构建,任务调度、监控预警,持续完善大数据平台,保证稳定性、安全性;
2、负责集群容量规划、扩容、集群性能优化及日常巡检和应急值守,参与大数据基础环境的架构设计与改进;
3、深入研究大数据业务相关运维技术,探索新的运维技术及发展方向。
任职要求:
1、熟悉Linux基础命令操作,能够独立编写Shell脚本开展日常服务器的运维;
2、熟悉Hadoop生态圈Hadoop、Kafka、Zookeeper、Hbase、Spark的安装与调优;
3、熟悉软硬件设备,网络原理,有丰富的大数据平台部署,性能优化和运维经验;
4、工作认真负责,有较强的学习能力,动手能力和分析解决问题的能力;
5、能够利用各种开源监控工具、运维工具,HA、负载均衡软件完成工作任务;
6、熟悉JVM虚拟机调优;