搜索
查看: 3149|: 1

hadoop招聘,上海总部、北京、广州分公司

[复制链接]

1

主题

1

回帖

9

积分

新手上路

积分
9
发表于 2017-1-3 18:21:47 | 显示全部楼层 |阅读模式
Hadoop工程师(北京分公司、上海总部、广州分公司)1年以上工作经验
岗位职责:1.负责基于Hadoop(CDH、HDP)平台架构的规划、设计和搭建;
2.独立或者带领团队完成各种面向业务目标的数据分析模型定义和应用开发;
3.针对海量的数据开发具有数据收集、统计、分析和挖掘能力的创新型产品;
4.基于MapReduce、Spark、Flume等的大数据开发;
5.学习和研究大数据技术最新动向以满足产品、项目的需求。
要求:
1.计算机相关专业本科及以上;
2.软件基础理论知识扎实,具有良好的数据结构、算法功底;
3.精通Hadoop等分布式开发,如:MapReduce、Spark,具有扎实的Java/Scala等开发语言功底;
4.熟悉Hadoop相关各种开源项目,如:Flume、Hive、Hbase等,并有实际应用者优先;
5.熟悉Solr/Lucene开发,熟悉NoSQL数据库者优先;
6.对新技术敏感,有一定独立分析,技术研究能力;
7.熟练使用Linux环境下开发者优先;熟悉至少一种版本控制工具,如:Git、SVN、Mercurial;8.有个人开源项目或参与开源项目者优先;
9.有代码洁癖和自发组织Code Review的开发者优先。
运维工程师
职位描述:
1. 负责维护公司的各种环境.
2. 学习分享各种新技术, 以工作要用到的优先.
任职资格:
1. 喜欢技术,乐于分享. [必须]
2. 良好的英语阅读能力. [必须]
3. 熟悉(centos|rhel|ubuntu). [必须]
4. 掌握(shell|python|ruby|perl|php|*)任意一门语言. [必须
5. 有(github|其它开源代码|个人站点|*). [加分项]
6. 熟悉网络设置和存储设备的配置和管理(cisco|huawei|emc|*). [加分项]
7. 熟悉(nagios|zabbix|puppet|jenkins|gitlab|cloudstack|openstack|saltstack|docker|ceph|mariadb|markdown|aws|azure|*)任意一种或多种. [加分项]



另外招聘:Java、设计、测试、前端等岗位

简历请发送至Email: lili.zhao@hypers.com
www.hypers.com | Big Data Starts From Here
Tel: +86 21 6386 8620
Add:上海市溧阳路735号半岛湾创意园1号楼2F(200080)
       北京分公司利泽中二路101号启明国际大厦A座12层

1

主题

1

回帖

9

积分

新手上路

积分
9
 楼主| 发表于 2017-1-4 10:07:19 | 显示全部楼层
顶贴,有意向的小伙伴请与我联系
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

大数据中国微信

QQ   

版权所有: Discuz! © 2001-2013 大数据.

GMT+8, 2024-12-22 23:56 , Processed in 0.061741 second(s), 24 queries .

快速回复 返回顶部 返回列表