应聘大数据开发工程师个人简历
编辑:幻主简历 时间:2024-04-26 来源:幻主简历

一份精准而吸引人的个人简历,对于应聘大数据开发工程师这一职位至关重要,那么怎么写一份令人印象深刻的大数据开发工程师个人简历呢?下面是一篇简历案例,欢迎参考阅读。

大数据开发工程师个人简历.jpg

应聘大数据开发工程师个人简历:

求职意向

求职类型:全职   

意向岗位:大数据开发工程师   

意向城市:广东广州   

薪资要求:面议   

求职状态:随时到岗   

教育背景

时间:20xx.8-20xx.7   
学校名称:幻主简历大学1   
专业名称:本科(一本)   
学校描述:CET-4

工作经历

时间:20xx.8-至今   
公司名称:幻主简历公司1   
职位名称:数据开发工程师   

1、成功处理了超过1TB的原始数据,清洗和整合了500+数据表,提高了数据准确性和可用性。

2、开发了10+数据处理功能,包括数据映射、数据质量分析和数据差异分析等,有效支持了业务决策。

3、参与了3个大型数据产品功能的开发,实现了20%的业务增长率。

4、独立完成了5个数据处理项目,均按时交付,获得了领导和同事的一致好评。

时间:20xx.5-20xx.6   
公司名称:幻主简历公司2   
职位名称:Java开发工程师   

1、在任职期间,参与了3个大型Java项目的开发,负责了其中5个核心模块的实现,提升了系统的稳定性和性能。

2、成功解决了系统运行中的20+重大问题,减少了系统故障率,提高了客户满意度。

3、与项目组紧密沟通,及时反馈并解决了50+开发需求,确保了项目的顺利进行。

4、编写了10余份项目文档,为团队提供了详尽的开发指南和后期维护依据。

项目经验

时间:20xx.7-至今   
项目名称:幻主简历项目1   
项目角色:数据开发工程师   
系统架构:GIS+Nginx+Flume+Python+Hadoop+Kettle+Hive+Zookeeper+Otter+MySQL/Oracle+ElasticSearch+Geo BI
项目描述:该项目以“网格化+块数据”为基础, 利用“块数据”助推社会治理,利用互联网爬取、业务系统抽取、传感器接入等多种方式数据接入数据,将传感器接入的数据流存储到分布式存储系统,利用内置空间规则统计计算,通过ETL数据清洗、转换,并对数据分析建模,利用大数据管理平台,结合前端体系,实时接入数据、绘制3D立体大数据地图的实时展示,结合GeoBI将数据进行图形化展示。用户每天的检索、浏览、订阅、评价以及用户空间等的信息再经由用户系统集成之后,将数据再次回笼到数仓,经过数据碰撞和挖掘分析之后,再将数据用于数据集市,形成数据共享,服务于用户,从而解决用户的工作效率低、工作准确度低、满意度低的问题。
在这个系统开发中:
实时部分:使用智能采集装置将网格员采集到的数据实时上传到分布式服务器,完成应用数据的采集,使用Flume完成日志数据采集,再编写Kafka消费端脚本,消费从Flume传过来的消息。之后通过编写代码进行数据的实时处理。把处理完的数据通过网页展示出来。
离线部分:将Kettle采集到的数据保存到Oracle,然后在Oracle中进行各种离线数据分析,在数仓中分层建模,然后利用Kettle将分析好的数据导入到指定平台上Oracle和Mysql中。最后利用Otter或者Kettle等ETL工具,将数据同步到ElasticSearch,供业务部门展示使用。
责任描述:
1、利用Flume日志采集、Kettle业务数据采集工具,将采集的数据存放到HDFS上
2、对数据进行预处理,去除并整理杂乱的数据
3、基于维度模型,面向业务进行建模,建立事实表和维度表
4、利用Kettle对离线数据进行初步清洗,将数据导入到相应的表中
5、通过Kettle将数据导出到MySQL中,供后续使用
6、利用Otter将实时数据从MySQL同步到ElasticSearch,供开发使用
7、利用Hive对清洗后的数据做数据分析,提取有用信息,对接需求,拓展新的业务模块。
时间:20xx.4-20xx.11   
项目名称:幻主简历项目2   
项目角色:数据开发工程师   
系统架构:GIS+Nginx+Flume+Python+Hadoop+Kettle+Hive+Zookeeper+Otter+MySQL/Oracle+ElasticSearch+Geo BI
项目描述:为了快速准确的防控新冠肺炎疫情,区疫情防控指挥部和相关单位基于现有的“块数据”基层治理平台的治理能力,优化疫情防控的跟踪处置流程,实现准确、高效的跟踪摸排重点人员的防控情况,大力推动居民核酸和接种疫苗,提升处置效率,在较短时间内有效地控制疫情。
责任描述:
1、利用Flume将采集的数据存放到HDFS上
2、利用Kettle将源单位的结构化数据导入到Oracle,并做数据清洗分层
3、利用Otter将实时数据从MySQL同步到ElasticSearch,供开发使用
4、利用Hive对清洗后的数据做业务分析、数据分析
5、系统问题排查解决
时间:20xx.2-20xx.10   
项目名称:幻主简历项目3   
项目角色:数据开发工程师   
系统架构:GIS+Nginx+Flume+Python+Hadoop+Kettle+Hive+Zookeeper+Otter+MySQL/Oracle+ElasticSearch+Geo BI
项目描述:以块数据中心、块数据智能底板构建市域社会治理中心软件支撑平台,建设基于“块数据”的市域社会治理服务中心,通过与市级申请数据网络联通并实现市区两级块数据同步,将市数据下沉至区块数据中心。
责任描述:
1、与需求对接工作,明确责任范围
2、编写维护数据各类业务脚本
3、系统问题排查解决,保证系统正常运行
4、利用Flume、Kettle采集数据,对数据进行清洗分层
5、利用Hive对清洗后的数据做业务分析、数据分析
时间:20xx.8-20xx.6   
项目名称:幻主简历项目4   
项目角色:数据开发工程师   
系统架构:GIS+Nginx+Flume+Python+Kettle+Zookeeper+Otter+MySQL/Oracle+ElasticSearch+GeoBI
项目描述:在一个物理空间或行政区域(包括市、区、街道、社区、等)将涉及人、楼、房、法人、 事件的各类“条”数据封装成“块”,它解决的不仅仅是“数据孤岛”和信息化平台统一标准的问 题,更多的是以“互联网思维”构建一个面向未来的智能化数据平台,将为社会精准服务和精细治 理提供强有力的数据支撑。
责任描述:
1、与客户、项目经理、确定工作需求
2、利用Flume、Kettle采集数据,对数据进行清洗分层
3、构建统一地址数据库
4、数据分析、数据抽取、转换、入库
时间:20xx.10-20xx.7   
项目名称:幻主简历项目5   
项目角色:Java开发工程师   
系统架构:Nginx+Flume+Hadoop+Hive+Sqoop+MySQL+Zookeeper+Echarts
项目描述:该项目是针对网站访问者各方面的信息来源进行各种形式的数据统计,从而根据这些统计方便网站管理者对网 站的进行管理。该系统可进行:访问量统计分析、访问者统计分析、页面统计分析、流量统计分析、IP数量统计分析、会话数量统计分析、时间段统计等。该项目主要利用网站埋点技术,通过Flume采集网站日志,并将采集到的数据进行预处理导入到分布式数据存储系统HDFS上,再在搭建好的数据仓库Hive中,编写HQL,进行数据清洗分析,形成维度表和事实表,使用Sqoop将分析好的数据导入到MySQL数据库中,用Echarts进行数据报表图形化展示。
责任描述:  1、利用Flume日志采集工具,将采集的数据存放到HDFS上  2、对数据进行预处理,去除并整理杂乱的数据  3、利用Hive对离线数据进行初步清洗,将数据导入到相应的表中  4、通过Sqoop将数据导出到MySQL中 供后续使用  5、负责访问者数量、IP数量、会话数量模块的统计分析  6、对注册用户分新老用户分别进行新闻话题推荐
时间:20xx.5-20xx.10   
项目名称:幻主简历项目6   
项目角色:Java开发工程师   
系统架构:Spring-Boot+Struts+MySQL
项目描述:该项目实现了员工管理、工资帐户管理、工资单管理、休假管理、个人信息管理,生成报表统计和系统管理。 在TomCat7上建立的J2EE系统。表示层采用Struts框架,持久层采用MyBatis框架,通过Spring框架按名称自动注入完成这3个层的整合。使用CVS进行版本控制。项目中通过调用业务逻辑接口来调用具体的业务组件的实例,避免控制层与业 务层的藕合带来的维护或升级困难。
责任描述:
1、负责员工管理模块、个人信息管理模块、部分公共类的编写和完善及单元测试
2、参与项目的需求分析,数据库的设计
3、负责自身模块的系统测试、更新和性能优化

自我评价

1、具有清晰的逻辑思维能力,对计算机编程有浓厚的兴趣;

2、敢于接受挑战,喜欢钻研,具有独立解决问题的能力;

3、具有很好的合作精神和团队协作能力;

4、遇事沉稳,具有抗压能力,对工作认真负责,懂得及时释放压力,保持积极饱满的工作态度;

资讯来源说明:本文章来自网络收集,如侵犯了你的权益,请联系QQ:509053849。
继续阅读相关文章
最新更新