
正在查看初级Hadoop舒朗简历模板文字版
陈小湾
求职意向
工作经历
国家高新技术企业,[大数据中台/智能决策]事业部配置[50-80人]技术团队,含[数据仓库组/算法工程组]。主导建设[用户画像系统/供应链预测平台],申请[15/20]项数据处理专利,通过[Kafka/Spark]实现日均[TB/PB级]数据吞吐,获[IDC创新奖/CCF科技进步奖],服务[沃尔玛/海尔/比亚迪]等[20+]上市公司。
工作内容:
1.数据采集与清洗:通过Flume采集日志数据,使用MapReduce实现数据去重和格式标准化,处理缺失值占比达12%的原始数据集。
2.基础数据处理:在Hive中编写HQL语句完成用户行为数据的聚合统计,日均处理量达TB级。
3.数据存储管理:维护HDFS集群,监控DataNode运行状态,优化存储策略降低冗余数据30%。
4.工具协作:配合Sqoop将MySQL业务数据定时导入Hive数仓,支持下游分析需求。
工作业绩:
1.优化清洗流程后,数据处理耗时从6小时缩短至1.5小时,效率提升4倍。
2.通过HDFS存储策略优化,节省集群存储成本25%。
3.支持5个业务线的数据接入需求,数据准确率达99.7%。
离职原因:寻找更具挑战性的工作机会。
项目经历
支撑【金融级风控监管】要求,需在【500ms内】完成单笔交易的风险评估,原有系统面临【日均10亿+交易流水】处理压力,【复杂规则关联分析】场景存在严重数据倾斜,每日有【15%的计算任务超时失败】。主导构建基于Hadoop+Spark的混合计算架构,攻克【千亿级数据关联分析】【毫秒级实时规则触发】等技术难点。
项目职责:
1.设计【流批一体风控架构】,整合Spark Streaming与Flink实现规则引擎,实时计算延迟从秒级降至毫秒级。
2.攻克【百亿级数据Join性能瓶颈】,创新采用布隆过滤器+压缩位图技术,Shuffle数据量减少75%。
3.构建【分布式规则执行引擎】,通过规则逻辑动态编译技术,支持200+风控策略并行计算。
4.主导【集群智能扩缩容方案】落地,基于历史负载预测自动调整计算节点,资源利用率达85%。
项目业绩:
1.风控决策响应时间从1.2秒降至180毫秒,QPS从8000提升至25000。
2.全年处理交易数据量突破3.5万亿条,准确拦截高风险交易1.2亿笔。
3.集群资源成本下降55%,获公司年度降本增效标杆案例一等奖。
4.平台通过PCI DSS三级认证,支撑公司获得【跨境支付牌照】,直接创造营收2.8亿元。
教育背景
GPA XX/4.0(专业前XX%),GRE XXX(Quant XXX),主修分布式计算与数据科学,主导Hadoop集群上的实时日志分析系统设计,精通YARN资源调度和HBase数据库管理,实现高吞吐量数据处理与监控方案。
自我评价
培训经历
精通Spark Core与结构化流处理引擎,设计实时数据清洗与机器学习流水线,在风控系统中将流处理延迟从XX秒压缩至XX毫秒,实现千亿级事件高效分析。
初级Hadoop舒朗简历模板
322人使用适用人群: #Hadoop #初级[1-3年]
猜你想用
[基本信息]
姓名:陈小湾
性别:男
年龄:26
学历:本科
婚姻:未婚
年限:4年
面貌:党员
邮箱:xiaowan@gangwan.com
电话:18600001654
[求职意向]
工作性质:全职
应聘职位:Hadoop
期望城市:北京
期望薪资:8000-10000
求职状态:离职-随时到岗
[工作经历]
XX科技有限公司 | Hadoop
2023-01 - 2025-01
国家高新技术企业,[大数据中台/智能决策]事业部配置[50-80人]技术团队,含[数据仓库组/算法工程组]。主导建设[用户画像系统/供应链预测平台],申请[15/20]项数据处理专利,通过[Kafka/Spark]实现日均[TB/PB级]数据吞吐,获[IDC创新奖/CCF科技进步奖],服务[沃尔玛/海尔/比亚迪]等[20+]上市公司。
工作内容:
1.数据采集与清洗:通过Flume采集日志数据,使用MapReduce实现数据去重和格式标准化,处理缺失值占比达12%的原始数据集。
2.基础数据处理:在Hive中编写HQL语句完成用户行为数据的聚合统计,日均处理量达TB级。
3.数据存储管理:维护HDFS集群,监控DataNode运行状态,优化存储策略降低冗余数据30%。
4.工具协作:配合Sqoop将MySQL业务数据定时导入Hive数仓,支持下游分析需求。
工作业绩:
1.优化清洗流程后,数据处理耗时从6小时缩短至1.5小时,效率提升4倍。
2.通过HDFS存储策略优化,节省集群存储成本25%。
3.支持5个业务线的数据接入需求,数据准确率达99.7%。
[项目经历]
项目名称:亿级交易数据风控分析平台
担任角色:项目负责人
支撑【金融级风控监管】要求,需在【500ms内】完成单笔交易的风险评估,原有系统面临【日均10亿+交易流水】处理压力,【复杂规则关联分析】场景存在严重数据倾斜,每日有【15%的计算任务超时失败】。主导构建基于Hadoop+Spark的混合计算架构,攻克【千亿级数据关联分析】【毫秒级实时规则触发】等技术难点。
项目业绩:
1.风控决策响应时间从1.2秒降至180毫秒,QPS从8000提升至25000。
2.全年处理交易数据量突破3.5万亿条,准确拦截高风险交易1.2亿笔。
3.集群资源成本下降55%,获公司年度降本增效标杆案例一等奖。
4.平台通过PCI DSS三级认证,支撑公司获得【跨境支付牌照】,直接创造营收2.8亿元。
[教育背景]
上海交通大学
计算机科学与技术 | 本科
GPA XX/4.0(专业前XX%),GRE XXX(Quant XXX),主修分布式计算与数据科学,主导Hadoop集群上的实时日志分析系统设计,精通YARN资源调度和HBase数据库管理,实现高吞吐量数据处理与监控方案。
