性别:女

生日:1994.05

所在地:广东省珠海市

电话:188-8888-8888

邮箱:email@jianli1.com

架构师

基础信息

学历:本科

学校:北京科技大学

专业:智能装备与系统

身体状况:健康

求职意向

意向城市:广东省珠海市

教育经历

北京科技大学

智能装备与系统

2015.09 ~ 2019.06

本科

主修课程:电路分析、信号与系统、模拟电子技术、数字电子技术、电磁场与电磁兼容、微机原理与接口技术、自动控制原理、现代控制

理论、运筹学基础、计算机控制系统、智能交通系统、智能装备设计、智能制造工程、人工智能、无人自主系统。

工作经历

珠海格力电器股份有限公司

2019-2-1 ~ 2021-1-1

架构师

负责阿里云应用迁移设计和需求分析。

负责分析业界 IT 服务工具情况及发展趋势。

分析当前我司 IT 服务工具与业界工具差距,并根据我司 IT 产品特点规划下一代 IT 服务工具解决方案。

IT 服务工具架构设计以及关键技术研究等。

全国售前方案支持,售前客户交流,把握客户痛点引导客户帮助销售才单。

公司内容培训讲师。

中国建设银行股份有限公司

2021-2-1 ~ 2023-1-1

架构师

 技术调研选型、探索

 CI 后端架构和企业级后端存储方案

 Analytic 产品架构选型

 saas 大数据平台设计、开发、测试部署、运维(已有 Hadoop、Hbase、Kafka、Flume、OpenTSDB 集群;Spark 集群规划中)

 数据采集、数据治理方案设计

 为业务部门提供数据存储、数据分析服务

 为业务部门提供大数据接口、demo 程序

 智能告警引擎架构设计和部门开发工作

项目经验

格力电器相关项目

2019-2-1 ~ 2021-1-1

珠海格力电器股份有限公司

架构师

项目概述:在地铁隧道的建设过程中,由于地质条件的复杂性以及技术条件所限,很多时候无法在前期勘察设计阶段将遂址区隐藏的

灾害性地质条件全部勘测出来,这就为施工过程带来了隐患。为尽最大可能的避免地质变化的出现所带来的施工事故,保障隧道施工

过程中的安全,所以我司利用大数据相关技术为甲方开发地质施工安全预警系统,此预警系统分为两大模块:实时预警系统模块和离

线工区岩土质分析模块,来并行实施以确保预警的精准,以便于提前做好施工前的一些险情的预防方案及措施,保障施工安全顺利进

行。

使用技术:Kafka、HDFS、Hive、Spark2.X(SparkSQL)、MySQL

项目目标:对仪器终端每日采集工区岩土指标的数据分析,工区地质情况解析,为隧道施工提供实施方案建议。

参与使用 Ambari 搭建 HDP2.6.1 大数据平台,主要包含:HDFS、Kafka、Spark、Hbase 等;

配合甲方 Java 工程师编写 KafkaProducer 完成数据稳定安全发送到我方 Kafka 集群中;

使用 Java 编写 KafkaConsumer 并手动维护 offset 来保证数据安全,将 TSP、SIR20、WGMD-3 采集的 P 波速度、S 波速度、检波

器坐标、炮点坐标等数据,按照业务标准进行脏数据(空值、异常值)清洗并落地到 HDFS,为 Hive 离线岩土指标分析模块做铺垫和准

备并定时每日凌晨 2 点执行此程序;

根据岩石碎裂、隧道变形等业务需求确定分析主题,在满足现有分析需求的同时,将 Hive-HQL 分析语句设计成可修改可配置的 XML

文件方式以满足业务的需求变更和新增需求;

负责编写 SparkSQL 对存储在 Hive 数据仓库中的数据实现业务逻辑中的数据分析和统计,完成岩石硬度、隧道含水率、土质稀疏程度

等多维度、细粒度分析,并将分析出的结果存入 MySQL 供前端调用;

按时完成项目进度/问题处理等相关文档编写及周报/月报的提交工作。

建设银行相关项目

中国建设银行股份有限公司

2021-2-1 ~ 2023-1-1

架构师

该平台基于 Flink 搭建,从 kafka 拉取数据到 flink 实时计算完成后存入 hbase 的一套体系,系统有高吞吐量、低延迟、0 数据丢失等

特点,平台对数据和性能要求较为苛刻,体现在以下几点:

24 小时不断线发版

实时秒级别响应

保证数据准确无误,不允许出现丢失数据和冗余

在项目中本人负责技术架构的调研工作和架构的搭建,以及业务的开发。项目有如下的特色:

flink 项目日志统一输出

flink 集成 spring,以便 spring 数据源操作组建使用,避免自主封装的不牢靠

集群的完整幂等保证

对 flink 的封装,目的是保证一个普通 java 开发者都能轻轻松松开发 flink 程序

根据业务的具体情况,制定实现的 24 小时不断线发版。

技能列表

Hbase:一般

REDIS:熟练

Hadoop:良好

Mysql:精通

自我评价

精通大数据相关技能,web 方面也有所建树

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注