一、专业要求:计算机、数学、统计、通信和信息系统等相关工科专业;
二、专业技能
1.熟悉数据库结构,熟练运用SQL等数据库语言,熟悉数据清洗、预处理与特征工程;
2.了解大数据处理/分析相关的工具/框架,包括Hadoop, Hive、Spark、kylin、hbase、sqoop、presto、elasticsearch等。
3.熟悉多种大数据技术/中间件/云技术组件(Spark/SparkStreaming、Flink、Hadoop、Hive、Hbase、Redis/Codis、Kafka、Dubbo、Mysql、K8s等)的技术特点、架构原理和试用场景,具备相关组件平台开发经验,在相关开源项目有源码贡献者优先;
4.熟悉高性能、高并发、高可用性、高扩展性系统架构原理,熟悉大数据集群或大数据应用系统的设计规划;
5.熟悉业务建模、数据仓库建模、ETL设计开发,具备体系化的数据质量与数据治理(元数据管理、数据质量管理、主数据管理等)相关经验者优先;
6.了解数据中心/边缘计算,服务器硬件,计算技术(X86,ARM, GPU等),虚拟化等基础技术;
三、综合素质:
1.责任心强,善于团队协作,主动思考,自我驱动力强;
2.诚实、踏实、认真负责,能承受一定强度的工作压力;
3.具备良好的系统分析能力、抽象思维、和逻辑思维能力,能独立分析问题和解决问题能力。