2018年8月23日 8:00 至 2018年6月26日 18:00 ,中国软件产业培训网在 北京举办《2018Hadoop与Spark大数据开发与案例分析实战培训班(8月北京站)》。
会议内容
主办方介绍
2018Hadoop与Spark大数据开发与案例分析实战培训班(8月北京站)宣传图
各有关单位:
为贯彻落实党中央国务院“十三五”规划指导精神,实施网络强国战略,加快建设数字中国;构建高效信息网络,推进物联网发展;实施“互联网+”行动计划,促进多领域融合发展;实施国家大数据战略,加快政府数据开放;加强数据安全包含,全面保障信息系统安全;推进军民融合发展立法。要实施国家大数据战略,把大数据作为基础性战略资源,全面实施促进大数据发展行动,加快推动数据资源共享开放和开发应用,助力产业转型升级和社会治理创新。加快政府数据开放共享,促进大数据产业健康发展。
现如今,大数据的应用并不仅存在于一些“理工类领域”,它已经渗透到我们生活的方方面面,将来,大数据在能源、金融、电信、汽车、消费等大多数行业都有用武之地,行业发展潜力巨大。去年,国内数据创业已是风起云涌,其实,2016才是真正意义上的大数据元年。据IDC预测,到2020年,大数据分析技术将成为所有国家经济增长的关键动力。大数据分析及其相关的市场的复合年增长率将达到26.4%,在2018年全球将发展到415亿美元的规模。同时,IDC认为,到2020年大数据分析技术将成为所有国家经济增长的关键动力。然而大数据架构最火热的莫过于Hadoop,Spark和Storm这三种
因此中国软件产业培训网决定举办“Hadoop与Spark大数据开发与案例分析”培训班。由中联软博(北京)科技有限公司具体承办,望相关单位收到通知后积极参加。
培训时间和地点
2018年08月22日-08月26日 北京 (08日全天报到)
培训对象
各地政府,院校云计算物联网产业相关负责人,各类 IT/软件企业和研发机构的软件架构师、软件设计师、程序员、技术总监、数据挖掘负责人、数据挖掘开发工程师等
课程目标
1、了解Hadoop与Spark的历史及目前发展的现状、以及Hadoop与Spark的技术特点,从而把握分布式计算框架及未来发展方向,在大数据时代能为企业的技术选型及架构设计提供决策参考。
2、全面掌握Hadoop与Spark的架构原理和使用场景,并通过贯穿课程的项目进行实战锻炼,从而熟练使用Hadoop进行MapReduce程序开发。课程还涵盖了分布式计算领域的常用算法介绍,帮助学员为企业在利用大数据方面体现自身价值。
3、深入理解Hadoop与Spark技术架构,对Hadoop与Spark运作机制有清晰全面的认识,可以独立规划及部署生产环境的Hadoop与Spark集群,掌握Hadoop与Spark基本运维思路和方法,对Hadoop与Spark集群进行管理和优化。
培训特色
注重应用:分析国内实际情况,结合国际、国内成功经验。采用实战的项目,让学员在短时间内掌握Hadoop与Spark的搭建与配置。并进行高效的大数据清洗和分析。
形式灵活:互动课堂、免费技术沙龙、提供云计算项目建设咨询、大数据Hadoop平台的搭建。
颁发证书
参加相关培训并通过考试的学员,可以获得:
工业和信息化部全国网络与信息技术考试管理中心中心颁发的-“Hadoop与Spark大数据应用与开发”职业技能证书(等级高级)。该证书可作为专业技术人员职业能力考核的证明,以及专业技术人员岗位聘用、任职、定级和晋升职务的重要依据。
注:请学员带一寸彩照2张(背面注明姓名)、身份证复印件一张。
中国软件产业培训网
为响应国家“人才兴国、科教兴国”战略,缓解中国软件技术人才需求日益紧张的现状,推动中国软件业的发展,培养一批高素质的软件专业人才,在工信部以及相关领导的大力支持下2008年成立了中国软件产业培训网(简称“软博教育”),软博教育自成立以来即定位于软件技术专业人才培养实训机构,专注致力于软件技术人才的培养,是中国科学院计算技术研究所教育中心合作培训机构,也是工信部人才交流中心唯一指定的全国计算机专业技术人才培训基地”,“国家人力资源和社会保障部——全国信息化人才培养工程项目(即国家“653工程”)指定培养机构”, 中国软件产业培训网(中联软博(北京)科技有限公司)--率先在国内开展高级软件架构等IT高端培训的公开课。多年来持续不断的投入精力创新课程体系,至今已在国内开展公开课培训的课程达十几门,分别涵盖软件架构、软件设计、项目管理、质量管理、需求工程、运营管理等领域,也根据企事业单位的实用需求, 通过定制培训方案,培训后的技术服务,将企业单位的信息化投资的效益发挥到最高点。目前中心已经与几百家企事业单位建立了长期的培训合作关系, 深得用户信赖和好评。
课程模块 | 课程主题 | 主要内容 | 案例和演示 |
模块一 | Hadoop在云计算技术的作用和地位 | 传统大规模系统存在的问题 Hadoop概述 Hadoop分布式文件系统 MapReduce工作原理 Hadoop集群剖析 Hadoop生态系统对一种新的解决方案的需求 Hadoop的行业应用案例分析 Hadoop在云计算和大数据的位置和关系 | 数据开放,数据云服务平台(DAAS)时代 Hadoop平台在数据云平台(DAAS)上的天然优势 数据云平台(DAAS 平台)组成部分 互联网公共数据大云(DAAS)案例 Hadoop构建构建游戏云(Web Game Daas)平台 |
模块二 | Hadoop生态系统介绍和演示 | Hadoop HDFS 和 MapReduce Hadoop数据库之HBase Hadoop数据仓库之Hive Hadoop数据处理脚本Pig Hadoop数据接口Sqoop和Flume,Scribe DataX Hadoop工作流引擎 Oozie | 运用Hadoop自下而上构建大规模企业数据仓库 暴风影音数据仓库实战解析 |
模块三 | Hadoop组件详解 | Hadoop HDFS 基本结构 Hadoop HDFS 副本存放策略 Hadoop NameNode 详解 HadoopSecondaryNameNode 详解 Hadoop DataNode 详解 Hadoop JobTracker 详解 Hadoop TaskTracker 详解 | Hadoop Mapper类核心代码 Hadoop Reduce类核心代码 Hadoop 核心代码 |
模块四 | Hadoop安装和部署 | Hadoop系统模块组件概述 Hadoop试验集群的部署结构 Hadoop 安装依赖关系 Hadoop 生产环境的部署结构 Hadoop集群部署 Hadoop 高可用配置方法 Hadoop 集群简单测试方法 Hadoop 集群异常Debug方法 | Hadoop安装部署实验 Red hat Linux基础环境搭建 Hadoop 单机系统版本安装配置 Hadoop 集群系统版本安装和启动配置 使用 Hadoop MapReduce Streaming 快速测试系统 Hadoopcore-site,hdfs-site,mapred-site 配置详解 |
模块五 | Hadoop集群规划 | Hadoop 集群内存要求 Hadoop集群磁盘分区 集群和网络拓扑要求 集群软件的端口配置 | 针对NameNode Jobtracker DataNode TaskTracker Hiveserver 等不同组件需求推荐服务器配置 |
模块六 | MapReduce 算法原理 | Hadoop MapReduce 算法的原理和优化思想 灵活运用MapReduce 实现算法 | 运用MapReduce 构建数据库算法 Select Sort GrougBy Sum Count Join 新进流失算法 使用 Y-Smart 快速转换SQL 为MapReduce 代码 |
模块七 | 编写MapReduce高级程序 | 使用 Hadoop MapReduce Streaming 编程 MapReduce流程 剖析一个MapReduce程序 基本MapReduceAPI概念 驱动代码 Mapper、Reducer Hadoop流 API 使用Eclipse进行快速开发 新MapReduce API MapReduce的优化 MapReduce的任务调度 MapReduce编程实战 如何利用其他Hadoop相关技术,包括Apache Hive, Apache Pig,Sqoop和Oozie等 满足解决实际数据分析问题的高级Hadoop API | Hadoop Streaming 和 Java MapReduce Api 差异。 MapReduce 实现数据库功能 利用Combiners来减少中间数据 编写Partitioner来优化负载平衡 直接访问Hadoop分布式文件系统(HDFS) Hadoop的join操作 辅助排序在Reducer方的合并 定制Writables和WritableComparables 使用SequenceFiles和Avro文件保存二进制数据 创建InputFormats OutputFormats Hadoop的二次排序 Hadoop的海量日志分析 在Map方的合并 |
模块八 | 集成Hadoop到现有工作流 及Hadoop API深入探讨 | 存储系统 利用Sqoop从关系型数据库系统中导入数据到Hadoop 利用Flume导入实时数据到Hadoop ToolRunner介绍、使用MRUnit进行测试 使用Configure和Close方法来进行Map/Reduce设置和关闭 | 使用FuseDFS和Hadoop访问HDFS 使用分布式缓存(Distributed Cache) 直接访问Hadoop分布式文件系统(HDFS) 利用Combiners来减少中间数据 编写Partitioner来优化负载平衡 |
模块九 | 使用Hive和Pig开发及技巧 | Hive和Pig基础 Hive的作用和原理说明 Hadoop仓库和传统数据仓库的协作关系 Hadoop/Hive仓库数据数据流 Hive 部署和安装 Hive Cli 的基本用法 HQL基本语法 运用Pig 过滤用户数据 | 使用JDBC 连接Hive进行查询和分析 使用正则表达式加载数据 HQL高级语法 编写UDF函数 编写UDAF自定义函数 基于Hive脚本内嵌Streaming 编程 |
模块十 | Hbase安装和使用 | Hbase 安装部署 Hbase原理和结构 Hbase 运维和管理 | 使用Hbase+Hive 提供 OLAP SQL查询能力 使用Hbase+Phoenix提供 OLTP SQL能力 基于Hbase 的时间序列数据库 OpenTsDb 结构解析 |
模块十一 | Hadoop2.0 集群探索 | Hadoop2.0 HDFS 原理 Hadoop2.0 Yarn 原理 Hadoop2.0 生态系统 | 基于Hadoop2.0 构建分布式系统 |
模块十二 | Hadoop企业级别案例解析 | Hadoop 结构化数据案例 Hadoop 非结构化案例 Hbase 数据库案例 Hadoop 视频分析案例 | 利用大数据分析改进交通管理 区域医疗大数据应用案例 银联大数据数据票据详单平台 广东移动省公司请账单系统 上海电信网络优化 某通信运营商全国用户上网记录 浙江台州市智能交通系统 移动广州详单实时查询系统 跨区域实时视频监控系统 |
模块十三 | RedHadoop 企业版本 | 运用RedHadoop快速构建服务集群 运用RedHadoop DW 构建数据仓库 | 基于RedHadoop Hive构建数据仓库平台 灵活运用 Hive 加速游戏数据仓库 基于Pig+OpenCV大规模图像人脸识别 |
模块十四 | Spark | Mapreduce、storm和spark模型的比较和使用场景介绍 |
模块十五 | Spark | Spark安装简介 |
模块十六 | Spark | Spark的运行架构 比较 Standalone与YARN模式下的优缺点 |
张老师:阿里大数据高级专家,国内资深的Spark、Hadoop技术专家、虚拟化专家,对HDFS、MapReduce、HBase、Hive、Mahout、Storm、spark和openTSDB等Hadoop生态系统中的技术进行了多年的深入的研究,更主要的是这些技术在大量的实际项目中得到广泛的应用,因此在Hadoop开发和运维方面积累了丰富的项目实施经验。近年主要典型的项目有:某电信集团网络优化、中国移动某省移动公司请账单系统和某省移动详单实时查询系统、中国银联大数据数据票据详单平台、某大型银行大数据记录系统、某大型通信运营商全国用户上网记录、某省交通部门违章系统、某区域医疗大数据应用项目、互联网公共数据大云(DAAS)和构建游戏云(Web Game Daas)平台项目等。
会议门票
会务费:6800元/人,含教材、培训费、考证费以及学习用具等费用, 食宿统一安排,费用自理。