【課程介紹】
1. 需求理解
Hadoop 設計之初的目標就定位于高可靠性、高可拓展性、高容錯性和高效性,正是這些設計上與生俱來的優點,才使得Hadoop 一出現就受到眾多大公司的青睞,同時也引起了研究界的普遍關注。
對電信運營商而言,用戶上網日志包含了大量用戶個性化需求、喜好信息,對其進行分析和挖掘,能更好地了解客戶需求。傳統經營分析系統小型機加關系型數據庫的架構無法滿足對海量非結構化數據的處理需求,搭建基于X86的Hadoop 平臺,引入大數據處理技術的方式,實現高效率、低成本、易擴展的經營分析系統混搭架構成為電信運營商為傾向的選擇。本課程將全面介紹Hadoop平臺開發和運維的各項技術,對學員使用該項技術具有很高的應用價值。
2. 培訓課程架構與設計思路
(1)培訓架構:
本課程分為三個主要部分:
部分:重點講述大數據技術在的應用,使學員對大數據技術的廣泛應用有清晰的認識,在這環節當中會重點介紹Hadoop技術在整個大數據技術應用中的重要地位和應用情況。
第二部分:具體對hadoop技術進行模塊化分拆,從大數據文件存儲系統技術和分布式文件系統平臺及其應用談起,介紹Hadoop技術各主要應用工具和方法,以及在運維維護當中的主流做法,使學員全面了解和掌握Hadoop技術的精華。
第三部分:重點剖析大數據的應用案例,使學員在案例當中對該項技術有更深入的感觀印象
(2)設計思路:
本課程采用模塊化教學方法,以案例分析為主線,由淺入深、循序漸進、由理論到實踐操作進行設計。
(3)與企業的貼合點:
本課程結合企業轉型發展及大數據發展戰略,圍繞企業大數據業務及行業應用市場拓展發展目標,重點講授Hadoop的應用技術,提升企業IT技術人員的開發和運維能力,有很強的貼合度。
【培訓對象】
各地企事業單位大數據產業相關人員,運營商 IT信息化和運維工程師相關人員,金融業信息化相關人員,或對大數據感興趣的相關人員。
【培訓目標】
掌握大數據處理平臺(Hadoop、Spark、Storm)技術架構、以及平臺的安裝部署、運維配置、應用開發;掌握主流大數據Hadoop平臺和Spark實時處理平臺的技術架構和實際應用;利用Hadoop+Spark對行業大數據進行存儲管理和分析挖掘的技術應用;講解Hadoop生態系統組件,包括Storm,HDFS,MapReduce,HIVE,HBase,Spark,GraphX,MLib,Shark, ElasticSearch等大數據存儲管理、分布式數據庫、大型數據倉庫、大數據查詢與搜索、大數據分析挖掘與分布式處理技術
【培訓大綱】
(1)課程框架
詳細培訓內容介紹
【師資介紹】
張老師:阿里大數據專家,國內的Spark、Hadoop技術專家、虛擬化專家,對HDFS、MapReduce、HBase、Hive、Mahout、Storm、spark和openTSDB等Hadoop生態系統中的技術進行了多年的深入的研究,更主要的是這些技術在大量的實際項目中得到廣泛的應用,因此在Hadoop開發和運維方面積累了豐富的項目實施經驗。近年主要典型的項目有:某電信集團網絡優化、中國移動某省移動公司請賬單系統和某省移動詳單實時查詢系統、中國銀聯大數據數據票據詳單平臺、某大型銀行大數據記錄系統、某大型通信運營商全國用戶上網記錄、某省交通部門違章系統、某區域醫療大數據應用項目、互聯網公共數據大云(DAAS)和構建游戲云(Web Game Daas)平臺項目等。
【頒發證書】
參加相關培訓并通過考試的學員,可以獲得:
工業和信息化部頒發的-《大數據應用開發工程師證書》。該證書可作為專業技術人員職業能力考核的證明,以及專業技術人員崗位聘用、任職、定級和晉升職務的重要依據。注:請學員帶一寸彩照2張(背面注明姓名)、身份證復印件一張。
【學院介紹】
軟博教育自成立以來即定位于軟件技術專業人才培養實訓機構,專注致力于軟件技術人才的培養,是中國科學院計算技術研究所教育中心合作培訓機構,也是工信部人才交流中心指定的全國計算機專業技術人才培訓基地”,“人力資源和社會**部——全國信息化人才培養工程項目(即“653工程”)指定培養機構”。
【學員上課情景】