久久精品五月,日韩不卡视频在线观看,国产精品videossex久久发布 ,久久av综合

站長資訊網
最全最豐富的資訊網站

阿里正式向 Apache Flink 貢獻 Blink 源碼

  核心提示: 如同我們去年12月在 Flink Forward China 峰會所約,阿里巴巴內部 Flink 版本 Blink 將于 2019 年 1 月底正式開源。

阿里正式向 Apache Flink 貢獻 Blink 源碼

  導讀:

  如同我們去年12月在 Flink Forward China 峰會所約,阿里巴巴內部 Flink 版本 Blink 將于 2019 年 1 月底正式開源。今天,我們終于等到了這一刻。

  阿里資深技術專家大沙,將為大家詳細介紹本次開源的Blink主要功能和優化點,希望與業界同仁共同攜手,推動Flink社區進一步發展。

  Blink on GitHub

  https://github.com/apache/flink/tree/blink

  Blink簡介

  Apache Flink是德國柏林工業大學的幾個博士生和研究生從學校開始做起來的項目,早期叫做Stratosphere。2014年,StratoSphere項目中的核心成員從學校出來開發了Flink,同時將Flink計算的主流方向定位為流計算,并在同年將Flink捐贈Apache,后來快速孵化成為Apache的頂級項目。現在Flink是業界公認的最好的大數據流計算引擎。

阿里正式向 Apache Flink 貢獻 Blink 源碼

  阿里巴巴在2015年開始嘗試使用Flink。但是阿里的業務體量非常龐大,挑戰也很多。彼時的Flink不管是規模還是穩定性尚未經歷實踐,成熟度有待商榷。為了把這么大的業務體量支持好,我們不得不在Flink之上做了一系列的改進,所以阿里巴巴維護了一個內部版本的Flink,它的名字叫做Blink。

  基于Blink的計算平臺于2016年正式上線。截至目前,阿里絕大多數的技術部門都在使用Blink。Blink一直在阿里內部錯綜復雜的業務場景中鍛煉成長著。對于內部用戶反饋的各種性能、資源使用率、易用性等諸多方面的問題,Blink都做了針對性的改進。雖然現在Blink在阿里內部用的最多的場景主要還是在流計算,但是在批計算場景也有不少業務上線使用了。例如,在搜索和推薦的算法業務平臺中,它使用Blink同時進行流計算和批處理。Blink被用來實現了流批一體化的樣本生成和特征抽取這些流程,能夠處理的特征數達到了數千億,而且每秒鐘處理數億條消息。在這個場景的批處理中,我們單個作業處理的數據量已經超過400T,并且為了節省資源,我們的批處理作業是和流計算作業以及搜索的在線引擎運行在同樣的機器上。所以大家可以看到流批一體化已經在阿里巴巴取得了極大的成功,我們希望這種成功和阿里巴巴內部的經驗都能夠帶回給社區。

  Blink開源的背景

  其實從我們選擇Flink的第一天開始我們就一直和社區緊密合作。過去的這幾年我們也一直在把阿里對Flink 的改進推回社區。從2016年開始我們已經將流計算SQL的大部分功能,針對runtime的穩定性和性能優化做的若干重要設計都推回了社區。但是Blink本身發展迭代的速度非常快,而社區有自己的步伐,很多時候可能無法把我們的變更及時推回去。對于社區來說,一些大的功能和重構,需要達成共識后,才能被接受,這樣才能更好地保證開源項目的質量,但是同時就會導致推入的速度變得相對較慢。經過這幾年的開發迭代,我們這邊和社區之間的差距已經變得比較大了。

  Blink 有一些很好的新功能,比如性能優越的批處理功能,在社區的版本是沒有的。在過去這段時間里,我們不斷聽到有人在詢問Blink的各種新功能。期望Blink盡快開源的呼聲越來越大。我們一直在思考如何開源的問題,一種方案就是和以前一樣,繼續把各種功能和優化分解,逐個和社區討論,慢慢地推回Flink。但這顯然不是大家所期待的。另一個方案,就是先完整的盡可能的多的把代碼開源,讓社區的開發者能夠盡快試用起來。第二個方案很快收到社區廣大用戶的支持。因此,從2018年年中開始我們就開始做開源的相關準備。經過半年的努力,我們終于把大部分Blink的功能梳理好,開源了出來。

  Blink開源的方式

  我們把代碼貢獻出來,是為了讓大家能先嘗試一些他們感興趣的功能。Blink永遠不會單獨成為一個獨立的開源項目來運作,他一定是Flink的一部分。開源后我們期望能找到辦法以最快的方式將Blink merge到Flink中去。Blink開源只有一個目的,就是希望 Flink 做得更好。Apache Flink 是一個社區項目,Blink以什么樣的形式進入 Flink 是最合適的,怎么貢獻是社區最希望的方式,我們都要和社區一起討論。

  在過去的一段時間內,我們在Flink社區征求了廣泛的意見,大家一致認為將本次開源的Blink代碼作為Flink的一個branch直接推回到ApacheFlink項目中是最合適的方式。并且我們和社區也一起討論規劃出一套能夠快速merge Blink到Flink master中的方案(具體細節可以查看Flink社區正在討論的FLIP32)。我們期望這個merge能夠在很短的時間內完成。這樣我們之后的Machine Learning等其他新功能就可以直接推回到Flink master。相信用不了多久,Flink 和 Blink 就完全合二為一了。在那之后,阿里巴巴將直接使用Flink用于生產,并同時協助社區一起來維護Flink。

  本次開源的Blink的主要功能和優化點

  本次開源的Blink代碼在Flink1.5.1版本之上,加入了大量的新功能,以及在性能和穩定性上的各種優化。主要貢獻包括,阿里巴巴在流計算上積累的一些新功能和性能的優化,一套完整的(能夠跑通全部TPC-H/TPC-DS,能夠讀取Hive meta和data)高性能Batch SQL,以及一些以提升易用性為主的功能(包括支持更高效的interactive programming, 與zeppelin更緊密的結合, 以及體驗和性能更佳的Flink web)。未來我們還將繼續給Flink貢獻在AI,IoT以及其他新領域的功能和優化。更多的關于這一版本Blink release的細節,請參考Blink代碼根目錄下的README.md文檔。下面,我來分模塊介紹下Blink主要的新的功能和優化點。

  Runtime

  為了更好的支持batch processing,以及解決阿里巴巴大規模生產場景中遇到的各種挑戰,Blink對Runtime架構、效率、穩定性方面都做了大量改進。在架構方面,首先Blink引入了Pluggable ShuffleArchitecture,開發者可以根據不同的計算模型或者新硬件的需要實現不同的shuffle策略進行適配。此外Blink還引入新的調度架構,容許開發者根據計算模型自身的特點定制不同調度器。為了優化性能,Blink可以讓算子更加靈活的chain在一起,避免了不必要的數據傳輸開銷。在Pipeline Shuffle模式中,使用了ZeroCopy減少了網絡層內存消耗。在BroadCast Shuffle模式中,Blink優化掉了大量的不必要的序列化和反序列化開銷。

  此外,Blink提供了全新的JM FailOver機制,JM發生錯誤之后,新的JM會重新接管整個JOB而不是重啟JOB,從而大大減少了JM FailOver對JOB的影響。最后,Blink也開發了對Kubernetes的支持。不同于Standalone模式在Kubernetes上的拉起方式,在基于Flink FLIP6的架構上基礎之上,Blink根據job的資源需求動態的申請/釋放Pod來運行TaskExecutor,實現了資源彈性,提升了資源的利用率。

  ●SQL/TableAPI

阿里正式向 Apache Flink 貢獻 Blink 源碼

  SQL/TableAPI架構上的重構和性能的優化是Blink本次開源版本的一個重大貢獻。首先,我們對SQL engine的架構做了較大的調整。提出了全新的Query Processor(QP), 它包括了一個優化層(Query Optimizer)和一個算子層(Query Executor)。這樣一來,流計算和批計算的在這兩層大部分的設計工作就能做到盡可能的復用。

  另外,SQL和TableAPI的程序最終執行的時候將不會翻譯到DataStream和DataSet這兩個API上,而是直接構建到可運行的DAG上來,這樣就使得物理執行算子的設計不完全依賴底層的API,有了更大的靈活度,同時執行代碼也能夠被靈活的codegen出來。唯一的一個影響就是這個版本的SQL和TableAPI不能和DataSet這個API進行互相轉換,但仍然保留了和DataStream API互相轉換的能力(將DataStream注冊成表,或將Table轉成DataStream后繼續操作)。未來,我們計劃把dataset的功能慢慢都在DataStream和TableAPI上面實現。到那時DataStream和SQL以及tableAPI一樣,是一個可以同時描述bounded以及unbounded processing的API。

  除了架構上的重構,Blink還在具體實現上做了較多比較大的重構。首先,Blink引入了二進制的數據結構BinaryRow,極大的減少了數據存儲上的開銷以及數據在序列化和反序列化上計算的開銷。其次,在算子的實現層面,Blink在更廣范圍內引入了CodeGen技術。由于預先知道算子需要處理的數據的類型,在QP層內部就可以直接生成更有針對性更高效的執行代碼。

  Blink的算子會動態的申請和使用資源,能夠更好的利用資源,提升效率,更加重要的是這些算子對資源有著比較好的控制,不會發生OutOfMemory 的問題。此外,針對流計算場景,Blink加入了miniBatch的執行模式,在aggregate、join等需要和state頻繁交互且往往又能先做部分reduce的場景中,使用miniBatch能夠極大的減少IO,從而成數量級的提升性能。除了上面提到的這些重要的重構和功能點,Blink還實現了完整的SQL DDL,帶emit策略的流計算DML,若干重要的SQL功能,以及大量的性能優化策略。

阿里正式向 Apache Flink 貢獻 Blink 源碼

  有了上面提到的諸多架構和實現上的重構。Blink的SQL/tableAPI在功能和性能方面都取得了脫胎換骨的變化。在批計算方面,首先Blink batch SQL能夠完整的跑通TPC-H和TPC-DS,且性能上有著極大的提升。如上圖所示,是這次開源的Blink版本和spark 2.3.1的TPC-DS的benchmark性能對比。柱狀圖的高度代表了運行的總時間,高度越低說明性能越好。可以看出,Blink在TPC-DS上和Spark相比有著非常明顯的性能優勢。而且這種性能優勢隨著數據量的增加而變得越來越大。在實際的場景這種優勢已經超過 Spark的三倍。在流計算性能上我們也取得了類似的提升。我們線上的很多典型作業,它的性能是原來的3到5倍。在有數據傾斜的場景,以及若干比較有挑戰的TPC-H query,流計算性能甚至得到了數十倍的提升。

  除了標準的Relational SQL API。TableAPI在功能上是SQL的超集,因此在SQL上所有新加的功能,我們在tableAPI也添加了相對應的API。除此之外,我們還在TableAPI上引入了一些新的功能。其中一個比較重要是cache功能。在批計算場景下,用戶可以根據需要來cache計算的中間結果,從而避免不必要的重復計算。它極大的增強了interactive programming體驗。我們后續會在tableAPI上添加更多有用的功能。其實很多新功能已經在社區展開討論并被社區接受,例如我們在tableAPI增加了對一整行操作的算子map/flatMap/aggregate/flatAggregate(Flink FLIP29)等等。

  ●Hive的兼容性

  我們這次開源的版本實現了在元數據(meta data)和數據層將Flink和Hive對接和打通。國內外很多公司都還在用 Hive 在做自己的批處理。對于這些用戶,現在使用這次Blink開源的版本,就可以直接用Flink SQL去查詢Hive的數據,真正能夠做到在Hive引擎和Flink引擎之間的自由切換。

  為了打通元數據,我們重構了Flink catalog的實現,并且增加了兩種catalog,一個是基于內存存儲的FlinkInMemoryCatalog,另外一個是能夠橋接Hive metaStore的HiveCatalog。有了這個HiveCatalog,Flink作業就能讀取Hive的metaData。為了打通數據,我們實現了HiveTableSource,使得Flink job可以直接讀取Hive中普通表和分區表的數據。因此,通過這個版本,用戶可以使用Flink SQL讀取已有的Hive meta和data,做數據處理。未來我們將在Flink上繼續加大對Hive兼容性的支持,包括支持Hive特有的query,data type,和Hive UDF等等。

  ●Zeppelin for Flink

  為了提供更好的可視化和交互式體驗,我們做了大量的工作讓Zeppelin能夠更好的支持Flink。這些改動有些是在Flink上的,有些是在Zeppelin上的。在這些改動全部推回Flink和Zeppelin社區之前,大家可以使用這個Zeppelin image(具體細節請參考Blink代碼里的docs/quickstart/zeppelin_quickstart.md)來測試和使用這些功能。這個用于測試的Zeppelin版本,首先很好的融合和集成了Flink的多種運行模式以及運維界面。使用文本SQL和tableAPI可以自如的查詢Flink的static table和dynamic table。

  此外,針對Flink的流計算的特點,這一版Zeppelin也很好的支持了savepoint,用戶可以在界面上暫停作業,然后再從savepoint恢復繼續運行作業。在數據展示方面,除了傳統的數據分析界面,我們也添加了流計算的翻牌器和時間序列展示等等功能。為了方便用戶試用,我們在這一版zeppelin中提供3個built-in的Flink tutorial的例子: 一個是做StreamingETL的例子, 另外兩個分別是做Flink Batch,Flink Stream的基礎樣例。

阿里正式向 Apache Flink 貢獻 Blink 源碼

  ●Flink Web

  我們對Flink Web的易用性與性能等多個方面做了大量的改進,從資源使用、作業調優、日志查詢等維度新增了大量功能,使得用戶可以更方便的對Flink作業進行運維。在資源使用方面,新增了Cluster、TaskManager與Job三個級別的資源信息,使得資源的申請與使用情況一目了然。作業的拓撲關系及數據流向可以追溯至 Operator 級別,Vertex 增加了InQueue,OutQueue等多項指標,可以方便的追蹤數據的反壓、過濾及傾斜情況。TaskManager 和 JobManager 的日志功能得到大幅度加強,從Job、Vertex、SubTask 等多個維度都可以關聯至對應日志,提供多日志文件訪問入口,以及分頁展示查詢和日志高亮功能。

  另外,我們使用了較新的Angular 7.0 對Flink web進行了全面重構,頁面運行性能有了一倍以上的提升。在大數據量情況下也不會發生頁面卡死或者卡頓情況。同時對頁面的交互邏輯進行了整體優化,絕大部分關聯信息在單個頁面就可以完成查詢和比對工作,減少了大量不必要的跳轉。

阿里正式向 Apache Flink 貢獻 Blink 源碼

  未來的規劃

  Blink邁出了全面開源的第一步,接下來我們會和社區合作,盡可能以最快的方式將Blink的功能和性能上的優化merge回Flink。本次的開源版本一方面貢獻了Blink多年在流計算的積累,另一方面又重磅推出了在批處理上的成果。接下來,我們會持續給Flink社區貢獻其他方面的功能。我們期望每過幾個月就能看到技術上有一個比較大的亮點貢獻到社區。下一個亮點應該是對機器學習的支持。要把機器學習支持好,有一系列的工作要做,包括引擎的功能,性能,和易用性。這里面大部分的工作我們已經開發完成,并且很多功能都已經在阿里巴巴內部服務上線了。

  除了技術上創新以及新功能之外,Flink的易用性和外圍生態也非常重要。我們已經啟動了若干這方面的項目,包括Python以及Go等多語言支持,Flink集群管理,Notebook,以及機器學習平臺等等。這些項目有些會成為Flink自身的一部分貢獻回社區,有些不是。但它們都基于Flink,是Flink生態的一個很好的補充。獨立于Flink之外的那些項目,我們都也在認真的考慮開源出來。總之,Blink在開源的第一天起,就已經完全all-in的融入了Flink社區,我們希望所有的開發者看到我們的誠意和決心。

  未來,無論是功能還是生態,我們都會在Flink社區加大投入,我們也將投入力量做 Flink 社區的運營,讓 Flink 真正在中國、乃至全世界大規模地使用起來。我們衷心的希望更多的人加入,一起把Apache Flink開源社區做得更好!

特別提醒:本網內容轉載自其他媒體,目的在于傳遞更多信息,并不代表本網贊同其觀點。其原創性以及文中陳述文字和內容未經本站證實,對本文以及其中全部或者部分內容、文字的真實性、完整性、及時性本站不作任何保證或承諾,并請自行核實相關內容。本站不承擔此類作品侵權行為的直接責任及連帶責任。如若本網有任何內容侵犯您的權益,請及時聯系我們,本站將會在24小時內處理完畢。

贊(0)
分享到: 更多 (0)
?
網站地圖   滬ICP備18035694號-2    滬公網安備31011702889846號
久久精品五月,日韩不卡视频在线观看,国产精品videossex久久发布 ,久久av综合
亚洲乱码久久| 日韩精品一二三区| 日韩成人精品一区二区三区 | 亚洲一区国产一区| 婷婷五月色综合香五月| 久久av免费| 久久久久久夜| 亚洲手机视频| 婷婷综合一区| 日韩va亚洲va欧美va久久| 日本一不卡视频| 日韩欧美视频专区| 蜜臀91精品一区二区三区| 亚洲在线成人| 红杏一区二区三区| 欧美精品激情| 国产亚洲一区二区三区不卡| 国产一区一一区高清不卡| 国产高清精品二区| 给我免费播放日韩视频| 久久久久.com| 国产精品超碰| 欧美激情aⅴ一区二区三区 | www.九色在线| 91久久久精品国产| 黄色网一区二区| 成人福利av| 亚洲二区三区不卡| 美女国产一区| 日韩一区二区三区精品| 国产欧美日韩精品一区二区三区| 国产一区视频在线观看免费| 久久亚洲精品中文字幕蜜潮电影| 亚洲主播在线| 国产欧美日韩在线观看视频| 国产乱码午夜在线视频| 日韩视频一区| 欧美天堂在线| 播放一区二区| 国产极品模特精品一二| 91亚洲国产高清| 亚洲激情婷婷| 国产欧美日韩影院| 日韩免费在线| 中文字幕视频精品一区二区三区| 你懂的网址国产 欧美| 久久精品av| 欧美亚洲三区| 亚洲电影在线| 国产精品亚洲综合在线观看| 神马日本精品| 日韩一二三区在线观看| 日本不卡免费高清视频在线| 蜜桃视频免费观看一区| 国产一区二区三区亚洲综合| 亚洲中字黄色| 欧美xxxx中国| 国产日韩中文在线中文字幕| 黑森林国产精品av| 香蕉成人久久| 精品精品国产三级a∨在线| 欧美一区二区三区久久精品| 精品精品99| 日韩在线播放一区二区| 国产aa精品| 日韩精品一级二级| 成人小电影网站| 日韩一区二区三区精品视频第3页| 欧美www视频在线观看| 亚洲精品乱码日韩| 91精品国产福利在线观看麻豆| 日韩av网站在线观看| 欧美日韩精品免费观看视欧美高清免费大片| 一本一道久久a久久| 成人午夜亚洲| 日本91福利区| 夜夜精品视频| 伊人网在线播放| 欧美日韩一区自拍| 国产美女一区| 国产suv精品一区二区四区视频| 午夜精品福利影院| 亚洲大全视频| 日韩欧美午夜| 国产激情一区| 婷婷成人av| 亚洲成人国产| 福利一区二区| 美女久久精品| 亚洲人www| 在线 亚洲欧美在线综合一区| 国产精品久久久久久久久久10秀 | 亚洲性色av| 免费在线欧美黄色| 亚洲精品大片| 久久成人国产| 免费观看久久av| 欧美天堂视频| 精品久久免费| 国产欧美一区二区三区米奇| 久久国产66| 91精品蜜臀一区二区三区在线| 精品日韩一区| 国产精品一区二区三区av麻 | 久久精品999| 亚洲va久久久噜噜噜久久| 久久国产福利| 国产一区91| 国产婷婷精品| 日韩午夜精品| 亚洲欧美成人综合| 夜夜嗨一区二区三区| 最新亚洲一区| 一区二区自拍| 欧美福利一区| 精品一区在线| 亚洲精品网址| 亚洲一区二区免费看| 黄色欧美日韩| 国产精品三上| 蜜臀av亚洲一区中文字幕| 蜜芽一区二区三区| 中文字幕一区日韩精品| 亚洲精品乱码久久久久久蜜桃麻豆| 免费日韩精品中文字幕视频在线| 国产亚洲高清视频| 日韩在线卡一卡二| 天堂va欧美ⅴa亚洲va一国产| 日韩在线网址| 日本伊人久久| 国产精品调教| 国产精品99一区二区三| 裤袜国产欧美精品一区| 久久91导航| 精品在线播放| 在线精品一区| 国产一级成人av| 精品国产亚洲一区二区在线观看| 精品日韩一区| 久久九九电影| 久久大逼视频| 国产日韩欧美一区在线| 精品欧美日韩精品| 久久久人人人| 欧美日韩国产高清| 综合欧美亚洲| 国产精品一区二区中文字幕| 久久久久久夜| 黄色亚洲精品| 91成人小视频| 韩日一区二区| 午夜欧美精品| 久久国内精品| 91视频精品| 男人天堂欧美日韩| 国产精品日韩精品中文字幕| 国产精品久久久久蜜臀| 欧美日韩激情| 日韩精品成人| 麻豆久久一区| 国产精品7m凸凹视频分类| 亚洲精品高潮| 国产精品国产一区| 99热精品在线| 久久av偷拍| 欧美在线影院| 国产欧美三级| 亚洲先锋成人| 91精品国产自产观看在线| 91麻豆国产自产在线观看亚洲| 免费不卡中文字幕在线| 日本午夜精品一区二区三区电影| 97视频热人人精品免费| 天堂av在线一区| 国产欧美激情| 91精品久久久久久久久久不卡| 综合日韩在线| 岛国av免费在线观看| 亚洲一区二区日韩| 久久久久免费| 日韩精品亚洲专区在线观看| 日韩毛片视频| 五月亚洲婷婷 | 中文一区一区三区免费在线观| 欧美在线黄色| 亚洲午夜一级| 国产精品sm| 欧美日韩四区| 丁香婷婷久久| 亚洲精品一级二级三级| 日韩另类视频| 国产精品网址| 视频一区中文字幕国产| 日本激情一区| 日韩欧乱色一区二区三区在线| 亚洲天堂免费电影| 欧美日韩亚洲一区在线观看| 亚洲精品一区二区妖精| 精品日韩在线| 亚洲天堂免费|