成人无码视频,亚洲精品久久久久av无码,午夜精品久久久久久毛片,亚洲 中文字幕 日韩 无码

資訊專欄INFORMATION COLUMN

《從0到1學(xué)習(xí)Flink》—— Apache Flink 介紹

flyer_dev / 875人閱讀

摘要:擴展庫還包括用于復(fù)雜事件處理,機器學(xué)習(xí),圖形處理和兼容性的專用代碼庫。事件時間機制使得那些事件無序到達甚至延遲到達的數(shù)據(jù)流能夠計算出精確的結(jié)果。負責(zé)接受用戶的程序代碼,然后創(chuàng)建數(shù)據(jù)流,將數(shù)據(jù)流提交給以便進一步執(zhí)行。

前言

Flink 是一種流式計算框架,為什么我會接觸到 Flink 呢?因為我目前在負責(zé)的是監(jiān)控平臺的告警部分,負責(zé)采集到的監(jiān)控數(shù)據(jù)會直接往 kafka 里塞,然后告警這邊需要從 kafka topic 里面實時讀取到監(jiān)控數(shù)據(jù),并將讀取到的監(jiān)控數(shù)據(jù)做一些 聚合/轉(zhuǎn)換/計算 等操作,然后將計算后的結(jié)果與告警規(guī)則的閾值進行比較,然后做出相應(yīng)的告警措施(釘釘群、郵件、短信、電話等)。畫了個簡單的圖如下:

目前告警這塊的架構(gòu)是這樣的結(jié)構(gòu),剛進公司那會的時候,架構(gòu)是所有的監(jiān)控數(shù)據(jù)直接存在 ElasticSearch 中,然后我們告警是去 ElasticSearch 中搜索我們監(jiān)控指標(biāo)需要的數(shù)據(jù),幸好 ElasticSearch 的搜索能力夠強大。但是你有沒有發(fā)現(xiàn)一個問題,就是所有的監(jiān)控數(shù)據(jù)從采集、采集后的數(shù)據(jù)做一些 計算/轉(zhuǎn)換/聚合、再通過 Kafka 消息隊列、再存進 ElasticSearch 中,再而去 ElasticSearch 中查找我們的監(jiān)控數(shù)據(jù),然后做出告警策略。整個流程對監(jiān)控來說看起來很按照常理,但是對于告警來說,如果中間某個環(huán)節(jié)出了問題,比如 Kafka 消息隊列延遲、監(jiān)控數(shù)據(jù)存到 ElasticSearch 中寫入時間較長、你的查詢姿勢寫的不對等原因,這都將導(dǎo)致告警從 ElasticSearch 查到的數(shù)據(jù)是有延遲的。也許是 30 秒、一分鐘、或者更長,這樣對于告警來說這無疑將導(dǎo)致告警的消息沒有任何的意義。

為什么這么說呢?為什么需要監(jiān)控告警平臺呢?無非就是希望我們能夠盡早的發(fā)現(xiàn)問題,把問題給告警出來,這樣開發(fā)和運維人員才能夠及時的處理解決好線上的問題,以免給公司造成巨大的損失。

更何況現(xiàn)在還有更多的公司在做那種提前預(yù)警呢!這種又該如何做呢?需要用大數(shù)據(jù)和機器學(xué)習(xí)的技術(shù)去分析周期性的歷史數(shù)據(jù),然后根據(jù)這些數(shù)據(jù)可以整理出來某些監(jiān)控指標(biāo)的一些周期性(一天/七天/一月/一季度/一年)走勢圖,這樣就大概可以繪圖出來。然后根據(jù)這個走勢圖,可以將當(dāng)前時間點的監(jiān)控指標(biāo)的數(shù)據(jù)使用量和走勢圖進行對比,在快要達到我們告警規(guī)則的閾值時,這時就可以提前告一個預(yù)警出來,讓運維提前知道預(yù)警,然后提前查找問題,這樣就能夠提早發(fā)現(xiàn)問題所在,避免損失,將損失降到最小!當(dāng)然,這種也是我打算做的,應(yīng)該可以學(xué)到不少東西的。

于是乎,我現(xiàn)在就在接觸流式計算框架 Flink,類似的還有常用的 Spark 等。

自己也接觸了 Flink 一段時間了,這塊中文資料目前書籍是只有一本很薄的,英文書籍也是三本不超過。

我自己整理了些 Flink 的學(xué)習(xí)資料,目前已經(jīng)全部放到微信公眾號了。你可以關(guān)注我的公眾號:zhisheng,然后回復(fù)關(guān)鍵字:Flink 即可無條件獲取到。

另外這里也推薦一些博客可以看看:

1、官網(wǎng):[https://flink.apache.org/]()

2、GitHub: [https://github.com/apache/flink]()

3、[https://blog.csdn.net/column/...]()

4、[https://blog.csdn.net/lmalds/...]()

5、[http://wuchong.me/]()

6、[https://blog.csdn.net/liguohu...]()

下面的介紹可能也有不少參考以上所有的資料,感謝他們!在介紹 Flink 前,我們先看看 數(shù)據(jù)集類型數(shù)據(jù)運算模型 的種類。

數(shù)據(jù)集類型有哪些呢:

無窮數(shù)據(jù)集:無窮的持續(xù)集成的數(shù)據(jù)集合

有界數(shù)據(jù)集:有限不會改變的數(shù)據(jù)集合

那么那些常見的無窮數(shù)據(jù)集有哪些呢?

用戶與客戶端的實時交互數(shù)據(jù)

應(yīng)用實時產(chǎn)生的日志

金融市場的實時交易記錄

...

數(shù)據(jù)運算模型有哪些呢:

流式:只要數(shù)據(jù)一直在產(chǎn)生,計算就持續(xù)地進行

批處理:在預(yù)先定義的時間內(nèi)運行計算,當(dāng)完成時釋放計算機資源

Flink 它可以處理有界的數(shù)據(jù)集、也可以處理無界的數(shù)據(jù)集、它可以流式的處理數(shù)據(jù)、也可以批量的處理數(shù)據(jù)。

Flink 是什么 ?

上面三張圖轉(zhuǎn)自 云邪 成都站 《Flink 技術(shù)介紹與未來展望》,侵刪。

從下至上,F(xiàn)link 整體結(jié)構(gòu)

從下至上:

1、部署:Flink 支持本地運行、能在獨立集群或者在被 YARN 或 Mesos 管理的集群上運行, 也能部署在云上。

2、運行:Flink 的核心是分布式流式數(shù)據(jù)引擎,意味著數(shù)據(jù)以一次一個事件的形式被處理。

3、API:DataStream、DataSet、Table、SQL API。

4、擴展庫:Flink 還包括用于復(fù)雜事件處理,機器學(xué)習(xí),圖形處理和 Apache Storm 兼容性的專用代碼庫。

Flink 數(shù)據(jù)流編程模型 抽象級別

Flink 提供了不同的抽象級別以開發(fā)流式或批處理應(yīng)用。

最底層提供了有狀態(tài)流。它將通過 過程函數(shù)(Process Function)嵌入到 DataStream API 中。它允許用戶可以自由地處理來自一個或多個流數(shù)據(jù)的事件,并使用一致、容錯的狀態(tài)。除此之外,用戶可以注冊事件時間和處理事件回調(diào),從而使程序可以實現(xiàn)復(fù)雜的計算。

DataStream / DataSet API 是 Flink 提供的核心 API ,DataSet 處理有界的數(shù)據(jù)集,DataStream 處理有界或者無界的數(shù)據(jù)流。用戶可以通過各種方法(map / flatmap / window / keyby / sum / max / min / avg / join 等)將數(shù)據(jù)進行轉(zhuǎn)換 / 計算。

Table API 是以 為中心的聲明式 DSL,其中表可能會動態(tài)變化(在表達流數(shù)據(jù)時)。Table API 提供了例如 select、project、join、group-by、aggregate 等操作,使用起來卻更加簡潔(代碼量更少)。

你可以在表與 DataStream/DataSet 之間無縫切換,也允許程序?qū)?Table APIDataStream 以及 DataSet 混合使用。

Flink 提供的最高層級的抽象是 SQL 。這一層抽象在語法與表達能力上與 Table API 類似,但是是以 SQL查詢表達式的形式表現(xiàn)程序。SQL 抽象與 Table API 交互密切,同時 SQL 查詢可以直接在 Table API 定義的表上執(zhí)行。

Flink 程序與數(shù)據(jù)流結(jié)構(gòu)

Flink 應(yīng)用程序結(jié)構(gòu)就是如上圖所示:

1、Source: 數(shù)據(jù)源,F(xiàn)link 在流處理和批處理上的 source 大概有 4 類:基于本地集合的 source、基于文件的 source、基于網(wǎng)絡(luò)套接字的 source、自定義的 source。自定義的 source 常見的有 Apache kafka、Amazon Kinesis Streams、RabbitMQ、Twitter Streaming API、Apache NiFi 等,當(dāng)然你也可以定義自己的 source。

2、Transformation:數(shù)據(jù)轉(zhuǎn)換的各種操作,有 Map / FlatMap / Filter / KeyBy / Reduce / Fold / Aggregations / Window / WindowAll / Union / Window join / Split / Select / Project 等,操作很多,可以將數(shù)據(jù)轉(zhuǎn)換計算成你想要的數(shù)據(jù)。

3、Sink:接收器,F(xiàn)link 將轉(zhuǎn)換計算后的數(shù)據(jù)發(fā)送的地點 ,你可能需要存儲下來,F(xiàn)link 常見的 Sink 大概有如下幾類:寫入文件、打印出來、寫入 socket 、自定義的 sink 。自定義的 sink 常見的有 Apache kafka、RabbitMQ、MySQL、ElasticSearch、Apache Cassandra、Hadoop FileSystem 等,同理你也可以定義自己的 sink。

為什么選擇 Flink?

Flink 是一個開源的分布式流式處理框架:

①提供準(zhǔn)確的結(jié)果,甚至在出現(xiàn)無序或者延遲加載的數(shù)據(jù)的情況下。

②它是狀態(tài)化的容錯的,同時在維護一次完整的的應(yīng)用狀態(tài)時,能無縫修復(fù)錯誤。

③大規(guī)模運行,在上千個節(jié)點運行時有很好的吞吐量和低延遲。

更早的時候,我們討論了數(shù)據(jù)集類型(有界 vs 無窮)和運算模型(批處理 vs 流式)的匹配。Flink 的流式計算模型啟用了很多功能特性,如狀態(tài)管理,處理無序數(shù)據(jù),靈活的視窗,這些功能對于得出無窮數(shù)據(jù)集的精確結(jié)果是很重要的。

Flink 保證狀態(tài)化計算強一致性?!睜顟B(tài)化“意味著應(yīng)用可以維護隨著時間推移已經(jīng)產(chǎn)生的數(shù)據(jù)聚合或者,并且 Filnk 的檢查點機制在一次失敗的事件中一個應(yīng)用狀態(tài)的強一致性。

Flink 支持流式計算和帶有事件時間語義的視窗。事件時間機制使得那些事件無序到達甚至延遲到達的數(shù)據(jù)流能夠計算出精確的結(jié)果。

除了提供數(shù)據(jù)驅(qū)動的視窗外,F(xiàn)link 還支持基于時間,計數(shù),session 等的靈活視窗。視窗能夠用靈活的觸發(fā)條件定制化從而達到對復(fù)雜的流傳輸模式的支持。Flink 的視窗使得模擬真實的創(chuàng)建數(shù)據(jù)的環(huán)境成為可能。

Flink 的容錯能力是輕量級的,允許系統(tǒng)保持高并發(fā),同時在相同時間內(nèi)提供強一致性保證。Flink 以零數(shù)據(jù)丟失的方式從故障中恢復(fù),但沒有考慮可靠性和延遲之間的折衷。

Flink 能滿足高并發(fā)和低延遲(計算大量數(shù)據(jù)很快)。下圖顯示了 Apache Flink 與 Apache Storm 在完成流數(shù)據(jù)清洗的分布式任務(wù)的性能對比。

Flink 保存點提供了一個狀態(tài)化的版本機制,使得能以無丟失狀態(tài)和最短停機時間的方式更新應(yīng)用或者回退歷史數(shù)據(jù)。

Flink 被設(shè)計成能用上千個點在大規(guī)模集群上運行。除了支持獨立集群部署外,F(xiàn)link 還支持 YARN 和Mesos 方式部署。

Flink 的程序內(nèi)在是并行和分布式的,數(shù)據(jù)流可以被分區(qū)成 stream partitions,operators 被劃分為operator subtasks; 這些 subtasks 在不同的機器或容器中分不同的線程獨立運行;operator subtasks 的數(shù)量在具體的 operator 就是并行計算數(shù),程序不同的 operator 階段可能有不同的并行數(shù);如下圖所示,source operator 的并行數(shù)為 2,但最后的 sink operator 為1;

自己的內(nèi)存管理

Flink 在 JVM 中提供了自己的內(nèi)存管理,使其獨立于 Java 的默認垃圾收集器。 它通過使用散列,索引,緩存和排序有效地進行內(nèi)存管理。

豐富的庫

Flink 擁有豐富的庫來進行機器學(xué)習(xí),圖形處理,關(guān)系數(shù)據(jù)處理等。 由于其架構(gòu),很容易執(zhí)行復(fù)雜的事件處理和警報。

分布式運行

flink 作業(yè)提交架構(gòu)流程可見下圖:

1、Program Code:我們編寫的 Flink 應(yīng)用程序代碼

2、Job Client:Job Client 不是 Flink 程序執(zhí)行的內(nèi)部部分,但它是任務(wù)執(zhí)行的起點。 Job Client 負責(zé)接受用戶的程序代碼,然后創(chuàng)建數(shù)據(jù)流,將數(shù)據(jù)流提交給 Job Manager 以便進一步執(zhí)行。 執(zhí)行完成后,Job Client 將結(jié)果返回給用戶

3、Job Manager:主進程(也稱為作業(yè)管理器)協(xié)調(diào)和管理程序的執(zhí)行。 它的主要職責(zé)包括安排任務(wù),管理checkpoint ,故障恢復(fù)等。機器集群中至少要有一個 master,master 負責(zé)調(diào)度 task,協(xié)調(diào) checkpoints 和容災(zāi),高可用設(shè)置的話可以有多個 master,但要保證一個是 leader, 其他是 standby; Job Manager 包含 Actor system、Scheduler、Check pointing 三個重要的組件

4、Task Manager:從 Job Manager 處接收需要部署的 Task。Task Manager 是在 JVM 中的一個或多個線程中執(zhí)行任務(wù)的工作節(jié)點。 任務(wù)執(zhí)行的并行性由每個 Task Manager 上可用的任務(wù)槽決定。 每個任務(wù)代表分配給任務(wù)槽的一組資源。 例如,如果 Task Manager 有四個插槽,那么它將為每個插槽分配 25% 的內(nèi)存。 可以在任務(wù)槽中運行一個或多個線程。 同一插槽中的線程共享相同的 JVM。 同一 JVM 中的任務(wù)共享 TCP 連接和心跳消息。Task Manager 的一個 Slot 代表一個可用線程,該線程具有固定的內(nèi)存,注意 Slot 只對內(nèi)存隔離,沒有對 CPU 隔離。默認情況下,F(xiàn)link 允許子任務(wù)共享 Slot,即使它們是不同 task 的 subtask,只要它們來自相同的 job。這種共享可以有更好的資源利用率。

最后

本文主要講了我接觸到 Flink 的緣由,然后從數(shù)據(jù)集類型和數(shù)據(jù)運算模型開始講起,接著介紹了下 Flink 是什么、Flink 的整體架構(gòu)、提供的 API、Flink 的優(yōu)點所在以及 Flink 的分布式作業(yè)運行的方式。水文一篇,希望你能夠?qū)?Flink 稍微有一點概念了。

關(guān)注我

轉(zhuǎn)載請務(wù)必注明原創(chuàng)地址為:http://www.54tianzhisheng.cn/2018/10/13/flink-introduction/

另外我自己整理了些 Flink 的學(xué)習(xí)資料,目前已經(jīng)全部放到微信公眾號了。你可以加我的微信:zhisheng_tian,然后回復(fù)關(guān)鍵字:Flink 即可無條件獲取到。

相關(guān)文章

1、《從0到1學(xué)習(xí)Flink》—— Apache Flink 介紹

2、《從0到1學(xué)習(xí)Flink》—— Mac 上搭建 Flink 1.6.0 環(huán)境并構(gòu)建運行簡單程序入門

3、《從0到1學(xué)習(xí)Flink》—— Flink 配置文件詳解

4、《從0到1學(xué)習(xí)Flink》—— Data Source 介紹

5、《從0到1學(xué)習(xí)Flink》—— 如何自定義 Data Source ?

6、《從0到1學(xué)習(xí)Flink》—— Data Sink 介紹

7、《從0到1學(xué)習(xí)Flink》—— 如何自定義 Data Sink ?

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://m.hztianpu.com/yun/72019.html

相關(guān)文章

  • Apache Flink 1.9 重大特性提前解讀

    showImg(https://segmentfault.com/img/remote/1460000019961426); 今天在 Apache Flink meetup ·北京站進行 Flink 1.9 重大新特性進行了講解,兩位講師分別是 戴資力/楊克特,zhisheng 我也從看完了整個 1.9 特性解讀的直播,預(yù)計 Flink 1.9 版本正式發(fā)布時間大概是 7 月底 8 月初左右正式發(fā)...

    wall2flower 評論0 收藏0
  • 01學(xué)習(xí)Flink》—— Mac 上搭建 Flink 1.6.0 環(huán)境并構(gòu)建運行簡單程序入門

    摘要:總結(jié)本文描述了如何在電腦上安裝,及運行它。相關(guān)文章從到學(xué)習(xí)介紹從到學(xué)習(xí)上搭建環(huán)境并構(gòu)建運行簡單程序入門從到學(xué)習(xí)配置文件詳解從到學(xué)習(xí)介紹從到學(xué)習(xí)如何自定義從到學(xué)習(xí)介紹從到學(xué)習(xí)如何自定義 showImg(https://segmentfault.com/img/remote/1460000016915923?w=1920&h=1275); 準(zhǔn)備工作 1、安裝查看 Java 的版本號,推薦...

    zeyu 評論0 收藏0
  • Flink 01學(xué)習(xí)—— 分享四本 Flink 國外的書和二十多篇 Paper 論文

    摘要:另外,將機制發(fā)揚光大,對有著非常好的支持。系統(tǒng)也注意到并討論了和的問題??偨Y(jié)本文分享了四本相關(guān)的書籍和一份領(lǐng)域相關(guān)的論文列表篇,涉及的設(shè)計,實現(xiàn),故障恢復(fù),彈性擴展等各方面。 前言 之前也分享了不少自己的文章,但是對于 Flink 來說,還是有不少新入門的朋友,這里給大家分享點 Flink 相關(guān)的資料(國外數(shù)據(jù) pdf 和流處理相關(guān)的 Paper),期望可以幫你更好的理解 Flink。...

    jollywing 評論0 收藏0

發(fā)表評論

0條評論

flyer_dev

|高級講師

TA的文章

閱讀更多
最新活動
閱讀需要支付1元查看
<