中文字幕av高清_国产视频一二区_男女羞羞羞视频午夜视频_成人精品一区_欧美色视_在线视频这里只有精品

千鋒教育-做有情懷、有良心、有品質的職業教育機構

手機站
千鋒教育

千鋒學習站 | 隨時隨地免費學

千鋒教育

掃一掃進入千鋒手機站

領取全套視頻
千鋒教育

關注千鋒學習站小程序
隨時隨地免費學習課程

當前位置:首頁  >  技術干貨  > Flink Spark on Yarn 分布式日志收集問題

Flink Spark on Yarn 分布式日志收集問題

來源:千鋒教育
發布人:syq
時間: 2022-08-12 11:28:54 1660274934

  對于Flink,Spark在Yarn上提交的LongTime Job(比如一個批處理作業要運行幾個小時或者本身就是實時作業),其作業的運行日志我們不能等到作業結束后,通過Yarn日志聚合后查看,我們希望作業提交后就能夠馬上看到運行日志(這里注意,你的作業被調度到集群的各個計算節點中,比如你的集群有100個節點,你的作業可能被調度到幾十個個節點中),如何能夠實時方面的查看所有節點產生的日志呢?

Flink Spark on Yarn 分布式日志

  # 總體思路,無論是spark,flink 都使用log4j記錄日志,只不過默認輸出是Console和文件,我們通過定義 log4j 文件,將日志實時發送到一個位置,集中管理。

  * 方案1: 定義log4j KafkaAppender,將日志異步發送到Kafka,之后可以將數據發送到ES,通過Kibana查看即可

  * 方案2: 定義log4j SyslogAppender,將日志發送到rsyslog服務器(基于UDP傳輸,更高效),所有節點日志可以落到本地文件,這樣可以在這里通過文件查看日志,當然也可以接上ELK這一套。

  # 方案1比方案2要重一些,因為你需要Kafka集群,而rsyslog非常輕量,并且數據通過UDP協議傳輸更為高效。

  更多關于大數據培訓的問題,歡迎咨詢千鋒教育在線名師,如果想要了解我們的師資、課程、項目實操的話可以點擊咨詢課程顧問,獲取試聽資格來試聽我們的課程,在線零距離接觸千鋒教育大咖名師,讓你輕松從入門到精通。

tags:
聲明:本站稿件版權均屬千鋒教育所有,未經許可不得擅自轉載。
10年以上業內強師集結,手把手帶你蛻變精英
請您保持通訊暢通,專屬學習老師24小時內將與您1V1溝通
免費領取
今日已有369人領取成功
劉同學 138****2860 剛剛成功領取
王同學 131****2015 剛剛成功領取
張同學 133****4652 剛剛成功領取
李同學 135****8607 剛剛成功領取
楊同學 132****5667 剛剛成功領取
岳同學 134****6652 剛剛成功領取
梁同學 157****2950 剛剛成功領取
劉同學 189****1015 剛剛成功領取
張同學 155****4678 剛剛成功領取
鄒同學 139****2907 剛剛成功領取
董同學 138****2867 剛剛成功領取
周同學 136****3602 剛剛成功領取
相關推薦HOT
主站蜘蛛池模板: 欧美激情一区二区三区在线观看 | 欧美在线a| 欧美午夜精品理论片a级按摩 | 日韩成人在线看 | 欧美日韩亚洲一区 | 不卡日本 | 日韩在线一区二区三区 | 欧美日韩精品 | 亚洲高清一二三区 | 黄色在线免费观看 | 成人激情视频在线播放 | 在线观看第一页 | 欧美成人精品 | 国产依人在线 | 不卡一区 | 在线播放国产一区二区三区 | 成人一区电影 | 精品国产一区二区三区久久 | 日本三级电影天堂 | 两性午夜视频 | 成人在线精品视频 | 国产一级一级片 | 日韩精品在线一区二区 | 国产精品高潮呻吟av久久4虎 | 91九色最新| 色丁香婷婷 | 久久久亚洲一区二区三区 | 美女黄色毛片视频 | 99国产精品99久久久久久 | 免费观看一区二区三区 | 午夜视频在线观看网址 | 日韩二区 | 国产高清久久久 | 中文字幕免费看 | 国产一区| 无遮挡又黄又刺激的视频 | 日韩视频一区二区三区 | 国产一区二区三区久久久 | 精品欧美一区二区三区久久久 | 欧美一级大片免费 | 国产精品一区二区三区99 |