在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

利用KoP如何將Pulsar數據快速且無縫接入Apache Doris

電子工程師 ? 來源:OSC開源社區 ? 作者:OSC開源社區 ? 2022-08-08 15:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

KoP 架構介紹

KoP 是 Kafka on Pulsar 的簡寫,顧名思義就是如何在 Pulsar 上實現對 Kafka 數據的讀寫。KoP 將 Kafka 協議處理插件引入 Pulsar Broker 來實現 Apache Pulsar 對 Apache Kafka 協議的支持。將 KoP 協議處理插件添加到現有 Pulsar 集群后,用戶不用修改代碼就可以將現有的 Kafka 應用程序和服務遷移到 Pulsar。

Apache Pulsar 主要特點如下:

利用企業級多租戶特性簡化運營。

避免數據搬遷,簡化操作。

利用 Apache BookKeeper 和分層存儲持久保留事件流。

利用 Pulsar Functions 進行無服務器化事件處理。

KoP 架構如下圖,通過圖可以看到 KoP 引入一個新的協議處理插件,該協議處理插件利用 Pulsar 的現有組件(例如 Topic 發現、分布式日志庫-ManagedLedger、cursor 等)來實現 Kafka 傳輸協議。

Routine Load 訂閱 Pulsar 數據思路

Apache Doris Routine Load 支持了將 Kafka 數據接入 Apache Doris,并保障了數據接入過程中的事務性操作。Apache Pulsar 定位為一個云原生時代企業級的消息發布和訂閱系統,已經在很多線上服務使用。那么 Apache Pulsar 用戶如何將數據接入 Apache Doris 呢,答案是通過 KoP 實現。

由于 KoP 直接在 Pulsar 側提供了對 Kafka 的兼容,那么對于 Apache Doris 來說可以像使用 Kafka 一樣使用 Plusar。整個過程對于 Apache Doris 來說無需任務改變,就能將 Pulsar 數據接入 Apache Doris,并且可以獲得 Routine Load 的事務性保障。

--------------------------

| Apache Doris |

| --------------- |

| | Routine Load | |

| --------------- |

--------------------------

|Kafka Protocol(librdkafka)

------------v--------------

| --------------- |

| | KoP | |

| --------------- |

| Apache Pulsar |

--------------------------

操作實踐

Pulsar Standalone 安裝環境準備:

JDK 安裝:略

下載 Pulsar 二進制包,并解壓:

#下載

wget https://archive.apache.org/dist/pulsar/pulsar-2.10.0/apache-pulsar-2.10.0-bin.tar.gz

#解壓并進入安裝目錄

tar xvfz apache-pulsar-2.10.0-bin.tar.gz

cd apache-pulsar-2.10.0

組件編譯和安裝

1. 下載 KoP 源碼

git clone https://github.com/streamnative/kop.git

cd kop

2. 編譯 KoP 項目

mvn clean install -DskipTests

3. protocols 配置:在解壓后的 apache-pulsar 目錄下創建 protocols文 件夾,并把編譯好的 nar 包復制到 protocols 文件夾中。

mkdir apache-pulsar-2.10.0/protocols

# mv kop/kafka-impl/target/pulsar-protocol-handler-kafka-{{protocol:version}}.nar apache-pulsar-2.10.0/protocols

cp kop/kafka-impl/target/pulsar-protocol-handler-kafka-2.11.0-SNAPSHOT.nar apache-pulsar-2.10.0/protocols

4. 添加后的結果查看

[root@17a5da45700b apache-pulsar-2.10.0]# ls protocols/

pulsar-protocol-handler-kafka-2.11.0-SNAPSHOT.nar

KoP 配置添加

1. 在 standalone.conf 或者 broker.conf 添加如下配置

#kop適配的協議

messagingProtocols=kafka

#kop 的NAR文件路徑

protocolHandlerDirectory=。/protocols

#是否允許自動創建topic

allowAutoTopicCreationType=partitioned

2. 添加如下服務監聽配置

# Use `kafkaListeners` here for KoP 2.8.0 because `listeners` is marked as deprecated from KoP 2.8.0

kafkaListeners=PLAINTEXT://127.0.0.1:9092# This config is not required unless you want to expose another address to the Kafka client.

# If it’s not configured, it will be the same with `kafkaListeners` config by default

kafkaAdvertisedListeners=PLAINTEXT://127.0.0.1:9092

brokerEntryMetadataInterceptors=org.apache.pulsar.common.intercept.AppendIndexMetadataInterceptor

brokerDeleteInactiveTopicsEnabled=false

當出現如下錯誤:

java.lang.IllegalArgumentException: Broker has disabled transaction coordinator, please enable it before using transaction.

添加如下配置,開啟 transactionCoordinatorEnabled

kafkaTransactionCoordinatorEnabled=true

transactionCoordinatorEnabled=true

Pulsar 啟動

#前臺啟動

#bin/pulsar standalone

#后臺啟動

pulsar-daemon start standalone

創建 Doris 數據庫和建表

#進入Doris

mysql -u root -h 127.0.0.1 -P 9030

# 創建數據庫

create database pulsar_doris;

#切換數據庫

use pulsar_doris;

#創建clicklog表

CREATE TABLE IF NOT EXISTS pulsar_doris.clicklog

`clickTime` DATETIME NOT NULL COMMENT “點擊時間”,

`type` String NOT NULL COMMENT “點擊類型”,

`id` VARCHAR(100) COMMENT “唯一id”,

`user` VARCHAR(100) COMMENT “用戶名稱”,

`city` VARCHAR(50) COMMENT “所在城市”

DUPLICATE KEY(`clickTime`, `type`)

DISTRIBUTED BY HASH(`type`) BUCKETS 1

PROPERTIES (

“replication_allocation” = “tag.location.default: 1”

);

創建 Routine Load 任務

CREATE ROUTINE LOAD pulsar_doris.load_from_pulsar_test ON clicklog

COLUMNS(clickTime,id,type,user)

PROPERTIES

“desired_concurrent_number”=“3”,

“max_batch_interval” = “20”,

“max_batch_rows” = “300000”,

“max_batch_size” = “209715200”,

“strict_mode” = “false”,

“format” = “json”

FROM KAFKA

“kafka_broker_list” = “127.0.0.1:9092”,

“kafka_topic” = “test”,

“property.group.id” = “doris”

);

上述命令中的參數解釋如下:

pulsar_doris :Routine Load 任務所在的數據庫

load_from_pulsar_test:Routine Load 任務名稱

clicklog:Routine Load 任務的目標表,也就是配置 Routine Load 任務將數據導入到 Doris 哪個表中。

strict_mode:導入是否為嚴格模式,這里設置為 False。

format:導入數據的類型,這里配置為 Json。

kafka_broker_list:Kafka Broker 服務的地址

kafka_broker_list:Kafka Topic 名稱,也就是同步哪個 Topic 上的數據。

property.group.id:消費組 ID

數據導入和測試

1. 數據導入 構造一個 ClickLog 的數據結構,并調用 Kafka 的 Producer 發送 5000 萬條數據到 Pulsar。 ClickLog 數據結構如下:

public class ClickLog {

private String id;

private String user;

private String city;

private String clickTime;

private String type;

。.. //省略getter和setter

}

消息構造和發送的核心代碼邏輯如下:

String strDateFormat = “yyyy-MM-dd HHss”;

@Autowired

private Producer producer;

try {

for(int j =0 ; j《50000;j++){

int batchSize = 1000;

for(int i = 0 ; i《batchSize ;i++){

ClickLog clickLog = new ClickLog();

clickLog.setId(UUID.randomUUID().toString());

SimpleDateFormat simpleDateFormat = new SimpleDateFormat(strDateFormat);

clickLog.setClickTime(simpleDateFormat.format(new Date()));

clickLog.setType(“webset”);

clickLog.setUser(“user”+ new Random().nextInt(1000) +i);

producer.sendMessage(Constant.topicName, JSONObject.toJSONString(clickLog));

}

}

} catch (Exception e) {

e.printStackTrace();

}

2. ROUTINE LOAD 任務查看執行 SHOW ALL ROUTINE LOAD FOR load_from_pulsar_test G;命令,查看導入任務的狀態。

mysql》 SHOW ALL ROUTINE LOAD FOR load_from_pulsar_test G;

*************************** 1. row ***************************

Id: 87873

Name: load_from_pulsar_test

CreateTime: 2022-05-31 1234

PauseTime: NULL

EndTime: NULL

DbName: default_cluster:pulsar_doris

TableName: clicklog1

State: RUNNING

DataSourceType: KAFKA

CurrentTaskNum: 1

JobProperties: {“partitions”:“*”,“columnToColumnExpr”:“clickTime,id,type,user”,“maxBatchIntervalS”:“20”,“whereExpr”:“*”,“dataFormat”:“json”,“timezone”:“Europe/London”,“send_batch_parallelism”:“1”,“precedingFilter”:“*”,“mergeType”:“APPEND”,“format”:“json”,“json_root”:“”,“maxBatchSizeBytes”:“209715200”,“exec_mem_limit”:“2147483648”,“strict_mode”:“false”,“jsonpaths”:“”,“deleteCondition”:“*”,“desireTaskConcurrentNum”:“3”,“maxErrorNum”:“0”,“strip_outer_array”:“false”,“currentTaskConcurrentNum”:“1”,“execMemLimit”:“2147483648”,“num_as_string”:“false”,“fuzzy_parse”:“false”,“maxBatchRows”:“300000”}

DataSourceProperties: {“topic”:“test”,“currentKafkaPartitions”:“0”,“brokerList”:“127.0.0.1:9092”}

CustomProperties: {“group.id”:“doris”,“kafka_default_offsets”:“OFFSET_END”,“client.id”:“doris.client”}

Statistic: {“receivedBytes”:5739001913,“runningTxns”:[],“errorRows”:0,“committedTaskNum”:168,“loadedRows”:50000000,“loadRowsRate”:23000,“abortedTaskNum”:1,“errorRowsAfterResumed”:0,“totalRows”:50000000,“unselectedRows”:0,“receivedBytesRate”:2675000,“taskExecuteTimeMs”:2144799}

Progress: {“0”:“51139566”}

Lag: {“0”:0}

ReasonOfStateChanged:

ErrorLogUrls:

OtherMsg:

1 row in set (0.00 sec)

ERROR:

No query specified

從上面結果可以看到 totalRows 為 50000000,errorRows 為 0。說明數據不丟不重的導入 Apache Doris 了。

3. 數據統計驗證執行如下命令統計表中的數據,發現統計的結果也是 50000000,符合預期。

mysql》 select count(*) from clicklog;

+----------+

| count(*) |

+----------+

| 50000000 |

+----------+

1 row in set (3.73 sec)

mysql》

通過 KoP 我們實現了將 Apache Pulsar 數據無縫接入 Apache Doris ,無需對 Routine Load 任務進行任何修改,并保障了數據導入過程中的事務性。與此同時,Apache Doris 社區已經啟動了 Apache Pulsar 原生導入支持的設計,相信在不久后就可以直接訂閱 Pulsar 中的消息數據,并保證數據導入過程中的 Exactly-Once 語義。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 服務器
    +關注

    關注

    13

    文章

    9768

    瀏覽量

    87728
  • 代碼
    +關注

    關注

    30

    文章

    4895

    瀏覽量

    70544

原文標題:如何將Pulsar數據快速且無縫接入Apache Doris

文章出處:【微信號:OSC開源社區,微信公眾號:OSC開源社區】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    用MCP百度地圖能力輕松接入DeepSeek

    如何將百度地圖的能力接入DeepSeek。本文詳細介紹通過MCP百度地圖的能力接入DeepSeek,為用戶提供精準的智能規劃服務。 一
    的頭像 發表于 03-31 11:05 ?632次閱讀
    用MCP<b class='flag-5'>將</b>百度地圖能力輕松<b class='flag-5'>接入</b>DeepSeek

    如何將Linux安裝包快速轉成玲瓏包

    本篇將以 motrix 為例為大家展示如何將 Linux 安裝包快速轉成玲瓏包。
    的頭像 發表于 03-12 16:01 ?518次閱讀
    <b class='flag-5'>如何將</b>Linux安裝包<b class='flag-5'>快速</b>轉成玲瓏包

    如何將項目從IAR遷移到Embedded Studio

    本文描述如何將IAR EWARM項目遷移到SEGGER Embedded Studio(簡稱SES)中。
    的頭像 發表于 02-25 17:11 ?557次閱讀
    <b class='flag-5'>如何將</b>項目從IAR遷移到Embedded Studio

    如何在DevEco Studio中利用CodeGPT接入DeepSeek

    近期DeepSeek火爆全球,那一樣很火的開發鴻蒙原生應用的DevEco Studio如果把它接入,會發生什么“化學反應”呢?下面我們詳細分享如何在DevEco Studio中利用CodeGPT
    的頭像 發表于 02-19 13:52 ?1037次閱讀
    如何在DevEco Studio中<b class='flag-5'>利用</b>CodeGPT<b class='flag-5'>接入</b>DeepSeek

    如何將python文件導入到ROS系統中

    本文通過使用myCobot機械臂進行QR碼視覺追蹤的實踐案例分析,介紹如何將 python 文件導入到 ROS 系統中。
    的頭像 發表于 02-11 11:08 ?757次閱讀
    <b class='flag-5'>如何將</b>python文件導入到ROS系統中

    請問ccs4.2如何將采集到的數據導出成dat文件?

    ccs4.2如何將采集到的數據導出成dat文件
    發表于 01-14 08:08

    EE-191:利用SHARC DSP SPORTs實現無縫UART

    電子發燒友網站提供《EE-191:利用SHARC DSP SPORTs實現無縫UART.pdf》資料免費下載
    發表于 01-06 14:40 ?0次下載
    EE-191:<b class='flag-5'>利用</b>SHARC DSP SPORTs實現<b class='flag-5'>無縫</b>UART

    請問如何將單端輸出運放和真差分ADC連接?

    接到19位以上的精密ADC上(ADC已選定)。問題是:高精密高位數的ADC都是真差分輸入,而偏置和失調性能好的運放都是單端輸出。那么如何將運放的單端輸出和真差分輸入的ADC連接起來呢? 1. 如果我
    發表于 12-06 08:33

    工業智能網關快速接入移動OneNET平臺配置操作

    新基建。 在實際應用中,很多用戶都需要將生產設備數據對接到移動OneNET平臺中,享受便捷快速的配置操作體驗,同時也不需要付出購買運維硬件的成本精力,快速實現工業物聯網場景應用。以下介紹通過物通博聯工業智能網關
    的頭像 發表于 11-06 17:24 ?907次閱讀
    工業智能網關<b class='flag-5'>快速</b><b class='flag-5'>接入</b>移動OneNET平臺配置操作

    使用stm32f767tlv320adc3140配置為tdm工作模式,如何將每個通道數據單獨提出出來進而播放呢?

    使用stm32f767tlv320adc3140配置為tdm工作模式,采集到了四通道差分輸入的音頻數據如何將每個通道數據單獨提出出來進而播放呢?
    發表于 10-09 07:47

    如何將LVDS/OLDI橋接到HDMI/DVI

    電子發燒友網站提供《如何將LVDS/OLDI橋接到HDMI/DVI.pdf》資料免費下載
    發表于 09-27 09:35 ?5次下載
    <b class='flag-5'>如何將</b>LVDS/OLDI橋接到HDMI/DVI

    啟明信息完成國產化Doris數據庫升級替代任務

    近日,隨著集團公司監控平臺(Elasticsearch集群)的下線,標志著啟明信息正式完成國產化Doris數據庫升級替代任務。該項目既標志著啟明信息信創升級替代邁入新臺階,同時也標志著在Doris應用領域取得自主研發新進展。
    的頭像 發表于 09-20 09:33 ?2015次閱讀

    如何將BQ35100配置為EOS模式

    電子發燒友網站提供《如何將BQ35100配置為EOS模式.pdf》資料免費下載
    發表于 09-11 10:03 ?0次下載
    <b class='flag-5'>如何將</b>BQ35100配置為EOS模式

    TINA如何將函數信號發生器產生的信號接入到電路中?

    本人大學新手,競賽需要,對于TINA不是很會使用。打開函數信號發生器,點擊矩形波圖標,自動跳回DC,而且不會怎么產生的信號接入到待測試電路中。謝謝
    發表于 08-12 06:16

    鋇錸Modbus轉BACnet IP網關如何接入BA系統?

    了關鍵設備!本文詳細介紹如何將Modbus轉BACnet/IP網關接入BA系統,確保數據無縫集成和高效管理。 一、B
    的頭像 發表于 07-22 16:38 ?753次閱讀
    鋇錸Modbus轉BACnet IP網關如何<b class='flag-5'>接入</b>BA系統?
    主站蜘蛛池模板: 午夜免费片在线观看不卡 | 嫩草影院在线入口 | 日日射天天射 | 一级片 在线播放 | 性xxxfreexxxx性欧美 | 97精品久久天干天天蜜 | 在线视频观看免费 | 日本一区二区在线免费观看 | 亚洲日韩色综合视频 | 狠狠躁 | 亚洲情a成黄在线观看动 | 在线免费观看一级毛片 | 色婷婷狠狠久久综合五月 | 精品一区亚洲 | 天堂在线最新版www中文 | sis色中色| 欧洲妇女成人淫片aaa视频 | 国产激烈无遮挡免费床戏视频 | 色播五月激情五月 | 夜夜操天天干 | 男女交性永久免费视频播放 | 爱夜夜性夜夜夜夜夜夜爽 | 国产免费播放一区二区三区 | 亚洲欧美国产五月天综合 | 天天摸天天碰中文字幕 | 性欧美f| 夜夜做日日做夜夜爽 | 国产精品久久自在自2021 | 大尺度在线播放 | аⅴ资源中文在线天堂 | 视频网站黄色 | 国产主播在线观看 | 成人免费精品视频 | www网站在线观看 | 午夜国产精品久久影院 | 色婷婷色综合 | 午夜色图 | 色的视频网站 | 亚洲色图狠狠干 | 五月婷婷六月婷婷 | 欧美精品aaa久久久影院 |