![]() |
事件流處理服務-Keen
專用API
【更新時間: 2024.09.18】
事件流處理服務是一個強大的平臺,允許用戶從互聯網上的任何連接設備輕松收集事件數據。無論是您的網站、應用程序、后端服務器、智能設備還是第三方系統等,都可以通過使用Keen的強大REST API和多種SDK來收集這些數據。
免費
去服務商官網采購>
|
服務星級:2星
瀏覽次數
288
采購人數
0
試用次數
0
收藏
×
完成
取消
×
書簽名稱
確定
|
- API詳情
- 定價
- 使用指南
- 常見 FAQ
- 關于我們


什么是Keen的事件流處理服務?
事件流處理服務-Keen基于 Apache Kafka ® 構建,輕松從任何地方收集事件數據,添加豐富的屬性,并發送到您需要的任何地方。是一個專注于事件數據收集、豐富和轉換的服務平臺。它為用戶提供了一種方法來從各種來源收集事件數據,并通過多種方式豐富這些數據,如添加地理位置信息、設備類型等額外維度。同時,它也支持將數據發送到所需的任何地方,從而幫助用戶更好地理解和利用他們的數據資產。 |
![]() |
什么是Keen的事件流處理服務接口?
Keen的事件流處理服務有哪些核心功能?
從任何來源串流 使用從 JavaScript 到 Go 的超過 15 個 SDK,從堆棧中的任何位置進行 POST。 |
![]() |
![]() |
豐富與轉變 使用豐富功能添加維度,例如位置、工作日、訪問設備等。 |
將數據發送到任何需要的地方 使用 Keen 安全存儲數據,以便使用 Keen Compute 進行即時查詢和構建實時數據產品。 |
|
Keen的事件流處理服務的核心優勢是什么?
1.快速部署與數據收集:使用我們全面的工具和 SDK 集快速啟動并運行。您可以立即快速收集數據。
2. 全天候支持與專業團隊:讓Keen的人代替你的人負責尋呼機。我們的全球開發人員和支持人員團隊確保平臺 365、24/7 持續運行。
3. 完全定制化解決方案:通過完全可定制的堆棧準確構建您所需要的內容。您可以完全控制收集哪些數據以及如何描述數據。
4. 減少運維風險與復雜性:降低您的運營和交付風險。避免維護容錯數據管道帶來的不可避免的麻煩。
在哪些場景會用到Keen的事件流處理服務?
產品分析:企業可以使用該服務來跟蹤產品的使用情況和用戶的互動情況,從而獲得產品性能的真實視圖,并據此做出改進決策。 |
|
面向客戶的度量指標:通過集成“事件流處理服務-Keen”,公司可以快速開發出產品內的分析工具,減少開發時間,同時提供給客戶實時的度量信息。 |
|
業務運營:銷售、市場和財務團隊可以通過此服務來整合其使用的各種工具,從而更有效地管理業務操作并做出決策。例如,營銷團隊可以根據用戶的活動數據來優化營銷策略,而財務團隊則可以根據實際使用情況調整計費模型。 |
|




驗證
Keen 支持兩種用于驗證 HTTP API 請求的機制,一種用于 Kafka API 的驗證機制。您想要使用的項目都需要API 密鑰。
驗證請求的一種方法是使用名為“Authorization”的 HTTP 標頭。此方法適用于每個 API 調用。
所有 POST 都需要將“Content-Type”標頭設置為“application/json”。
API 密鑰
您的每個項目都會有自己的一組 API 密鑰,您可以從項目的概述頁面檢索這些密鑰。
1.轉到PROJECT_ID
2.單擊“訪問”選項卡
3.選擇并復制適當的密鑰
示例
import KeenAnalysis from 'keen-analysis';
const client = new KeenAnalysis({
projectId: 'PROJECT_ID',
readKey: 'READ_KEY',
writeKey: 'WRITE_KEY'
});
開始使用
Keen 現在提供使用Apache Kafka作為流式傳輸和備份事件的接口之一的流式傳輸,從而輕松與外部系統集成。
事件生產
使用具有寫密鑰(Write Key)認證的 Kafka 生產者可以將事件流傳輸到一個主題(Topic)。不需要提前創建主題,因為 auto.create.topics.enable=true。主題名稱在項目中必須是唯一的,且該名稱用于表示所傳輸事件的集合名稱。傳輸到 Keen Kafka Inbound 集群的事件與通過 HTTP API 傳輸的事件處理方式相同。
事件消費
你可以使用具有讀密鑰(Read Key)認證的 Kafka 消費者來消費事件流。同樣不需要提前創建主題,因為 auto.create.topics.enable=true。要從特定的事件集合進行消費,使用該集合名稱作為 Kafka 消費者的主題名稱(如果你也使用 Kafka 進行事件流傳輸,這將與 Kafka 生產者使用的主題名稱相同)。通過 HTTP API 和 Kafka 生產者發送的事件都將傳輸到 Outbound Kafka 集群。你可以通過 HTTP API 發送一些事件,通過 Kafka 生產者發送另一些事件,然后使用 Kafka 消費者消費所有事件。所有可在 Outbound Kafka 集群中消費的事件都會按照數據豐富(Data Enrichment)描述進行豐富。
詳情參考:https://keen.io/docs/api/#kafka-event-streaming






驗證
Keen 支持兩種用于驗證 HTTP API 請求的機制,一種用于 Kafka API 的驗證機制。您想要使用的項目都需要API 密鑰。
驗證請求的一種方法是使用名為“Authorization”的 HTTP 標頭。此方法適用于每個 API 調用。
所有 POST 都需要將“Content-Type”標頭設置為“application/json”。
API 密鑰
您的每個項目都會有自己的一組 API 密鑰,您可以從項目的概述頁面檢索這些密鑰。
1.轉到PROJECT_ID
2.單擊“訪問”選項卡
3.選擇并復制適當的密鑰
示例
import KeenAnalysis from 'keen-analysis';
const client = new KeenAnalysis({
projectId: 'PROJECT_ID',
readKey: 'READ_KEY',
writeKey: 'WRITE_KEY'
});
開始使用
Keen 現在提供使用Apache Kafka作為流式傳輸和備份事件的接口之一的流式傳輸,從而輕松與外部系統集成。
事件生產
使用具有寫密鑰(Write Key)認證的 Kafka 生產者可以將事件流傳輸到一個主題(Topic)。不需要提前創建主題,因為 auto.create.topics.enable=true。主題名稱在項目中必須是唯一的,且該名稱用于表示所傳輸事件的集合名稱。傳輸到 Keen Kafka Inbound 集群的事件與通過 HTTP API 傳輸的事件處理方式相同。
事件消費
你可以使用具有讀密鑰(Read Key)認證的 Kafka 消費者來消費事件流。同樣不需要提前創建主題,因為 auto.create.topics.enable=true。要從特定的事件集合進行消費,使用該集合名稱作為 Kafka 消費者的主題名稱(如果你也使用 Kafka 進行事件流傳輸,這將與 Kafka 生產者使用的主題名稱相同)。通過 HTTP API 和 Kafka 生產者發送的事件都將傳輸到 Outbound Kafka 集群。你可以通過 HTTP API 發送一些事件,通過 Kafka 生產者發送另一些事件,然后使用 Kafka 消費者消費所有事件。所有可在 Outbound Kafka 集群中消費的事件都會按照數據豐富(Data Enrichment)描述進行豐富。
詳情參考:https://keen.io/docs/api/#kafka-event-streaming



