RisingWave [1] 是一个分布式流数据库,提供标准的 SQL 接口,与 PostgreSQL 生态系统兼容,无需改动代码即可集成。RisingWave 将流视作表,允许用户以优雅方式在流数据和历史数据上编写复杂查询。借助 RisingWave,用户可以专注于查询分析逻辑,而无需学习 Java 或特定系统的底层 API。 本文将介绍如何通过 RisingWave Cloud [2] 将数据从 AutoMQ 导入 RisingWave 数据库。Documentation Index
Fetch the complete documentation index at: https://docs.automq.com/llms.txt
Use this file to discover all available pages before exploring further.
准备 AutoMQ 和测试数据
参考 Linux 主机部署多节点集群▸ 部署 AutoMQ,确保 AutoMQ 与 RisingWave 之间保持网络连通。 在 AutoMQ 中快速创建一个名为example_topic 的主题,并向其中写入一条测试 JSON 数据,按照以下步骤操作。
创建 Topic
使用 Apache Kafka 命令行工具创建主题,需要确保当前拥有 Kafka 环境的访问权限并且 Kafka 服务正在运行。以下是创建主题的命令示例:生成测试数据
生成一条 JSON 格式的测试数据,和前文的表需要对应。写入测试数据
通过 Kafka 的命令行工具或编程方式将测试数据写入到名为 example_topic 的主题中。下面是一个使用命令行工具的示例:在 RisingWave Cloud 上创建 AutoMQ 源
- 前往 RisingWave Cloud Clusters [3] 创建集群。
- 前往 RisingWave Cloud Source [4] 创建源。
- 指定集群和数据库,并登入数据库。
- AutoMQ 100% 兼容 Apache Kafka, 因此只需要点击 Create source 并且选择 Kafka。
- 根据 RisingWave Cloud 的引导界面配置连接器,设置源信息和 schema 信息。
- 确认生成的 SQL 语句,点击 Confirm 完成源的创建。
AutoMQ 默认端口是 9092 并且没有开启 SSL。 如果需要启用 SSL,请参考文档 Apache Kafka Documentation [5] 。本示例中可以通过设置启动模式为 earliest,并使用 JSON 格式来从头访问 topic 中的所有数据。
查询数据
- 前往 RisingWave Cloud Console [6] ,登入集群。
- 运行下方 SQL 语句,访问已经导入的数据,其中替换 your_source_name 变量为创建源时指定的自定义名称。