Apache Kudu 1.10.0 发布了,Kudu 是一个支持结构化数据的开源存储引擎,具有低延迟随机读取与高效分析读取模式。它基于 Apache Hadoop 生态系设计,并支持与 Apache 软件基金会其它数据分析项目集成。
此版本带来的新特性包括:
- Kudu 现在通过使用 Apache Spark 实现的作业支持完整和增量表备份。此外,它还支持通过使用 Apache Spark 实现的还原作业从完全备份和增量备份中还原表。
- 现在可以将 Kudu 内部目录与 Apache Hive Metastore 同步,在 Kudu 创建、删除和更改表时自动更新 Hive Metastore 表条目。
- Kudu 现在通过与 Apache Sentry 的集成支持本机细粒度授权。现在可以实施为 Kudu 表和列定义的访问控制策略,以及在可能存储 Kudu 表的 Hive 服务器和数据库上定义的策略。
- Web UI 现在支持 SPNEGO,这是一种通过 HTTP 标头传递协商来保护使用 Kerberos 的 HTTP 请求的协议。
- 列注释现在可以存储在 Kudu 表中,并且可以使用 AlterTable API 进行更新。
- Java 扫描令牌构建器现在可以为每个 tablet 创建多个令牌。要使用此功能,请调用 setSplitSizeBytes() 以指定每个令牌应扫描的数据字节数。同样的API也可以在 Kudu 的 Spark 集成中使用,它可用于为每个被扫描的 tablet 生成多个 Spark 任务。
- 实验性 Kudu Docker 镜像现已在 Docker Hub 发布。
- Kudu 现在有一个实验性的 Kubernetes StatefulSet 清单和 Helm 图表,可用于使用 Kubernetes 定义和提供 Kudu 集群。
kudu perf table_scan
扫描表并显示表的行数以及运行扫描所用的时间。kudu table copy
(kudu 表副本)将数据从一个表复制到另一个表,在同一个集群内或跨集群。注意,此实现适用于单个客户端,因此可能不适合大型表。- 现在可以逐个表地配置 Tablet 历史记录保留时间。
新版本还包含大量改进、bug 修复等等,更多详情可查看更新日志。