Skip to content

Latest commit

 

History

History
1052 lines (788 loc) · 43.1 KB

External_table.md

File metadata and controls

1052 lines (788 loc) · 43.1 KB

外部表

StarRocks 支持以外部表的形式,接入其他数据源。外部表指的是保存在其他数据源中的数据表,而 StartRocks 只保存表对应的元数据,并直接向外部表所在数据源发起查询。目前 StarRocks 已支持的第三方数据源包括 MySQL、Elasticsearch、Apache Hive™、StarRocks、Apache Iceberg 和 Apache Hudi。对于 StarRocks 数据源,现阶段只支持 Insert 写入,不支持读取,对于其他数据源,现阶段只支持读取,还不支持写入


MySQL 外部表

星型模型中,数据一般划分为维度表和事实表。维度表数据量少,但会涉及 UPDATE 操作。目前 StarRocks 中还不直接支持 UPDATE 操作(可以通过 Unique 数据模型实现),在一些场景下,可以把维度表存储在 MySQL 中,查询时直接读取维度表。


在使用 MySQL 的数据之前,需在 StarRocks 创建外部表,与之相映射。StarRocks 中创建 MySQL 外部表时需要指定 MySQL 的相关连接信息,如下图。

CREATE EXTERNAL TABLE mysql_external_table
(
    k1 DATE,
    k2 INT,
    k3 SMALLINT,
    k4 VARCHAR(2048),
    k5 DATETIME
)
ENGINE=mysql
PROPERTIES
(
    "host" = "127.0.0.1",
    "port" = "3306",
    "user" = "mysql_user",
    "password" = "mysql_passwd",
    "database" = "mysql_db_test",
    "table" = "mysql_table_test"
);

参数说明:

  • host:MySQL 的连接地址
  • port:MySQL 的连接端口号
  • user:MySQL 登陆的用户名
  • password:MySQL 登陆的密码
  • database:MySQL 相关数据库名
  • table:MySQL 相关数据表名

StarRocks 外部表

1.19 版本开始,StarRocks 支持将数据通过外表方式写入另一个 StarRocks 集群的表中。这可以解决用户的读写分离需求,提供更好的资源隔离。用户需要首先在目标集群上创建一张目标表,然后在源 StarRocks 集群上创建一个 Schema 信息一致的外表,并在属性中指定目标集群和表的信息。

通过 INSERT INTO 写入数据至 StarRocks 外表,可以将源集群的数据写入至目标集群。借助这一能力,可以实现如下目标:

  • 集群间的数据同步。
  • 读写分离。向源集群中写入数据,并且源集群的数据变更同步至目标集群,目标集群提供查询服务。

以下是创建目标表和外表的实例:

# 在目标集群上执行
CREATE TABLE t
(
    k1 DATE,
    k2 INT,
    k3 SMALLINT,
    k4 VARCHAR(2048),
    k5 DATETIME
)
ENGINE=olap
DISTRIBUTED BY HASH(k1) BUCKETS 10;

# 在外表集群上执行
CREATE EXTERNAL TABLE external_t
(
    k1 DATE,
    k2 INT,
    k3 SMALLINT,
    k4 VARCHAR(2048),
    k5 DATETIME
)
ENGINE=olap
DISTRIBUTED BY HASH(k1) BUCKETS 10
PROPERTIES
(
    "host" = "127.0.0.1",
    "port" = "9020",
    "user" = "user",
    "password" = "passwd",
    "database" = "db_test",
    "table" = "t"
);

# 写入数据至 StarRocks 外表,实现源集群的数据写入至目标集群。推荐生产环境使用第二种方式。
insert into external_t values ('2020-10-11', 1, 1, 'hello', '2020-10-11 10: 00: 00');

insert into external_t select * from other_table;

其中:

  • EXTERNAL:该关键字指定创建的是 StarRocks 外表.
  • host:该属性描述目标表所属 StarRocks 集群 Leader FE 的 IP 地址.
  • port:该属性描述目标表所属 StarRocks 集群 Leader FE 的 RPC 访问端口,该值可参考配置 fe/fe.conf 中的 rpc_port 配置取值.
  • user:该属性描述目标表所属 StarRocks 集群的访问用户名.
  • password:该属性描述目标表所属 StarRocks 集群的访问密码.
  • database:该属性描述目标表所属数据库名称.
  • table:该属性描述目标表名称.

目前 StarRocks 外表使用上有以下限制:

  • 仅可以在外表上执行 insert into 和 show create table 操作,不支持其他数据写入方式,也不支持查询和 DDL.
  • 创建外表语法和创建普通表一致,但其中的列名等信息请保持同其对应的目标表一致.
  • 外表会周期性从目标表同步元信息(同步周期为 10 秒),在目标表执行的 DDL 操作可能会延迟一定时间反应在外表上.

Elasticsearch 外部表

StarRocks 与 Elasticsearch 都是目前流行的分析系统,StarRocks 强于大规模分布式计算,Elasticsearch 擅长全文检索。StarRocks 支持 Elasticsearch 访问的目的,就在于将这两种能力结合,提供更完善的一个 OLAP 解决方案。

建表示例

CREATE EXTERNAL TABLE elastic_search_external_table
(
    k1 DATE,
    k2 INT,
    k3 SMALLINT,
    k4 VARCHAR(2048),
    k5 DATETIME
)
ENGINE=ELASTICSEARCH
PARTITION BY RANGE(k1)
()
PROPERTIES (
    "hosts" = "http://192.168.0.1:8200,http://192.168.0.2:8200",
    "user" = "root",
    "password" = "root",
    "index" = "tindex",
    "type" = "doc"
);

参数说明:

  • hosts:Elasticsearch 集群连接地址,可指定一个或多个,StarRocks 通过这个地址获取到 Elasticsearch 版本号、索引的分片分布信息。
  • user:开启 basic 认证 的 Elasticsearch 集群的用户名,需要确保该用户有访问 /cluster/state/ nodes/http 等路径权限和对索引的读权限。
  • password:对应用户的密码信息。
  • index:StarRocks 中的表对应的 Elasticsearch 的索引名字,可以是索引的别名。
  • type:指定索引的类型,默认是 doc
  • transport:内部保留,默认为 http
  • es.nodes.wan.only:表示 StarRocks 是否仅使用 hosts 指定的地址,去访问 Elasticsearch 集群并获取数据。

    自 2.3.0 版本起,StarRocks 支持配置该参数。

    • true:StarRocks 仅使用 hosts 指定的地址去访问 Elasticsearch 集群并获取数据,不会探测 Elasticsearch 集群的索引每个分片所在的数据节点地址。如果 StarRocks 无法访问 Elasticsearch 集群内部数据节点的地址,则需要配置为 true
    • false:默认值,StarRocks 通过 host 中的地址,探测 Elasticsearch 集群索引各个分片所在数据节点的地址。StarRocks 经过查询规划后,相关 BE 节点会直接去请求 Elasticsearch 集群内部的数据节点,获取索引的分片数据。如果 StarRocks 可以访问 Elasticsearch 集群内部数据节点的地址,则建议保持默认值 false

谓词下推

StarRocks 支持对 Elasticsearch 表进行谓词下推,把过滤条件推给 Elasticsearch 进行执行,让执行尽量靠近存储,提高查询性能。目前支持下推的算子如下表:

SQL syntax ES syntax
= term query
in terms query
>=, <=, >, < range
and bool.filter
or bool.should
not bool.must_not
not in bool.must_not + terms
esquery ES Query DSL

表 1 :支持的谓词下推列表


查询示例

通过 esquery 函数 将一些 无法用 sql 表述的 ES query 如 match、geoshape 等下推给 ES 进行过滤处理。esquery 的第一个列名参数用于关联 index,第二个参数是 ES 的基本 Query DSL 的 json 表述,使用花括号{}包含,json 的 root key 有且只能有一个,如 match、geo_shape、bool 等。

  • match 查询:
select * from es_table where esquery(k4, '{
    "match": {
       "k4": "StarRocks on elasticsearch"
    }
}');
  • geo 相关查询:
select * from es_table where esquery(k4, '{
  "geo_shape": {
     "location": {
        "shape": {
           "type": "envelope",
           "coordinates": [
              [
                 13,
                 53
              ],
              [
                 14,
                 52
              ]
           ]
        },
        "relation": "within"
     }
  }
}');
  • bool 查询:
select * from es_table where esquery(k4, ' {
     "bool": {
        "must": [
           {
              "terms": {
                 "k1": [
                    11,
                    12
                 ]
              }
           },
           {
              "terms": {
                 "k2": [
                    100
                 ]
              }
           }
        ]
     }
  }');

注意事项

  • ES 在 5.x 之前和之后的数据扫描方式不同,目前 只支持 5.x 之后的版本
  • 支持使用 HTTP Basic 认证方式的 ES 集群;
  • 一些通过 StarRocks 的查询会比直接请求 ES 会慢很多,比如 count 相关的 query 等。这是因为 ES 内部会直接读取满足条件的文档个数相关的元数据,不需要对真实的数据进行过滤操作,使得 count 的速度非常快。

更多数据库(JDBC)的外部表

自 2.3.0 版本起,StarRocks 支持通过外部表的方式查询支持 JDBC 的数据库,无需将数据导入至 StarRocks,即可实现对这类数据库的极速分析。本文介绍如何在 StarRocks 创建外部表,查询支持 JDBC 的数据库中的数据。

前提条件

在创建 JDBC 资源以及首次查询 JDBC 外部表时,FE、BE 节点需要下载 JDBC 驱动程序,因此在这两个阶段,FE、BE 节点所在机器必须能够访问 JDBC 驱动程序下载链接地址。下载链接地址由创建 JDBC 资源中的配置项 driver_url 指定。

创建和管理JDBC 资源

创建 JDBC 资源

您需要提前在 StarRocks 中创建 JDBC 资源,用于管理数据库的相关连接信息。这里的数据库是指支持 JDBC 的数据库,以下简称为“目标数据库”。创建资源后,即可使用该资源创建外部表。

执行如下语句,创建一个名为 jdbc0 的 JDBC 资源:

create external resource jdbc0
properties (
    "type"="jdbc",
    "user"="postgres",
    "password"="changeme",
    "jdbc_uri"="jdbc:postgresql://127.0.0.1:5432/jdbc_test",
    "driver_url"="https://repo1.maven.org/maven2/org/postgresql/postgresql/42.3.3/postgresql-42.3.3.jar",
    "driver_class"="org.postgresql.Driver"
);

properties 的必填配置项:

  • type:资源类型,固定取值为 jdbc

  • user:目标数据库的用户名。

  • password:目标数据库用户的登录密码。

  • jdbc_uri:JDBC 驱动程序连接目标数据库的 URL,需要满足目标数据库 URL 的语法。常见的目标数据库 URL,请参见 MySQLOraclePostgreSQLSQL Server 官网文档。

说明:目标数据库 URL 中必须指定具体数据库的名称,如上示例中的jdbc_test

  • driver_url:目标数据库使用的 JDBC 驱动程序的下载链接地址。

  • driver_class:目标数据库使用的 JDBC 驱动程序的类名称。以下列举常见 JDBC 驱动程序的类名称:

    • MySQL:com.mysql.jdbc.Driver(MySQL 5.x 及以下版本)、com.mysql.cj.jdbc.Driver (MySQL 6.x 及以上版本)
    • SQL Server:com.microsoft.sqlserver.jdbc.SQLServerDriver
    • Oracle: oracle.jdbc.driver.OracleDriver
    • PostgreSQL:org.postgresql.Driver

成功创建资源后,在 FE 上通过 driver_url 下载 JDBC 驱动程序 JAR 包,生成 checksum 并保存起来,用于校验 BE 节点上下载的 JDBC 驱动程序 JAR 包的正确性。

说明:如果下载 JDBC 驱动程序失败,则创建资源也会失败。

BE 节点首次查询 JDBC 外部表时,如果发现所在机器上不存在相应的 JDBC 驱动程序 JAR 包,则会通过 driver_url 进行下载,所有的 JDBC 驱动程序 JAR 包都会保存在 ${STARROCKS_HOME}/lib/jdbc_drivers 目录下。

查看 JDBC 资源

执行如下语句,查看 StarRocks 中的所有 JDBC 资源:

说明:ResourceType 列为 jdbc

SHOW RESOURCES;

删除 JDBC 资源

执行如下语句,删除名为 jdbc0 的 JDBC 资源:

DROP RESOURCE "jdbc0";

说明:删除 JDBC 资源会导致使用该 JDBC 资源创建的 JDBC 外部表不可用,但目标数据库的数据并不会丢失。如果您仍需要通过 StarRocks 查询目标数据库的数据,可以重新创建 JDBC 资源和 JDBC 外部表。

创建数据库

执行如下语句,在 StarRocks 中创建并进入名为 jdbc_test 的数据库:

CREATE DATABASE jdbc_test; 
USE jdbc_test; 

说明**:**库名无需与目标数据库的名称保持一致。

创建 JDBC 外部表

执行如下语句,在数据库 jdbc_test 中,创建一张名为 jdbc_tbl 的 JDBC 外部表:

create external table jdbc_tbl (
    `id` bigint NULL, 
    `data` varchar(200) NULL 
) ENGINE=jdbc 
properties (
    "resource"="jdbc0",
    "table"="dest_tbl"
);

properties 配置项:

  • resource:所使用 JDBC 资源的名称,必填项。

  • table:目标数据库的表名,必填项。

支持的数据类型以及与 StarRocks 的数据类型映射关系,请参见数据类型映射数据类型映射

说明:

  • 不支持索引。
  • 不支持通过 PARTITION BY、DISTRIBUTED BY 来指定数据分布规则。

查询 JDBC 外部表

查询 JDBC 外部表前,必须启用 Pipeline 引擎。

说明:如果已经启用 Pipeline 引擎,则可跳过本步骤。

set enable_pipeline_engine=true;

执行如下语句,通过 JDBC 外部表查询目标数据库的数据:

select * from jdbc_tbl;

StarRocks 支持对目标表进行谓词下推,把过滤条件推给目标表执行,让执行尽量靠近数据源,进而提高查询性能。目前支持下推运算符,包括二元比较运算符(>>==<<=)、INIS NULLBETWEEN ... AND ...,但是不支持下推函数。

数据类型映射

目前仅支持查询目标数据库中数字、字符串、时间、日期等基础类型的数据。如果目标数据库中的数据超出 StarRocks 中数据类型的表示范围,则查询会报错。

如下以目标数据库 MySQL、Oracle、PostgreSQL、SQL Server 为例,说明支持查询的数据类型,以及与 StarRocks 数据类型的映射关系。

目标数据库为 MySQL

MySQL StarRocks
BOOLEAN BOOLEAN
TINYINT TINYINT
SMALLINT SMALLINT
MEDIUMINTINT INT
BIGINT BIGINT
FLOAT FLOAT
DOUBLE DOUBLE
DECIMAL DECIMAL
CHAR CHAR
VARCHAR VARCHAR
DATE DATE
DATETIME DATETIME

目标数据库为 Oracle

Oracle StarRocks
CHAR CHAR
VARCHARVARCHAR2 VARCHAR
DATE DATE
SMALLINT SMALLINT
INT INT
BINARY_FLOAT FLOAT
BINARY_DOUBLE DOUBLE
DATE DATE
DATETIME DATETIME
NUMBER DECIMAL

目标数据库为 PostgreSQL

PostgreSQL StarRocks
SMALLINTSMALLSERIAL SMALLINT
INTEGERSERIAL INT
BIGINTBIGSERIAL BIGINT
BOOLEAN BOOLEAN
REAL FLOAT
DOUBLE PRECISION DOUBLE
DECIMAL DECIMAL
TIMESTAMP DATETIME
DATE DATE
CHAR CHAR
VARCHAR VARCHAR
TEXT STRING

目标数据库为 SQL Server

SQL Server StarRocks
BOOLEAN BOOLEAN
TINYINT TINYINT
SMALLINT SMALLINT
INT INT
BIGINT BIGINT
FLOAT FLOAT
REAL DOUBLE
DECIMALNUMERIC DECIMAL
CHAR CHAR
VARCHAR VARCHAR
DATE DATE
DATETIMEDATETIME2 DATETIME

使用限制

  • 创建 JDBC 外部表时,不支持索引,也不支持通过 PARTITION BY、DISTRIBUTED BY 来指定数据分布规则。
  • 查询 JDBC 外部表时,不支持下推函数。
  • 暂不支持使用 INSERT INTO ... SELECT ... 语句将目标数据库的数据导入至 StarRocks。

Hive 外表

创建 Hive 资源

StarRocks 使用 Hive 资源来管理使用到的 Hive 集群相关配置,如 Hive Metastore 地址等,一个 Hive 资源对应一个 Hive 集群。创建 Hive 外表的时候需要指定使用哪个 Hive 资源。

-- 创建一个名为 hive0 的 Hive 资源
CREATE EXTERNAL RESOURCE "hive0"
PROPERTIES (
  "type" = "hive",
  "hive.metastore.uris" = "thrift://10.10.44.98:9083"
);

-- 查看 StarRocks 中创建的资源
SHOW RESOURCES;

-- 删除名为 hive0 的资源
DROP RESOURCE "hive0";

StarRocks 2.3 及以上版本支持修改 Hive 资源的 hive.metastore.uris。更多信息,参见 ALTER RESOURCE.

创建数据库

CREATE DATABASE hive_test;
USE hive_test;

创建 Hive 外表

-- 语法
CREATE EXTERNAL TABLE table_name (
  col_name col_type [NULL | NOT NULL] [COMMENT "comment"]
) ENGINE=HIVE
PROPERTIES (
  "key" = "value"
);

-- 例子:创建 hive0 资源对应的 Hive 集群中 rawdata 数据库下的 profile_parquet_p7 表的外表
CREATE EXTERNAL TABLE `profile_wos_p7` (
  `id` bigint NULL,
  `first_id` varchar(200) NULL,
  `second_id` varchar(200) NULL,
  `p__device_id_list` varchar(200) NULL,
  `p__is_deleted` bigint NULL,
  `p_channel` varchar(200) NULL,
  `p_platform` varchar(200) NULL,
  `p_source` varchar(200) NULL,
  `p__city` varchar(200) NULL,
  `p__province` varchar(200) NULL,
  `p__update_time` bigint NULL,
  `p__first_visit_time` bigint NULL,
  `p__last_seen_time` bigint NULL
) ENGINE=HIVE
PROPERTIES (
  "resource" = "hive0",
  "database" = "rawdata",
  "table" = "profile_parquet_p7"
);

说明:

  • 外表列:

    • 列名需要与 Hive 表一一对应。
    • 列顺序与 Hive 表的关系。如果 Hive 表的存储格式为 Parquet 或 ORC,则列的顺序 不需要 与 Hive 表一致。如果 Hive 表的存储格式为 CSV,则列的顺序 需要 与 Hive 表一致。
    • 可以只选择 Hive 表中的 部分列,但 分区列 必须要全部包含。
    • 外表的分区列无需通过 partition by 语句指定,需要与普通列一样定义到描述列表中。不需要指定分区信息,StarRocks 会自动从 Hive 同步。
    • ENGINE 指定为 HIVE。
  • PROPERTIES 属性:

    • hive.resource:指定使用的 Hive 资源。
    • database:指定 Hive 中的数据库。
    • table:指定 Hive 中的表,不支持 view
  • 支持的列类型对应关系如下表:

    Hive 列类型 StarRocks 列类型 描述
    INT/INTEGER INT
    BIGINT BIGINT
    TIMESTAMP DATETIME TIMESTAMP 转成 DATETIME,会损失精度和时区信息,
    根据 sessionVariable 中的时区转成无时区 DATETIME
    STRING VARCHAR
    VARCHAR VARCHAR
    CHAR CHAR
    DOUBLE DOUBLE
    FLOAT FLOAT
    DECIMAL DECIMAL
    ARRAY ARRAY
    BOOLEAN BOOLEAN

    说明:

    • Hive 表 Schema 变更 不会自动同步,需要在 StarRocks 中重建 Hive 外表。
    • 支持 Hive 的存储格式为 Parquet,ORC 和 CSV 格式。

    如果为 CSV 格式,则暂不支持引号为转义字符。

    • 压缩格式支持 snappy,lz4。

查询 Hive 外表

-- 查询 profile_wos_p7 的总行数
select count(*) from profile_wos_p7;

配置

  • fe 配置文件路径为$FE_HOME/conf,如果需要自定义 hadoop 集群的配置可以在该目录下添加配置文件,例如:hdfs 集群采用了高可用的 nameservice,需要将 hadoop 集群中的 hdfs-site.xml 放到该目录下,如果 hdfs 配置了 viewfs,需要将 core-site.xml 放到该目录下。
  • be 配置文件路径为$BE_HOME/conf,如果需要自定义 hadoop 集群的配置可以在该目录下添加配置文件,例如:hdfs 集群采用了高可用的 nameservice,需要将 hadoop 集群中的 hdfs-site.xml 放到该目录下,如果 hdfs 配置了 viewfs,需要将 core-site.xml 放到该目录下。
  • be 所在的机器也需要配置 JAVA_HOME,一定要配置成 jdk 环境,不能配置成 jre 环境
  • kerberos 支持
    1. 在所有的 fe/be 机器上用 kinit -kt keytab_path principal 登陆,该用户需要有访问 hive 和 hdfs 的权限。kinit 命令登陆是有实效性的,需要将其放入 crontab 中定期执行。
    2. 把 hadoop 集群中的 hive-site.xml/core-site.xml/hdfs-site.xml 放到$FE_HOME/conf 下,把 core-site.xml/hdfs-site.xml 放到$BE_HOME/conf 下。
    3. 在$FE_HOME/conf/fe.conf 文件中的 JAVA_OPTS/JAVA_OPTS_FOR_JDK_9 选项加上 -Djava.security.krb5.conf=/etc/krb5.conf,/etc/krb5.conf 是 krb5.conf 文件的路径,可以根据自己的系统调整。
    4. 在$BE_HOME/conf/be.conf 文件增加选项 JAVA_OPTS/JAVA_OPTS_FOR_JDK_9="-Djava.security.krb5.conf=/etc/krb5.conf",其中 /etc/krb5.conf 是 krb5.conf 文件的路径,可以根据自己的系统调整。
    5. resource 中的 uri 地址一定要使用域名,并且相应的 hive 和 hdfs 的域名与 ip 的映射都需要配置到/etc/hosts 中。

AWS S3/Tencent Cloud COS支持

一. 下载依赖库并添加到$FE_HOME/lib/路径下。

二. 在 $FE_HOME/conf/core-site.xml 中加入如下配置。

<configuration>
   <property>
      <name>fs.s3a.impl</name>
      <value>org.apache.hadoop.fs.s3a.S3AFileSystem</value>
   </property>
   <property>
      <name>fs.AbstractFileSystem.s3a.impl</name>
      <value>org.apache.hadoop.fs.s3a.S3A</value>
   </property>
   <property>
      <name>fs.s3a.access.key</name>
      <value>******</value>
   </property>
   <property>
      <name>fs.s3a.secret.key</name>
      <value>******</value>
   </property>
   <property>
      <name>fs.s3a.endpoint</name>
      <value>s3.us-west-2.amazonaws.com</value>
   </property>
   <property>
     <name>fs.s3a.connection.maximum</name>
     <value>500</value>
   </property>
</configuration>
  • fs.s3a.access.key 指定 aws 的 access key id
  • fs.s3a.secret.key 指定 aws 的 secret access key
  • fs.s3a.endpoint 指定 aws 的区域
  • fs.s3a.connection.maximum 配置最大链接数,如果查询过程中有报错 Timeout waiting for connection from poll,可以适当调高该参数

二. 在$BE_HOME/conf/be.conf 中加入如下配置。

  • object_storage_access_key_id 与 FE 端 core-site.xml 配置 fs.s3a.access.key 相同
  • object_storage_secret_access_key 与 FE 端 core-site.xml 配置 fs.s3a.secret.key 相同
  • object_storage_endpoint 与 FE 端 core-site.xml 配置 fs.s3a.endpoint 相同
  • object_storage_region 只有腾讯COS需要额外添加该配置项。如:ap-beijing****

三. 重启 FE,BE。

Aliyun OSS 支持

一. 在$FE_HOME/conf/core-site.xml 中加入如下配置。

<configuration>
   <property>
      <name>fs.oss.impl</name>
      <value>org.apache.hadoop.fs.aliyun.oss.AliyunOSSFileSystem</value>
   </property>
   <property>
      <name>fs.AbstractFileSystem.oss.impl</name>
      <value>com.aliyun.emr.fs.oss.OSS</value>
   </property>
   <property>
        <name>fs.oss.accessKeyId</name>
        <value>xxx</value>
    </property>
    <property>
        <name>fs.oss.accessKeySecret</name>
        <value>xxx</value>
    </property>
    <property>
        <name>fs.oss.endpoint</name>
        <!-- 以下以北京地域为例,其他地域请根据实际情况替换。 -->
        <value>oss-cn-beijing.aliyuncs.com</value>
    </property>
</configuration>
  • fs.oss.accessKeyId 指定阿里云账号或 RAM 用户的 AccessKey ID,获取方式,请参见 获取 AccessKey

  • fs.oss.accessKeySecret 指定阿里云账号或 RAM 用户的 AccessKey Secret,获取方式,请参见 获取 AccessKey

  • fs.oss.endpoint 指定相关 OSS Bucket 所在地域对应的 Endpoint。 您可以通过以下方式查询 Endpoint:

    • 根据 Endpoint 与地域的对应关系进行查找,请参见 访问域名和数据中心
    • 您可以登录 阿里云 OSS 管理控制台,进入 Bucket 概览页,Bucket 域名 examplebucket.oss-cn-hangzhou.aliyuncs.com 的后缀部分 oss-cn-hangzhou.aliyuncs.com,即为该 Bucket 的外网 Endpoint。

二. 在$BE_HOME/conf/be.conf 中加入如下配置。

  • object_storage_access_key_id 与 FE 端 core-site.xml 配置 fs.oss.accessKeyId 相同
  • object_storage_secret_access_key 与 FE 端 core-site.xml 配置 fs.oss.accessKeySecret 相同
  • object_storage_endpoint 与 FE 端 core-site.xml 配置 fs.oss.endpoint 相同

三. 重启 FE,BE。

缓存更新

Hive Table 的 Partition 统计信息以及 Partition 下面的文件信息可以缓存到 StarRocks FE 中,缓存的内存结构为 Guava LoadingCache, 该缓存的自动刷新时间配置为 hive_meta_cache_refresh_interval_s,默认 7200,缓存的失效时间配置为 hive_meta_cache_ttl_s,默认 86400。

手动更新元数据缓存

  • 手动刷新元数据信息:
    1. hive 中新增或者删除分区时,需要刷新 的元数据信息:REFRESH EXTERNAL TABLE hive_t,其中 hive_t 是 starrocks 中的外表名称。
    2. hive 中向某些 partition 中新增数据时,需要 指定 partition 进行刷新:REFRESH EXTERNAL TABLE hive_t PARTITION ('k1=01/k2=02', 'k1=03/k2=04'),其中 hive_t 是 starrocks 中的外表名称,'k1 = 01/k2 = 02'、 'k1 = 03/k2 = 04'是 hive 中的 partition 名称。
    3. 在执行 REFRESH EXTERNAL TABLE hive_t 命令时,StarRocks 会先检查 Hive 外部表中的列信息和 Hive Metastore 返回的 Hive 表中的列信息是否一致。若发现 Hive 表的 schema 有修改,如增加列或减少列,那么 StarRocks 会将修改的信息同步到 Hive 外部表。同步后,Hive 外部表的列顺序和 Hive 表的列顺序保持一致,且分区列为最后一列。

自动增量更新元数据缓存

自动增量更新元数据缓存主要是通过定期消费 Hive Metastore 的 event 来实现,新增分区以及分区新增数据无需通过手动执行 refresh 来更新。用户需要在 Hive Metastore 端开启元数据 Event 机制。相比 Loading Cache 的自动刷新机制,自动增量更新性能更好,建议用户开启该功能。开启该功能后,Loading Cache 的自动刷新机制将不再生效。

  • Hive Metastore 开启 event 机制

    用户需要在$HiveMetastore/conf/hive-site.xml 中添加如下配置,并重启 Hive Metastore. 以下配置为 Hive Metastore 3.1.2 版本的配置,用户可以将以下配置先拷贝到 hive-site.xml 中进行验证,因为在 Hive Metastore 中配置不存在的参数只会提示 WARN 信息,不会抛出任何异常。

<property>
    <name>hive.metastore.event.db.notification.api.auth</name>
    <value>false</value>
  </property>
  <property>
    <name>hive.metastore.notifications.add.thrift.objects</name>
    <value>true</value>
  </property>
  <property>
    <name>hive.metastore.alter.notifications.basic</name>
    <value>false</value>
  </property>
  <property>
    <name>hive.metastore.dml.events</name>
    <value>true</value>
  </property>
  <property>
    <name>hive.metastore.transactional.event.listeners</name>
    <value>org.apache.hive.hcatalog.listener.DbNotificationListener</value>
  </property>
  <property>
    <name>hive.metastore.event.db.listener.timetolive</name>
    <value>172800s</value>
  </property>
  <property>
    <name>hive.metastore.server.max.message.size</name>
    <value>858993459</value>
  </property>
  • StarRocks 开启自动增量元数据同步

    用户需要在$FE_HOME/conf/fe.conf 中添加如下配置并重启 FE. enable_hms_events_incremental_sync=true 自动增量元数据同步相关配置如下,如无特殊需求,无需修改。

    参数值 说明 默认值
    enable_hms_events_incremental_sync 是否开启元数据自动增量同步功能 false
    hms_events_polling_interval_ms StarRocks 拉取 Hive Metastore Event 事件间隔 5 秒
    hms_events_batch_size_per_rpc StarRocks 每次拉取 Event 事件的最大数量 500
    enable_hms_parallel_process_evens 对接收的 Events 是否并行处理 true
    hms_process_events_parallel_num 处理 Events 事件的并发数 4
  • 注意事项

    • 不同版本 Hive Metastore 的 Events 事件可能不同,且上述开启 HiveMetastore Event 机制的配置在不同版本也存在不同。使用时相关配置可根据实际版进行适当调整。当前已经验证可以开启 Hive Metastore Event 机制的版本有 2.X 和 3.X。用户可以在 FE 日志中搜索 "event id" 来验证 event 是否开启成功,如果没有开启成功,event id 始终保持为 0。如果无法判断是否成功开启 Event 机制,请在 StarRocks 用户交流群中联系值班同学进行排查。
    • 当前 Hive 元数据缓存模式为懒加载,即:如果 Hive 新增了分区,StarRocks 只会将新增分区的 partition key 进行缓存,不会立即缓存该分区的文件信息。只有当查询该分区时或者用户手动执行 refresh 分区操作时,该分区的文件信息才会被加载。StarRocks 首次缓存该分区统计信息后,该分区后续的元数据变更就会自动同步到 StarRocks 中。
    • 手动执行缓存方式执行效率较低,相比之下自动增量更新性能开销较小,建议用户开启该功能进行更新缓存。
    • 当 Hive 数据存储为 Parquet、ORC、CSV 格式时,StarRocks 2.3及以上版本支持 Hive 外部表同步 ADD COLUMN、REPLACE COLUMN 等表结构变更(Schema Change)。

Apache Iceberg 外部表

如要查询 Iceberg 数据,需要在 StarRocks 中创建 Iceberg 外部表,并将外部表与需要查询的 Iceberg 表建立映射。

前提条件

确保 StarRocks 有权限访问 Iceberg 依赖的元数据服务(如 Hive metastore)、文件系统(如 HDFS )和对象存储系统(如 Amazon S3 和阿里云对象存储 OSS)。

注意事项

  • Iceberg 外部表仅支持查询以下格式的数据:
    • Versions 1 表(Analytic Data Tables) 。暂不支持查询 Versions 2 表 (Row-level Deletes) 。更多有关 Versions 1 和 Versions 2 的信息,参见 Iceberg Table Spec
    • 压缩格式为 gzip(默认压缩格式)、Zstd、LZ4 和 Snappy 的表。
    • 格式为 Parquet 和 ORC 的文件。
  • StarRocks 2.3 及以上版本支持同步 Iceberg 表结构,但 StarRocks 2.3 以下版本不⽀持。如果 Iceberg 表结构发生变化,您需要在 StarRocks 中删除相应的外部表并重新创建。

操作步骤

步骤一:创建 Iceberg 资源

在创建外部表之前,需先创建 Iceberg 资源,以用来管理 Iceberg 的访问信息。此外,在创建Iceberg 外部表时也需要指定引用的 Iceberg 资源。您可以根据业务需求创建不同 catalog 类型的资源:

  • 如果 Iceberg 表的元数据是从 Hive metastore 获取的,则可以创建 catalog 类型为 HIVE 的资源。
  • 如果 Iceberg 表的元数据是从其他服务获取的,则可以开发一个 custom catalog (即自定义 catalog),然后创建 catalog 类型为 CUSTOM 的资源。

创建 catalog 类型为 HIVE 的资源

例如,创建一个名为 iceberg0 的资源,并指定该资源的 catalog 类型为 HIVE

CREATE EXTERNAL RESOURCE "iceberg0" 

PROPERTIES ( "type" = "iceberg", "starrocks.catalog-type"="HIVE", "iceberg.catalog.hive.metastore.uris"="thrift://192.168.0.81:9083" 

);

参数说明:

参数 说明
type 资源类型,取值为 iceberg
starrocks.catalog-type 资源的 catalog。目前支持 Hive catalog 和 custom catalog。 如要使用 Hive catalog, 设置该参数为 HIVE。 如要使用 custom catalog,设置该参数为 CUSTOM
iceberg.catalog.hive.metastore.uris Hive Metastore 的 URI。格式为 thrift://<Iceberg 元数据的IP地址>:<端口号>,端口号默认为 9083。Apache Iceberg 通过 Hive catalog 连接 Hive metastore,以查询 Iceberg 表的元数据。

创建 catalog 类型为 CUSTOM 的资源

Custom catalog 需要继承抽象类 BaseMetastoreCatalog,并实现 IcebergCatalog 接口。更多有关开发 custom catalog 的信息,参考 IcebergHiveCatalog。此外,custom catalog 类名不能与 StarRocks 中已存在的类名重复。开发完成后,您需要将 custom catalog 及其相关文件打包并放到所有 FE 节点的 fe/lib 路径下,然后重启所有 FE 节点,以便 FE 识别这个类。以上操作完成后即可创建资源。

例如,创建一个名为 iceberg1 的资源,并指定该资源的 catalog 类型为 CUSTOM

CREATE EXTERNAL RESOURCE "iceberg1" 

PROPERTIES ( "type" = "iceberg", "starrocks.catalog-type"="CUSTOM", "iceberg.catalog-impl"="com.starrocks.IcebergCustomCatalog" 

);

参数说明:

参数 说明
type 资源类型,取值为 iceberg
starrocks.catalog-type 资源的 catalog。目前支持 Hive catalog 和 custom catalog。 如要使用 Hive catalog, 需指定该参数值为 HIVE。 如要使用 custom catalog,需指定该参数值为 CUSTOM
iceberg.catalog-impl 开发的 custom catalog 的全限定类名。FE 会根据该类名查找开发的 custom catalog。如果 custom catalog 中包含自定义的配置项,需要在创建 Iceberg 外部表时将其以键值对的形式添加到 SQL 语句的 PROPERTIES 中。

StarRocks 2.3 及以上版本支持修改 Iceberg 资源的 hive.metastore.urisiceberg.catalog-impl。更多信息,参见 ALTER RESOURCE.

查看 Iceberg 资源

SHOW RESOURCES;

删除 Iceberg 资源

例如,删除一个名为 iceberg0 的资源。

DROP RESOURCE "iceberg0";

删除一个资源会导致其包含的所有外部表不可用,但对应的 Iceberg 表中的数据不会删除。如果删除后仍想通过 StarRocks 查询 Iceberg 数据,需要重新创建 Iceberg 资源和 Iceberg 外部表。

步骤二:创建数据库(可选)

您可以创建一个新的数据库用来存放外部表,也可以在已有的数据库中创建外部表。

例如,在 StarRocks 中创建名为 iceberg_test 的数据库。语法如下:

CREATE DATABASE iceberg_test; 

USE iceberg_test; 

说明:该数据库名称不需要和待查询的 Iceberg 数据库名称保持一致。

步骤三:创建 Iceberg 外部表

例如,在数据库 iceberg_test 中创建名为 iceberg_tbl 的 Iceberg 外部表。语法如下:

CREATE EXTERNAL TABLE `iceberg_tbl` ( 

    `id` bigint NULL, 

    `data` varchar(200) NULL 

) ENGINE=ICEBERG 

PROPERTIES ( 

    "resource" = "iceberg0", 

    "database" = "iceberg", 

    "table" = "iceberg_table" 

); 

参数说明:

参数 说明
ENGINE 取值为 ICEBERG
resource 外部表引用的 Iceberg 资源的名称。
database Iceberg 表所属的数据库的名称。
table Iceberg 表名称。

说明:

  • 外部表的名称无需和 Iceberg 表的名称保持一致。

  • 外部表中的列名需要和 Iceberg 表的列名保持一致,但列的顺序无需保持一致。

如果您在 custom catalog 中自定义了配置项,且希望在查询外部表时这些配置项能生效,您可以将这些配置项以键值对的形式添加到建表语句的 PROPERTIES 中。例如,在 custom catalog 中定义了一个配置项 custom-catalog.properties,那么创建 Iceberg 外部表的语法如下:

CREATE EXTERNAL TABLE `iceberg_tbl` ( 

    `id` bigint NULL, 

    `data` varchar(200) NULL 

) ENGINE=ICEBERG 

PROPERTIES ( 

    "resource" = "iceberg0", 

    "database" = "iceberg", 

    "table" = "iceberg_table",

    "custom-catalog.properties" = "my_property"

); 

创建外部表时,需根据 Iceberg 表的列类型指定外部表的列类型,具体映射关系如下:

Iceberg 表 Iceberg 外部表
BOOLEAN BOOLEAN
INT TINYINT / SMALLINT / INT
LONG BIGINT
FLOAT FLOAT
DOUBLE DOUBLE
DECIMAL(P, S) DECIMAL
DATE DATE / DATETIME
TIME BIGINT
TIMESTAMP DATETIME
STRING STRING / VARCHAR
UUID STRING / VARCHAR
FIXED(L) CHAR
BINARY VARCHAR

StarRocks 不支持查询以下类型的数据: TIMESTAMPTZ、STRUCT、LIST 和 MAP。

步骤四:查询 Iceberg 数据

创建 Iceberg 外部表后,即可通过外部表查询 Iceberg 表中的数据。举例:

select count(*) from iceberg_tbl;

Apache Hudi 外表

StarRocks 支持通过外表的方式查询 Hudi 数据湖中的数据,帮助您实现对数据湖的极速分析。本文介绍如何在 StarRock 创建外表,查询 Hudi 中的数据。

前提条件

请确认 StarRocks 有权限访问 Hudi 对应的 Hive Metastore、HDFS 集群或者对象存储的 Bucket。

注意事项

  • Hudi 外表是只读的,只能用于查询操作。
  • 当前支持 Hudi 的表类型为 Copy on write(下文简称 COW),暂不支持 Merge on read(下文简称 MOR)表类型。COW 和 MOR 之间的更多区别,请参见 Apache Hudi 官网
  • 支持 Hudi 文件的压缩格式为 GZIP(默认值),ZSTD,LZ4 和 SNAPPY。
  • StarRocks 暂不⽀持同步 Hudi 表结构。如果 Hudi 表结构发生变化,您需要在 StarRocks 中删除相应的外部表并重新创建。

操作步骤

步骤一:创建和管理 Hudi 资源

您需要提前在 StarRocks 中创建 Hudi 资源,用于管理在 StarRocks 中创建的 Hudi 数据库和外表。

执行如下命令,创建一个名为 hudi0 的 Hudi 资源。

CREATE EXTERNAL RESOURCE "hudi0" 
PROPERTIES ( 
    "type" = "hudi", 
    "hive.metastore.uris" = "thrift://192.168.7.251:9083"
);
参数 说明
type 资源类型,固定取值为 hudi
hive.metastore.uris Hive Metastore 的 thrift URI。
Hudi 通过连接 Hive Metastore,以创建并管理表。您需要传入该 Hive Metastore 的 thrift URI。格式为 thrift://<Hudi元数据的IP地址>:<端口号>,端口号默认为 9083。

StarRocks 2.3 及以上版本支持修改 Hudi 资源的 hive.metastore.uris。更多信息,参见 ALTER RESOURCE.

执行如下命令,查看 StarRocks 中的所有 Hudi 资源。

SHOW RESOURCES;

执行如下命令,删除名为 hudi0 的 Hudi 资源。

DROP RESOURCE "hudi0";

删除 Hudi 资源会导致其包含的所有 Hudi 外表不可用,但 Hudi 中的数据并不会丢失。如果您仍需要通过 StarRocks 查询 Hudi 的数据,请重新创建 Hudi 资源,Hudi 数据库和外表。

步骤二:创建 Hudi 数据库

执行如下命令,在 StarRocks 中创建并进入名为 hudi_test 的 Hudi 数据库。

CREATE DATABASE hudi_test; 
USE hudi_test; 

库名无需与 Hudi 的实际库名保持一致。

步骤三:创建 Hudi 外表

执行如下命令,在 Hudi 数据库 hudi_test 中,创建一张名为 hudi_tbl 的 Hudi 外表。

CREATE EXTERNAL TABLE `hudi_tbl` ( 
    `id` bigint NULL, 
    `data` varchar(200) NULL 
) ENGINE=HUDI 
PROPERTIES ( 
    "resource" = "hudi0", 
    "database" = "hudi", 
    "table" = "hudi_table" 
); 
  • 相关参数说明,请参见下表:
参数 说明
ENGINE 固定为 HUDI,无需更改。
resource StarRocks 的 Hudi 资源的名称。
database Hudi 表所在的数据库名称。
table Hudi 表所在的数据表名称。
  • 表名无需与 Hudi 实际表名保持一致。
  • 列名需要与 Hudi 实际列名保持一致,列的顺序无需保持一致。
  • 您可以按照业务需求选择 Hudi 表中的全部或部分列。支持的数据类型以及与 StarRocks 对应关系,请参见下表。
Apache Hudi 中列的数据类型 StarRocks 中列的数据类型
BOOLEAN BOOLEAN
INT TINYINT/SMALLINT/INT
DATE DATE
TimeMillis/TimeMicros TIME
LONG BIGINT
FLOAT FLOAT
DOUBLE DOUBLE
STRING CHAR/VARCHAR
ARRAY ARRAY
DECIMAL DECIMAL

如果 Hudi 部分列的数据类型为 FIXED, ENUM, UNION, MAP, BYTES,则 StarRocks 暂不支持通过 Hudi 关联外表的方式访问此数据类型。

步骤四:查询 Hudi 外表

创建 Hudi 外表后,无需导入数据,执行如下命令,即可查询 Hudi 的数据。

SELECT COUNT(*) FROM hudi_tbl;