跳到主要内容
版本:Latest-3.2

外部表

StarRocks 支持以外部表 (External Table) 的形式,接入其他数据源。外部表指的是保存在其他数据源中的数据表,而 StartRocks 只保存表对应的元数据,并直接向外部表所在数据源发起查询。目前 StarRocks 已支持的第三方数据源包括 MySQL、StarRocks、Elasticsearch、Apache Hive™、Apache Iceberg 和 Apache Hudi。对于 StarRocks 数据源,现阶段只支持 Insert 写入,不支持读取,对于其他数据源,现阶段只支持读取,还不支持写入

NOTICE

从 2.5 版本开始,查询外部数据源时支持 Data Cache,提升对热数据的查询性能。参见 Data Cache

StarRocks 外部表

1.19 版本开始,StarRocks 支持将数据通过外表方式写入另一个 StarRocks 集群的表中。这可以解决用户的读写分离需求,提供更好的资源隔离。用户需要首先在目标集群上创建一张目标表,然后在源 StarRocks 集群上创建一个 Schema 信息一致的外表,并在属性中指定目标集群和表的信息。

通过 INSERT INTO 写入数据至 StarRocks 外表,可以将源集群的数据写入至目标集群。借助这一能力,可以实现如下目标:

  • 集群间的数据同步。
  • 读写分离。向源集群中写入数据,并且源集群的数据变更同步至目标集群,目标集群提供查询服务。

以下是创建目标表和外表的示例:

# 在目标集群上执行
CREATE TABLE t
(
k1 DATE,
k2 INT,
k3 SMALLINT,
k4 VARCHAR(2048),
k5 DATETIME
)
ENGINE=olap
DISTRIBUTED BY HASH(k1);

# 在外表集群上执行
CREATE EXTERNAL TABLE external_t
(
k1 DATE,
k2 INT,
k3 SMALLINT,
k4 VARCHAR(2048),
k5 DATETIME
)
ENGINE=olap
DISTRIBUTED BY HASH(k1)
PROPERTIES
(
"host" = "127.0.0.1",
"port" = "9020",
"user" = "user",
"password" = "passwd",
"database" = "db_test",
"table" = "t"
);

# 写入数据至 StarRocks 外表,实现源集群的数据写入至目标集群。推荐生产环境使用第二种方式。
insert into external_t values ('2020-10-11', 1, 1, 'hello', '2020-10-11 10:00:00');

insert into external_t select * from other_table;

其中:

  • EXTERNAL:该关键字指定创建的是 StarRocks 外表。

  • host:该属性描述目标表所属 StarRocks 集群 Leader FE 的 IP 地址。

  • port:该属性描述目标表所属 StarRocks 集群 FE 的 RPC 访问端口。

    备注

    为确保外表所属集群能够正常访问目标表所属 StarRocks 集群,您需要确保网络策略和防火墙设置允许以下端口的访问:

    • FE 的 RPC 访问端口,可参考配置文件 fe/fe.conf 中的 rpc_port 配置取值,默认为 9020
    • BE 的 bRPC 访问端口,可参考配置文件 be/be.conf 中的 brpc_port 配置取值,默认为 8060
  • user:该属性描述目标表所属 StarRocks 集群的访问用户名。

  • password:该属性描述目标表所属 StarRocks 集群的访问密码。

  • database:该属性描述目标表所属数据库名称。

  • table:该属性描述目标表名称。

目前 StarRocks 外表使用上有以下限制:

  • 仅可以在外表上执行 insert into 和 show create table 操作,不支持其他数据写入方式,也不支持查询和 DDL。
  • 创建外表语法和创建普通表一致,但其中的列名等信息请保持同其对应的目标表一致。
  • 外表会周期性从目标表同步元信息(同步周期为 10 秒),在目标表执行的 DDL 操作可能会延迟一定时间反应在外表上。

更多数据库(JDBC)的外部表

自 2.3.0 版本起,StarRocks 支持通过外部表的方式查询支持 JDBC 的数据库,无需将数据导入至 StarRocks,即可实现对这类数据库的极速分析。本文介绍如何在 StarRocks 创建外部表,查询支持 JDBC 的数据库中的数据。

前提条件

在您使用 JDBC 外表时, FE、BE 节点会下载 JDBC 驱动程序,因此 FE、BE 节点所在机器必须能够访问用于下载 JDBC 驱动程序 JAR 包的 URL,该 URL 由创建 JDBC 资源中的配置项 driver_url 指定。

创建和管理 JDBC 资源

创建 JDBC 资源

您需要提前在 StarRocks 中创建 JDBC 资源,用于管理数据库的相关连接信息。这里的数据库是指支持 JDBC 的数据库,以下简称为“目标数据库”。创建资源后,即可使用该资源创建外部表。

例如目标数据库为 PostgreSQL,则可以执行如下语句,创建一个名为 jdbc0 的 JDBC 资源,用于访问 PostgreSQL:

CREATE EXTERNAL RESOURCE jdbc0
PROPERTIES (
"type" = "jdbc",
"user" = "postgres",
"password" = "changeme",
"jdbc_uri" = "jdbc:postgresql://127.0.0.1:5432/jdbc_test",
"driver_url" = "https://repo1.maven.org/maven2/org/postgresql/postgresql/42.3.3/postgresql-42.3.3.jar",
"driver_class" = "org.postgresql.Driver"
);

PROPERTIES 的必填配置项:

  • type:资源类型,固定取值为 jdbc

  • user:目标数据库用户名。

  • password:目标数据库用户登录密码。

  • jdbc_uri:JDBC 驱动程序连接目标数据库的 URI,需要满足目标数据库 URI 的语法。常见的目标数据库 URI,请参见 OraclePostgreSQLSQL Server 官网文档。

    说明

    目标数据库 URI 中必须指定具体数据库的名称,如上示例中的 jdbc_test

  • driver_url:用于下载 JDBC 驱动程序 JAR 包的 URL,支持使用 HTTP 协议 或者 file 协议。例如https://repo1.maven.org/maven2/org/postgresql/postgresql/42.3.3/postgresql-42.3.3.jarfile:///home/disk1/postgresql-42.3.3.jar

    说明

    不同目标数据库使用的 JDBC 驱动程序不同,使用其他数据库的 JDBC 驱动程序会有不兼容的问题,建议访问目标数据库官网,查询并使用其支持的 JDBC 驱动程序。常见的目标数据库的 JDBC 驱动程序下载地址,请参见 MySQLOraclePostgreSQLSQL Server

  • driver_class:JDBC 驱动程序的类名称。

    以下列举常见 JDBC 驱动程序的类名称:

    • MySQL: com.mysql.jdbc.Driver(MySQL 5.x 及以下版本)、com.mysql.cj.jdbc.Driver(MySQL 8.x 及以上版本)
    • SQL Server:com.microsoft.sqlserver.jdbc.SQLServerDriver
    • Oracle: oracle.jdbc.driver.OracleDriver
    • PostgreSQL:org.postgresql.Driver

创建资源时,FE 通过 driver_url 下载 JDBC 驱动程序 JAR 包,生成 checksum 并保存起来,用于校验 BE 下载的 JDBC 驱动程序 JAR 包的正确性。

说明

如果下载 JDBC 驱动程序失败,则创建资源也会失败。

BE 节点首次查询 JDBC 外部表时,如果发现所在机器上不存在相应的 JDBC 驱动程序 JAR 包,则会通过 driver_url 进行下载,所有的 JDBC 驱动程序 JAR 包都会保存在 ${STARROCKS_HOME}/lib/jdbc_drivers 目录下。

查看 JDBC 资源

执行如下语句,查看 StarRocks 中的所有 JDBC 资源:

说明

ResourceType 列为 jdbc

SHOW RESOURCES;

删除 JDBC 资源

执行如下语句,删除名为 jdbc0 的 JDBC 资源:

DROP RESOURCE "jdbc0";

说明

删除 JDBC 资源会导致使用该 JDBC 资源创建的 JDBC 外部表不可用,但目标数据库的数据并不会丢失。如果您仍需要通过 StarRocks 查询目标数据库的数据,可以重新创建 JDBC 资源和 JDBC 外部表。

创建数据库

执行如下语句,在 StarRocks 中创建并进入名为 jdbc_test 的数据库:

CREATE DATABASE jdbc_test; 
USE jdbc_test;

说明

库名无需与目标数据库的名称保持一致。

创建 JDBC 外部表

执行如下语句,在数据库 jdbc_test 中,创建一张名为 jdbc_tbl 的 JDBC 外部表:

CREATE EXTERNAL TABLE jdbc_tbl (
`id` bigint NULL,
`data` varchar(200) NULL
) ENGINE=jdbc
PROPERTIES (
"resource" = "jdbc0",
"table" = "dest_tbl"
);

PROPERTIES 配置项:

  • resource:所使用 JDBC 资源的名称,必填项。

  • table:目标数据库表名,必填项。

支持的数据类型以及与 StarRocks 的数据类型映射关系,请参见数据类型映射

说明

  • 不支持索引。
  • 不支持通过 PARTITION BY、DISTRIBUTED BY 来指定数据分布规则。

查询 JDBC 外部表

查询 JDBC 外部表前,必须启用 Pipeline 引擎。

说明

如果已经启用 Pipeline 引擎,则可跳过本步骤。

set enable_pipeline_engine=true;

执行如下语句,通过 JDBC 外部表查询目标数据库的数据:

select * from jdbc_tbl;

StarRocks 支持对目标表进行谓词下推,把过滤条件推给目标表执行,让执行尽量靠近数据源,进而提高查询性能。目前支持下推运算符,包括二元比较运算符(>>==<<=)、INIS NULLBETWEEN ... AND ...,但是不支持下推函数。

数据类型映射

目前仅支持查询目标数据库中数字、字符串、时间、日期等基础类型的数据。如果目标数据库中的数据超出 StarRocks 中数据类型的表示范围,则查询会报错。

如下以目标数据库 MySQL、Oracle、PostgreSQL、SQL Server 为例,说明支持查询的数据类型,以及与 StarRocks 数据类型的映射关系。

目标数据库为 MySQL

MySQLStarRocks
BOOLEANBOOLEAN
TINYINTTINYINT
SMALLINTSMALLINT
MEDIUMINTINTINT
BIGINTBIGINT
FLOATFLOAT
DOUBLEDOUBLE
DECIMALDECIMAL
CHARCHAR
VARCHARVARCHAR
DATEDATE
DATETIMEDATETIME

目标数据库为 Oracle

OracleStarRocks
CHARCHAR
VARCHAR/VARCHAR2VARCHAR
DATEDATE
SMALLINTSMALLINT
INTINT
DATEDATETIME
NUMBERDECIMAL

目标数据库为 PostgreSQL

PostgreSQLStarRocks
SMALLINT/SMALLSERIALSMALLINT
INTEGER/SERIALINT
BIGINT/BIGSERIALBIGINT
BOOLEANBOOLEAN
REALFLOAT
DOUBLE PRECISIONDOUBLE
DECIMALDECIMAL
TIMESTAMPDATETIME
DATEDATE
CHARCHAR
VARCHARVARCHAR
TEXTVARCHAR

目标数据库为 SQL Server

SQL ServerStarRocks
BITBOOLEAN
TINYINTTINYINT
SMALLINTSMALLINT
INTINT
BIGINTBIGINT
FLOATFLOAT/DOUBLE
REALFLOAT
DECIMAL/NUMERICDECIMAL
CHARCHAR
VARCHARVARCHAR
DATEDATE
DATETIME/DATETIME2DATETIME

使用限制

  • 创建 JDBC 外部表时,不支持索引,也不支持通过 PARTITION BY、DISTRIBUTED BY 来指定数据分布规则。
  • 查询 JDBC 外部表时,不支持下推函数。

(Deprecated) Elasticsearch 外部表

如要查询 Elasticsearch 中的数据,需要在 StarRocks 中创建 Elasticsearch 外部表,并将外部表与待查询的 Elasticsearch 表建立映射。StarRocks 与 Elasticsearch 都是目前流行的分析系统。StarRocks 擅长大规模分布式计算,且支持通过外部表查询 Elasticsearch。Elasticsearch 擅长全文检索。两者结合提供了一个更完善的 OLAP 解决方案。

建表示例

语法

CREATE EXTERNAL TABLE elastic_search_external_table
(
k1 DATE,
k2 INT,
k3 SMALLINT,
k4 VARCHAR(2048),
k5 DATETIME
)
ENGINE=ELASTICSEARCH
PROPERTIES
(
"hosts" = "http://192.168.0.1:9200,http://192.168.0.2:9200",
"user" = "root",
"password" = "root",
"index" = "tindex",
"type" = "_doc",
"es.net.ssl" = "true"
);

参数说明

参数是否必须默认值说明
hostsElasticsearch 集群连接地址,用于获取 Elasticsearch 版本号以及索引的分片分布信息,可指定一个或多个。StarRocks 是根据 GET /_nodes/http API 返回的地址和 Elasticsearch 集群进行通讯,所以 hosts 参数值必须和 GET /_nodes/http 返回的地址一致,否则可能导致 BE 无法和 Elasticsearch 集群进行正常的通讯。
indexStarRocks 中的表对应的 Elasticsearch 的索引名字,可以是索引的别名。支持通配符匹配,比如设置 indexhello*,则 StarRocks 会匹配到所有以 hello 开头的索引。
user开启 basic 认证的 Elasticsearch 集群的用户名,需要确保该用户有访问 /cluster/state/ nodes/http 等路径权限和对索引的读取权限。
password对应用户的密码信息。
type_doc指定索引的类型。如果您要查询的是数据是在 Elasticsearch 8 及以上版本,那么在 StarRocks 中创建外部表时就不需要配置该参数,因为 Elasticsearch 8 以及上版本已经移除了 mapping types。
es.nodes.wan.onlyfalse表示 StarRocks 是否仅使用 hosts 指定的地址,去访问 Elasticsearch 集群并获取数据。自 2.3.0 版本起,StarRocks 支持配置该参数。
  • true:StarRocks 仅使用 hosts 指定的地址去访问 Elasticsearch 集群并获取数据,不会探测 Elasticsearch 集群的索引每个分片所在的数据节点地址。如果 StarRocks 无法访问 Elasticsearch 集群内部数据节点的地址,则需要配置为 true
  • false:StarRocks 通过 hosts 中的地址,探测 Elasticsearch 集群索引各个分片所在数据节点的地址。StarRocks 经过查询规划后,相关 BE 节点会直接去请求 Elasticsearch 集群内部的数据节点,获取索引的分片数据。如果 StarRocks 可以访问 Elasticsearch 集群内部数据节点的地址,则建议保持默认值 false
es.net.sslfalse是否允许使用 HTTPS 协议访问 Elasticsearch 集群。自 2.4 版本起,StarRocks 支持配置该参数。
  • true:允许,HTTP 协议和 HTTPS 协议均可访问。
  • false:不允许,只能使用 HTTP 协议访问。
enable_docvalue_scantrue是否从 Elasticsearch 列式存储获取查询字段的值。多数情况下,从列式存储中读取数据的性能要优于从行式存储中读取数据的性能。
enable_keyword_snifftrue是否对 Elasticsearch 中 TEXT 类型的字段进行探测,通过 KEYWORD 类型字段进行查询。设置为 false 会按照分词后的内容匹配。默认值:true
启用列式扫描优化查询速度

如果设置 enable_docvalue_scantrue,StarRocks 从 Elasticsearch 中获取数据会遵循以下两条原则:

  • 尽力而为: 自动探测要读取的字段是否开启列式存储。如果要获取的字段全部有列存,StarRocks 会从列式存储中获取所有字段的值。
  • 自动降级: 如果要获取的字段中有任何一个字段没有列存,则 StarRocks 会从行存 _source 中解析获取所有字段的值。

说明

  • TEXT 类型的字段在 Elasticsearch 中没有列式存储。因此,如果要获取的字段值有 TEXT 类型字段时,会自动降级为从 _source 中获取。
  • 在获取的字段数量过多(大于等于 25)的情况下,从 docvalue 中获取字段值的性能会和从 _source 中获取字段值基本一样。
探测 KEYWORD 类型字段

如果设置 enable_keyword_snifftrue,在 Elasticsearch 中可以不建立索引直接进行数据导入,因为 Elasticsearch 会在数据导入完成后自动创建一个新的索引。针对字符串类型的字段,Elasticsearch 会创建一个既有 TEXT 类型又有 KEYWORD 类型的字段,这就是 Elasticsearch 的 Multi-Field 特性,Mapping 如下:

"k4": {
"type": "text",
"fields": {
"keyword": {
"type": "keyword",
"ignore_above": 256
}
}
}

k4 进行条件过滤(如 = 条件)时,StarRocks On Elasticsearch 会将查询转换为 Elasticsearch 的 TermQuery。

原 SQL 过滤条件如下:

k4 = "StarRocks On Elasticsearch"

转换成 Elasticsearch 的查询 DSL 如下:

"term" : {
"k4": "StarRocks On Elasticsearch"

}

由于 k4 的第一字段类型为 TEXT,在数据导入时 StarRocks 会根据 k4 设置的分词器(如果没有设置分词器,则默认使用 standard 分词器)进行分词处理得到 StarRocksOnElasticsearch 三个 term,如下所示:

POST /_analyze
{
"analyzer": "standard",
"text": "StarRocks On Elasticsearch"
}

分词的结果如下:

{
"tokens": [
{
"token": "starrocks",
"start_offset": 0,
"end_offset": 5,
"type": "<ALPHANUM>",
"position": 0
},
{
"token": "on",
"start_offset": 6,
"end_offset": 8,
"type": "<ALPHANUM>",
"position": 1
},
{
"token": "elasticsearch",
"start_offset": 9,
"end_offset": 11,
"type": "<ALPHANUM>",
"position": 2
}
]
}

假设执行如下查询:

"term" : {
"k4": "StarRocks On Elasticsearch"
}

StarRocks On Elasticsearch 这个 term 匹配不到词典中的任何 term,不会返回任何结果,而设置 enable_keyword_snifftrue 以后,StarRocks 会自动将 k4 = "StarRocks On Elasticsearch" 转换成 k4.keyword = "StarRocks On Elasticsearch" 来完全匹配 SQL语义。转换后的 Elasticsearch 查询 DSL 如下:

"term" : {
"k4.keyword": "StarRocks On Elasticsearch"
}

k4.keyword 的类型是 KEYWORD,数据写入Elasticsearch 是一个完整的 term,因此可以在词典中找到匹配的结果。

映射关系

创建外部表时,需根据 Elasticsearch 的字段类型指定 StarRocks 中外部表的列类型,具体映射关系如下:

ElasticsearchStarRocks
BOOLEANBOOLEAN
BYTETINYINT/SMALLINT/INT/BIGINT
SHORTSMALLINT/INT/BIGINT
INTEGERINT/BIGINT
LONGBIGINT
FLOATFLOAT
DOUBLEDOUBLE
KEYWORDCHAR/VARCHAR
TEXTCHAR/VARCHAR
DATEDATE/DATETIME
NESTEDCHAR/VARCHAR
OBJECTCHAR/VARCHAR
ARRAYARRAY

说明

  • StarRocks 会通过 JSON 相关函数读取嵌套字段。
  • 关于 ARRAY 类型,因为在 Elasticsearch 中,多维数组会被自动打平成一维数组,所以 StarRocks 也会做相同行为的转换。从 2.5 版本开始,支持查询 Elasticsearch 中的 ARRAY 数据。

谓词下推

StarRocks 支持对 Elasticsearch 表进行谓词下推,把过滤条件推给 Elasticsearch 进行执行,让执行尽量靠近存储,提高查询性能。目前支持下推的算子如下表:

SQL syntaxElasticsearch syntax
=term query
interms query
\>=, <=, >, <range
andbool.filter
orbool.should
notbool.must_not
not inbool.must_not + terms
esqueryES Query DSL

查询示例

通过 esquery 函数将一些无法用 SQL 表述的 Elasticsearch query,如 match 和 geoshape 等下推给 Elasticsearch 进行过滤处理。esquery 的第一个列名参数用于关联 index,第二个参数是 Elasticsearch 的基本 Query DSL 的 json 表述,使用花括号({})包含,json 的 root key 有且只能有一个,如 match、geo_shape 和 bool 等。

  • match 查询

    select * from es_table where esquery(k4, '{
    "match": {
    "k4": "StarRocks on elasticsearch"
    }
    }');
  • geo 相关查询

    select * from es_table where esquery(k4, '{
    "geo_shape": {
    "location": {
    "shape": {
    "type": "envelope",
    "coordinates": [
    [
    13,
    53
    ],
    [
    14,
    52
    ]
    ]
    },
    "relation": "within"
    }
    }
    }');
  • bool 查询

    select * from es_table where esquery(k4, ' {
    "bool": {
    "must": [
    {
    "terms": {
    "k1": [
    11,
    12
    ]
    }
    },
    {
    "terms": {
    "k2": [
    100
    ]
    }
    }
    ]
    }
    }');

注意事项

  • Elasticsearch 5.x 之前和之后的数据扫描方式不同,目前 StarRocks 只支持查询 5.x 之后的版本。
  • 支持查询使用 HTTP Basic 认证的 Elasticsearch 集群。
  • 一些通过 StarRocks 的查询会比直接请求 Elasticsearch 会慢很多,比如 count 相关查询。这是因为 Elasticsearch 内部会直接读取满足条件的文档个数相关的元数据,不需要对真实的数据进行过滤操作,使得 count 的速度非常快。

(Deprecated) Hive 外部表

使用 Hive 外部表前,确保服务器上已安装 JDK 1.8。

创建 Hive 资源

StarRocks 使用 Hive 资源来管理使用到的 Hive 集群相关配置,如 Hive Metastore 地址等,一个 Hive 资源对应一个 Hive 集群。创建 Hive 外表的时候需要指定使用哪个 Hive 资源。

-- 创建一个名为 hive0 的 Hive 资源。
CREATE EXTERNAL RESOURCE "hive0"
PROPERTIES (
"type" = "hive",
"hive.metastore.uris" = "thrift://xx.xx.xx.xx:9083"
);

-- 查看 StarRocks 中创建的资源。
SHOW RESOURCES;

-- 删除名为 hive0 的资源。
DROP RESOURCE "hive0";

StarRocks 2.3 及以上版本支持修改 Hive 资源的 hive.metastore.uris。更多信息,参见 ALTER RESOURCE.

创建数据库

CREATE DATABASE hive_test;
USE hive_test;

创建 Hive 外表

-- 语法
CREATE EXTERNAL TABLE table_name (
col_name col_type [NULL | NOT NULL] [COMMENT "comment"]
) ENGINE=HIVE
PROPERTIES (
"key" = "value"
);

-- 例子:创建 hive0 资源对应的 Hive 集群中 rawdata 数据库下的 profile_parquet_p7 表的外表。
CREATE EXTERNAL TABLE `profile_wos_p7` (
`id` bigint NULL,
`first_id` varchar(200) NULL,
`second_id` varchar(200) NULL,
`p__device_id_list` varchar(200) NULL,
`p__is_deleted` bigint NULL,
`p_channel` varchar(200) NULL,
`p_platform` varchar(200) NULL,
`p_source` varchar(200) NULL,
`p__city` varchar(200) NULL,
`p__province` varchar(200) NULL,
`p__update_time` bigint NULL,
`p__first_visit_time` bigint NULL,
`p__last_seen_time` bigint NULL
) ENGINE=HIVE
PROPERTIES (
"resource" = "hive0",
"database" = "rawdata",
"table" = "profile_parquet_p7"
);

说明:

  • 外表列:
    • 列名需要与 Hive 表一一对应。
    • 列顺序与 Hive 表的关系。如果 Hive 表的存储格式为 Parquet 或 ORC,则列的顺序 不需要 与 Hive 表一致。如果 Hive 表的存储格式为 CSV,则列的顺序 需要 与 Hive 表一致。
    • 可以只选择 Hive 表中的 部分列,但 分区列 必须要全部包含。
    • 外表的分区列无需通过 partition by 语句指定,需要与普通列一样定义到描述列表中。不需要指定分区信息,StarRocks 会自动从 Hive 同步。
    • ENGINE 指定为 HIVE。
  • PROPERTIES 属性:
    • hive.resource:指定使用的 Hive 资源。
    • database:指定 Hive 中的数据库。
    • table:指定 Hive 中的表,不支持 view
  • 创建外部表时,需根据 Hive 表列类型指定 StarRocks 中外部表列类型,具体映射关系如下:
HiveStarRocks
INT/INTEGERINT
BIGINTBIGINT
TIMESTAMPDATETIME
注意 TIMESTAMP 转成 DATETIME 会损失精度和时区信息,并根据 sessionVariable 中的时区转成无时区 DATETIME。
STRINGVARCHAR
VARCHARVARCHAR
CHARCHAR
DOUBLEDOUBLE
FLOATFLOAT
DECIMALDECIMAL
ARRAYARRAY

说明:

  • 支持 Hive 的存储格式为 Parquet,ORC 和 CSV 格式。如果为 CSV 格式,则暂不支持使用引号作为转义字符。
  • 压缩格式支持 Snappy 和 LZ4。
  • Hive 外表可查询的最大字符串长度为 1 MB。超过 1 MB 时,查询设置成 Null。

查询 Hive 外表

-- 查询 profile_wos_p7 的总行数。
select count(*) from profile_wos_p7;

更新缓存的 Hive 表元数据

Hive 表 (Hive Table) 的 Partition 统计信息以及 Partition 下面的文件信息可以缓存到 StarRocks FE 中,缓存的内存结构为 Guava LoadingCache。您可以在 fe.conf 文件中通过设置 hive_meta_cache_refresh_interval_s 参数修改缓存自动刷新的间隔时间(默认值为 7200,单位:秒),也可以通过设置 hive_meta_cache_ttl_s 参数修改缓存的失效时间(默认值为 86400,单位:秒)。修改后需重启 FE 生效。

手动更新元数据缓存

  • 手动刷新元数据信息:
    1. Hive 中新增或者删除分区时,需要刷新 的元数据信息:REFRESH EXTERNAL TABLE hive_t,其中 hive_t 是 StarRocks 中的外表名称。
    2. Hive 中向某些 partition 新增数据时,需要 指定 partition 进行刷新:REFRESH EXTERNAL TABLE hive_t PARTITION ('k1=01/k2=02', 'k1=03/k2=04'),其中 hive_t 是 StarRocks 中的外表名称,'k1 = 01/k2 = 02'、 'k1 = 03/k2 = 04'是 hive 中的 partition 名称。
    3. 在执行 REFRESH EXTERNAL TABLE hive_t 命令时,StarRocks 会先检查 Hive 外部表中的列信息和 Hive Metastore 返回的 Hive 表中的列信息是否一致。若发现 Hive 表的 schema 有修改,如增加列或减少列,那么 StarRocks 会将修改的信息同步到 Hive 外部表。同步后,Hive 外部表的列顺序和 Hive 表的列顺序保持一致,且分区列为最后一列。

自动增量更新元数据缓存

自动增量更新元数据缓存主要是通过定期消费 Hive Metastore 的 event 来实现,新增分区以及分区新增数据无需通过手动执行 refresh 来更新。用户需要在 Hive Metastore 端开启元数据 Event 机制。相比 Loading Cache 的自动刷新机制,自动增量更新性能更好,建议用户开启该功能。开启该功能后,Loading Cache 的自动刷新机制将不再生效。

  • Hive Metastore 开启 event 机制

    用户需要在 $HiveMetastore/conf/hive-site.xml 中添加如下配置,并重启 Hive Metastore. 以下配置为 Hive Metastore 3.1.2 版本的配置,用户可以将以下配置先拷贝到 hive-site.xml 中进行验证,因为在 Hive Metastore 中配置不存在的参数只会提示 WARN 信息,不会抛出任何异常。

<property>
<name>hive.metastore.event.db.notification.api.auth</name>
<value>false</value>
</property>
<property>
<name>hive.metastore.notifications.add.thrift.objects</name>
<value>true</value>
</property>
<property>
<name>hive.metastore.alter.notifications.basic</name>
<value>false</value>
</property>
<property>
<name>hive.metastore.dml.events</name>
<value>true</value>
</property>
<property>
<name>hive.metastore.transactional.event.listeners</name>
<value>org.apache.hive.hcatalog.listener.DbNotificationListener</value>
</property>
<property>
<name>hive.metastore.event.db.listener.timetolive</name>
<value>172800s</value>
</property>
<property>
<name>hive.metastore.server.max.message.size</name>
<value>858993459</value>
</property>
  • StarRocks 开启自动增量元数据同步

    用户需要在 $FE_HOME/conf/fe.conf 中添加如下配置并重启 FE。 enable_hms_events_incremental_sync=true 自动增量元数据同步相关配置如下,如无特殊需求,无需修改。

    参数值说明默认值
    enable_hms_events_incremental_sync是否开启元数据自动增量同步功能false
    hms_events_polling_interval_msStarRocks 拉取 Hive Metastore Event 事件间隔5000 毫秒
    hms_events_batch_size_per_rpcStarRocks 每次拉取 Event 事件的最大数量500
    enable_hms_parallel_process_evens对接收的 Events 是否并行处理true
    hms_process_events_parallel_num处理 Events 事件的并发数4
  • 注意事项

    • 不同版本 Hive Metastore 的 Events 事件可能不同,且上述开启 HiveMetastore Event 机制的配置在不同版本也存在不同。使用时相关配置可根据实际版进行适当调整。当前已经验证可以开启 Hive Metastore Event 机制的版本有 2.X 和 3.X。用户可以在 FE 日志中搜索 "event id" 来验证 event 是否开启成功,如果没有开启成功,event id 始终保持为 0。如果无法判断是否成功开启 Event 机制,请在 StarRocks 用户交流群中联系值班同学进行排查。
    • 当前 Hive 元数据缓存模式为懒加载,即:如果 Hive 新增了分区,StarRocks 只会将新增分区的 partition key 进行缓存,不会立即缓存该分区的文件信息。只有当查询该分区时或者用户手动执行 refresh 分区操作时,该分区的文件信息才会被加载。StarRocks 首次缓存该分区统计信息后,该分区后续的元数据变更就会自动同步到 StarRocks 中。
    • 手动执行缓存方式执行效率较低,相比之下自动增量更新性能开销较小,建议用户开启该功能进行更新缓存。
    • 当 Hive 数据存储为 Parquet、ORC、CSV 格式时,StarRocks 2.3及以上版本支持 Hive 外部表同步 ADD COLUMN、REPLACE COLUMN 等表结构变更(Schema Change)。

访问对象存储

  • FE 配置文件路径为 $FE_HOME/conf。如果需要自定义 Hadoop 集群的配置,可以在该目录下添加配置文件,例如:如果 HDFS 集群采用了高可用的 Nameservice,需要将 Hadoop 集群中的 hdfs-site.xml 放到该目录下;如果 HDFS 配置了 ViewFs,需要将 core-site.xml 放到该目录下。
  • BE 配置文件路径为 $BE_HOME/conf。如果需要自定义 Hadoop 集群的配置,可以在该目录下添加配置文件,例如:如果 HDFS 集群采用了高可用的 Nameservice,需要将 Hadoop 集群中的 hdfs-site.xml 放到该目录下;如果 HDFS 配置了 ViewFs,需要将 core-site.xml 放到该目录下。
  • BE 所在机器的启动脚本 $BE_HOME/bin/start_be.sh 中需要配置 JAVA_HOME,要配置成 JDK 环境,不能配置成 JRE 环境,比如 export JAVA_HOME = <JDK 的绝对路径>。注意需要将该配置添加在 BE 启动脚本最开头,添加完成后需重启 BE。
  • Kerberos 支持
    1. 在所有的 FE/BE 机器上用 kinit -kt keytab_path principal 登录,该用户需要有访问 Hive 和 HDFS 的权限。kinit 命令登录是有实效性的,需要将其放入 crontab 中定期执行。
    2. 把 Hadoop 集群中的 hive-site.xml/core-site.xml/hdfs-site.xml 放到 $FE_HOME/conf 下,把 core-site.xml/hdfs-site.xml 放到 $BE_HOME/conf 下。
    3. 在 $FE_HOME/conf/fe.conf 文件中的 JAVA_OPTS 选项取值里添加 -Djava.security.krb5.conf=/etc/krb5.conf,其中 /etc/krb5.conf 是 krb5.conf 文件的路径,可以根据自己的系统调整。
    4. 在 $BE_HOME/conf/be.conf 文件增加选项 JAVA_OPTS="-Djava.security.krb5.conf=/etc/krb5.conf",其中 /etc/krb5.conf 是 krb5.conf 文件的路径,可以根据自己的系统调整。
    5. resource 中的 uri 地址一定要使用域名,并且相应的 Hive 和 HDFS 的域名与 IP 的映射都需要配置到 /etc/hosts 中。

AWS S3/Tencent Cloud COS 支持

  1. 在 $FE_HOME/conf/core-site.xml 中加入如下配置:

    <configuration>
    <property>
    <name>fs.s3a.impl</name>
    <value>org.apache.hadoop.fs.s3a.S3AFileSystem</value>
    </property>
    <property>
    <name>fs.AbstractFileSystem.s3a.impl</name>
    <value>org.apache.hadoop.fs.s3a.S3A</value>
    </property>
    <property>
    <name>fs.s3a.access.key</name>
    <value>******</value>
    </property>
    <property>
    <name>fs.s3a.secret.key</name>
    <value>******</value>
    </property>
    <property>
    <name>fs.s3a.endpoint</name>
    <value>s3.us-west-2.amazonaws.com</value>
    </property>
    <property>
    <name>fs.s3a.connection.maximum</name>
    <value>500</value>
    </property>
    </configuration>
    • fs.s3a.access.key 指定 aws 的 access key id
    • fs.s3a.secret.key 指定 aws 的 secret access key
    • fs.s3a.endpoint 指定 aws 的区域
    • fs.s3a.connection.maximum 配置最大链接数,如果查询过程中有报错 Timeout waiting for connection from poll,可以适当调高该参数
  2. 在 $BE_HOME/conf/be.conf 中加入如下配置。

    • object_storage_access_key_id 与 FE 端 core-site.xml 配置 fs.s3a.access.key 相同
    • object_storage_secret_access_key 与 FE 端 core-site.xml 配置 fs.s3a.secret.key 相同
    • object_storage_endpoint 与 FE 端 core-site.xml 配置 fs.s3a.endpoint 相同
    • object_storage_region 只有腾讯 COS 需要额外添加该配置项。如:ap-beijing****
  3. 重启 FE 和 BE。

Aliyun OSS 支持

  1. 在 $FE_HOME/conf/core-site.xml 中加入如下配置。

    <configuration>
    <property>
    <name>fs.oss.impl</name>
    <value>com.aliyun.jindodata.oss.JindoOssFileSystem</value>
    </property>
    <property>
    <name>fs.AbstractFileSystem.oss.impl</name>
    <value>com.aliyun.jindodata.oss.OSS</value>
    </property>
    <property>
    <name>fs.oss.accessKeyId</name>
    <value>xxx</value>
    </property>
    <property>
    <name>fs.oss.accessKeySecret</name>
    <value>xxx</value>
    </property>
    <property>
    <name>fs.oss.endpoint</name>
    <!-- 以下以北京地域为例,其他地域请根据实际情况替换。 -->
    <value>oss-cn-beijing.aliyuncs.com</value>
    </property>
    </configuration>
    • fs.oss.accessKeyId 指定阿里云账号或 RAM 用户的 AccessKey ID,获取方式,请参见 获取 AccessKey

    • fs.oss.accessKeySecret 指定阿里云账号或 RAM 用户的 AccessKey Secret,获取方式,请参见 获取 AccessKey

    • fs.oss.endpoint 指定相关 OSS Bucket 所在地域对应的 Endpoint。 您可以通过以下方式查询 Endpoint:

      • 根据 Endpoint 与地域的对应关系进行查找,请参见 访问域名和数据中心
      • 您可以登录 阿里云 OSS 管理控制台,进入 Bucket 概览页,Bucket 域名 examplebucket.oss-cn-hangzhou.aliyuncs.com 的后缀部分 oss-cn-hangzhou.aliyuncs.com,即为该 Bucket 的外网 Endpoint。
  2. 在 $BE_HOME/conf/be.conf 中加入如下配置。

    • object_storage_access_key_id 与 FE 端 core-site.xml 配置 fs.oss.accessKeyId 相同
    • object_storage_secret_access_key 与 FE 端 core-site.xml 配置 fs.oss.accessKeySecret 相同
    • object_storage_endpoint 与 FE 端 core-site.xml 配置 fs.oss.endpoint 相同
  3. 重启 FE,BE。

(Deprecated) Iceberg 外部表

如要查询 Iceberg 数据,需要在 StarRocks 中创建 Iceberg 外部表,并将外部表与需要查询的 Iceberg 表建立映射。

自 2.1.0 版本起,StarRocks 支持通过外部表的方式查询 Iceberg 数据。

前提条件

确保 StarRocks 有权限访问 Iceberg 依赖的元数据服务(如 Hive metastore)、文件系统(如 HDFS )和对象存储系统(如 Amazon S3 和阿里云对象存储 OSS)。

注意事项

  • Iceberg 外部表仅支持查询以下格式的数据:
    • Iceberg v1 表 (Analytic Data Tables) 。自 3.0 版本开始,支持查询 ORC 格式的 Iceberg v2 表 (Row-level Deletes) 。自 3.1 版本开始,支持查询 Parquet 格式的 v2 表。更多有关 Iceberg v1 表和 Iceberg v2 表的信息,参见 Iceberg Table Spec
    • 压缩格式为 gzip(默认压缩格式)、Zstd、LZ4 和 Snappy 的表。
    • 格式为 Parquet 和 ORC 的文件。
  • StarRocks 2.3 及以上版本支持同步 Iceberg 表结构,但 StarRocks 2.3 以下版本不⽀持。如果 Iceberg 表结构发生变化,您需要在 StarRocks 中删除相应的外部表并重新创建。

操作步骤

步骤一:创建 Iceberg 资源

在创建外部表之前,需先创建 Iceberg 资源,以用来管理 Iceberg 的访问信息。此外,在创建 Iceberg 外部表时也需要指定引用的 Iceberg 资源。您可以根据业务需求创建不同 catalog 类型的资源:

  • 如果使用 Hive metastore 作为 Iceberg 的元数据服务,则可以创建 catalog 类型为 HIVE 的资源。
  • 如果想要自定义 Iceberg 的元数据服务,则可以开发一个 custom catalog (即自定义 catalog),然后创建 catalog 类型为 CUSTOM 的资源。

说明

仅 StarRocks 2.3 及以上版本支持创建 catalog 类型为 CUSTOM 的资源。

创建 catalog 类型为 HIVE 的资源

例如,创建一个名为 iceberg0 的资源,并指定该资源的 catalog 类型为 HIVE

CREATE EXTERNAL RESOURCE "iceberg0" 
PROPERTIES (
"type" = "iceberg",
"iceberg.catalog.type" = "HIVE",
"iceberg.catalog.hive.metastore.uris" = "thrift://xx.xx.xx.xx:9083"
);

参数说明:

参数说明
type资源类型,取值为 iceberg
iceberg.catalog.typeIceberg的 catalog 类型。目前支持 Hive catalog 和 custom catalog。 如要使用 Hive catalog, 设置该参数为 HIVE。 如要使用 custom catalog,设置该参数为 CUSTOM
iceberg.catalog.hive.metastore.urisHive Metastore 的 URI。格式为 thrift://<Iceberg 元数据的IP地址>:<端口号>,端口号默认为 9083。Apache Iceberg 通过 Hive catalog 连接 Hive metastore,以查询 Iceberg 表的元数据。

创建 catalog 类型为 CUSTOM 的资源

Custom catalog 需要继承抽象类 BaseMetastoreCatalog,并实现 IcebergCatalog 接口。此外,custom catalog 类名不能与 StarRocks 中已存在的类名重复。开发完成后,您需要将 custom catalog 及其相关文件打包并放到所有 FE 节点的 fe/lib 路径下,然后重启所有 FE 节点,以便 FE 识别这个类。以上操作完成后即可创建资源。

例如,创建一个名为 iceberg1 的资源,并指定该资源的 catalog 类型为 CUSTOM

CREATE EXTERNAL RESOURCE "iceberg1" 
PROPERTIES (
"type" = "iceberg",
"iceberg.catalog.type" = "CUSTOM",
"iceberg.catalog-impl" = "com.starrocks.IcebergCustomCatalog"
);

参数说明:

参数说明
type资源类型,取值为 iceberg
iceberg.catalog.typeIceberg 的 catalog 类型。目前支持 Hive catalog 和 custom catalog。 如要使用 Hive catalog, 需指定该参数值为 HIVE。 如要使用 custom catalog,需指定该参数值为 CUSTOM
iceberg.catalog-impl开发的 custom catalog 的全限定类名。FE 会根据该类名查找开发的 custom catalog。如果 custom catalog 中包含自定义的配置项,需要在创建 Iceberg 外部表时将其以键值对的形式添加到 SQL 语句的 PROPERTIES 中。

StarRocks 2.3 及以上版本支持修改 Iceberg 资源的 hive.metastore.urisiceberg.catalog-impl。更多信息,参见 ALTER RESOURCE.

查看 Iceberg 资源

SHOW RESOURCES;

删除 Iceberg 资源

例如,删除一个名为 iceberg0 的资源。

DROP RESOURCE "iceberg0";

删除一个资源会导致引用该资源的所有外部表不可用,但对应的 Iceberg 表中的数据不会删除。如果删除后仍想通过 StarRocks 查询 Iceberg 数据,需要重新创建 Iceberg 资源和 Iceberg 外部表。

(可选)步骤二:创建数据库

您可以创建一个新的数据库用来存放外部表,也可以在已有的数据库中创建外部表。

例如,在 StarRocks 中创建名为 iceberg_test 的数据库。语法如下:

CREATE DATABASE iceberg_test; 

说明

该数据库名称不需要和待查询的 Iceberg 数据库名称保持一致。

步骤三:创建 Iceberg 外部表

例如,在数据库 iceberg_test 中创建名为 iceberg_tbl 的 Iceberg 外部表。语法如下:

CREATE EXTERNAL TABLE `iceberg_tbl` ( 
`id` bigint NULL,
`data` varchar(200) NULL
) ENGINE=ICEBERG
PROPERTIES (
"resource" = "iceberg0",
"database" = "iceberg",
"table" = "iceberg_table"
);

参数说明:

参数说明
ENGINE取值为 ICEBERG
resource外部表引用的 Iceberg 资源的名称。
databaseIceberg 表所属的数据库的名称。
tableIceberg 表名称。

说明:

  • 表名无需与 Iceberg 的实际表名保持一致。
  • 列名必须与 Iceberg 的实际列名保持一致,列的顺序无需保持一致。

如果您在 custom catalog 中自定义了配置项,且希望在查询外部表时这些配置项能生效,您可以将这些配置项以键值对的形式添加到建表语句的 PROPERTIES 中。例如,在 custom catalog 中定义了一个配置项 custom-catalog.properties,那么创建 Iceberg 外部表的语法如下:

CREATE EXTERNAL TABLE `iceberg_tbl` ( 
`id` bigint NULL,
`data` varchar(200) NULL
) ENGINE=ICEBERG
PROPERTIES (
"resource" = "iceberg0",
"database" = "iceberg",
"table" = "iceberg_table",
"custom-catalog.properties" = "my_property"
);

创建外部表时,需根据 Iceberg 表的列类型指定 StarRocks 中外部表的列类型,具体映射关系如下:

IcebergStarRocks
BOOLEANBOOLEAN
INTTINYINT/SMALLINT/INT
LONGBIGINT
FLOATFLOAT
DOUBLEDOUBLE
DECIMAL(P, S)DECIMAL
DATEDATE/DATETIME
TIMEBIGINT
TIMESTAMPDATETIME
STRINGSTRING/VARCHAR
UUIDSTRING/VARCHAR
FIXED(L)CHAR
BINARYVARCHAR
LISTARRAY

StarRocks 不支持查询以下类型的数据: TIMESTAMPTZ、STRUCT 和 MAP。

步骤四:查询 Iceberg 数据

创建 Iceberg 外部表后,即可通过外部表查询 Iceberg 表中的数据。举例:

select count(*) from iceberg_tbl;

(Deprecated) Hudi 外部表

从 2.2.0 版本开始,StarRocks 支持通过外表的方式查询 Hudi 数据湖中的数据,帮助您实现对数据湖的极速分析。本文介绍如何在 StarRock 创建外表,查询 Hudi 中的数据。

前提条件

请确认 StarRocks 有权限访问 Hudi 对应的 Hive Metastore、HDFS 集群或者对象存储的 Bucket。

注意事项

  • Hudi 外表只能用于查询操作,不支持写入。
  • 当前支持 Hudi 的表类型为 Copy on Write(下文简称 COW)和 Merge on read(下文简称 MOR,从 2.5 开始支持)。COW 和 MOR 之间的更多区别,请参见 Apache Hudi 官网
  • 当前支持的 Hudi 查询类型有 Snapshot Queries 和 Read Optimized Queries(仅针对 MOR 表),暂不支持 Incremental Queries。有关 Hudi 查询类型的说明,请参见 Table & Query Types
  • 支持 Hudi 文件的压缩格式为 GZIP(默认值),ZSTD,LZ4 和 SNAPPY。
  • StarRocks 暂不支持同步 Hudi 表结构。如果 Hudi 表结构发生变化,您需要在 StarRocks 中删除相应的外部表并重新创建。

操作步骤

步骤一:创建和管理 Hudi 资源

您需要提前在 StarRocks 中创建 Hudi 资源,用于管理在 StarRocks 中创建的 Hudi 数据库和外表。

执行如下命令,创建一个名为 hudi0 的 Hudi 资源。

CREATE EXTERNAL RESOURCE "hudi0" 
PROPERTIES (
"type" = "hudi",
"hive.metastore.uris" = "thrift://xx.xx.xx.xx:9083"
);
参数说明
type资源类型,固定取值为 hudi
hive.metastore.urisHive Metastore 的 thrift URI。
Hudi 通过连接 Hive Metastore,以创建并管理表。您需要传入该 Hive Metastore 的 thrift URI。格式为 thrift://<Hudi元数据的IP地址>:<端口号>,端口号默认为 9083。

StarRocks 2.3 及以上版本支持修改 Hudi 资源的 hive.metastore.uris。更多信息,参见 ALTER RESOURCE.

执行如下命令,查看 StarRocks 中的所有 Hudi 资源。

SHOW RESOURCES;

执行如下命令,删除名为 hudi0 的 Hudi 资源。

DROP RESOURCE "hudi0";

删除 Hudi 资源会导致其包含的所有 Hudi 外表不可用,但 Hudi 中的数据并不会丢失。如果您仍需要通过 StarRocks 查询 Hudi 的数据,请重新创建 Hudi 资源,Hudi 数据库和外表。

步骤二:创建 Hudi 数据库

执行如下命令,在 StarRocks 中创建并进入名为 hudi_test 的 Hudi 数据库。

CREATE DATABASE hudi_test; 
USE hudi_test;

库名无需与 Hudi 的实际库名保持一致。

步骤三:创建 Hudi 外表

执行如下命令,在 Hudi 数据库 hudi_test 中,创建一张名为 hudi_tbl 的 Hudi 外表。

CREATE EXTERNAL TABLE `hudi_tbl` ( 
`id` bigint NULL,
`data` varchar(200) NULL
) ENGINE=HUDI
PROPERTIES (
"resource" = "hudi0",
"database" = "hudi",
"table" = "hudi_table"
);
  • 相关参数说明,请参见下表:
参数说明
ENGINE固定为 HUDI,无需更改。
resourceStarRocks 的 Hudi 资源的名称。
databaseHudi 表所在的数据库名称。
tableHudi 表所在的数据表名称。
  • 表名无需与 Hudi 实际表名保持一致。
  • 列名需要与 Hudi 实际列名保持一致,列的顺序无需保持一致。
  • 您可以按照业务需求选择 Hudi 表中的全部或部分列。
  • 创建外部表时,需根据 Hudi 表列类型指定 StarRocks 中外部表列类型,具体映射关系如下:
Hudi typeStarRocks type
BOOLEANBOOLEAN
INTINT
DATEDATE
TimeMillis/TimeMicrosTIME
TimestampMillis/TimestampMicrosDATETIME
LONGBIGINT
FLOATFLOAT
DOUBLEDOUBLE
STRINGCHAR/VARCHAR
ARRAYARRAY
DECIMALDECIMAL

StarRocks 暂不支持查询Struct,Map数据类型,对于MOR表,暂不支持Array数据类型。

步骤四:查询 Hudi 外表

创建 Hudi 外表后,无需导入数据,执行如下命令,即可查询 Hudi 的数据。

SELECT COUNT(*) FROM hudi_tbl;

(Deprecated) MySQL 外部表

星型模型中,数据一般划分为维度表 (dimension table) 和事实表 (fact table)。维度表数据量少,但会涉及 UPDATE 操作。目前 StarRocks 中还不直接支持 UPDATE 操作(可以通过更新表或者主键表实现),在一些场景下,可以把维度表存储在 MySQL 中,查询时直接读取维度表。

在使用 MySQL 的数据之前,需在 StarRocks 创建外部表 (CREATE EXTERNAL TABLE),与之相映射。StarRocks 中创建 MySQL 外部表时需要指定 MySQL 的相关连接信息,如下所示。

CREATE EXTERNAL TABLE mysql_external_table
(
k1 DATE,
k2 INT,
k3 SMALLINT,
k4 VARCHAR(2048),
k5 DATETIME
)
ENGINE=mysql
PROPERTIES
(
"host" = "127.0.0.1",
"port" = "3306",
"user" = "mysql_user",
"password" = "mysql_passwd",
"database" = "mysql_db_test",
"table" = "mysql_table_test"
);

参数说明:

  • host:MySQL 连接地址
  • port:MySQL 连接端口号
  • user:MySQL 登录用户名
  • password:MySQL 登录密码
  • database:MySQL 数据库名
  • table:MySQL 数据库表名

常见问题

StarRocks 外部表同步出错,应该如何解决?

提示问题

SQL 错误 [1064] [42000]: data cannot be inserted into table with empty partition.Use SHOW PARTITIONS FROM external_t; to see the currently partitions of this table.

查看 Partitions 时提示另一错误:SHOW PARTITIONS FROM external_t SQL 错误 [1064] [42000]: Table[external_t] is not a OLAP/ELASTICSEARCH/HIVE table

解决方法

建外部表时端口不对,正确的端口是 "port"="9020" 。

提示问题

查询报错: Memory of query_pool exceed limit. read and decompress page Used: 49113428144, Limit: 49111753861. Mem usage has exceed the limit of query pool

解决方法

查询的外表列比较多时可能触发该问题,可通过在 be.conf 中添加参数 buffer_stream_reserve_size=8192 后重启 BE 解决该问题。