StarRocks version 3.3
升级至 v3.3 后,请勿直接将集群降级至 v3.2.0、v3.2.1 或 v3.2.2,否则会导致元数据丢失。您必须降级到 v3.2.3 或更高版本以避免出现此问题。
3.3.4
发布日期:2024 年 9 月 30 日
新增功能
- 支持在 List Partition 的表上创建异步物化视图。 #46680 #46808
- List Partition 表支持 Nullable 分区列。 #47797
- 支持通过
DESC FILES()
查看外部文件 Schema 信息。#50527 - 支持通过
SHOW PROC '/replications'
查看数据复制任务指标。#50483
功能优化
- 优化存算分离架构下
TRUNCATE TABLE
的数据回收速度。#49975 - CTE 算子支持中间结果落盘。#47982
- 支持自适应分阶段调度,缓解复杂查询导致的 OOM。#47868
- 在一些特定场景下支持了 STRING 类型的 date 或 datetime 列的查询下推。#50643
- 支持基于常量的半结构化数据上计算
COUNT DISTINCT
。#48273 - 新增 FE 参数
lake_enable_balance_tablets_between_workers
,用于启用存算分离表的 Tablet 均衡。#50843 - 优化生成列的改写能力。#50398
- Partial Update 支持自动填充默认值为
CURRENT_TIMESTAMP
的列的值。#50287
问题修复
修复了如下问题:
- Tablet Clone 时 FE 侧死循环导致报错 "version has been compacted"。#50561
- ISO 格式 DATETIME 类型在查询时无法下推。#49358
- 并发场景下,当 Tablet 被删除后,数据仍旧存在。#50382
- 函数
yearweek
结果错误。#51065 - ARRAY 低基数字典在 CTE 查询中的问题。#51148
- FE 重启后,物化视图的分区 TTL 相关参数丢失。#51028
- 升级后,表中使用
CURRENT_TIMESTAMP
定义的列数据丢失。#50911 - 函数
array_distinct
导致堆栈溢出。#51017 - 升级后,因字段默认长度变化而导致的物化视图激活(active)失败。您可以通过设置
enable_active_materialized_view_schema_strict_check
为false
规避此类问题。#50869 - 资源组属性
cpu_weight
可以设置为负。#51005 - 磁盘容量的统计信息统计错误。#50669
- 函数
replace
常量折叠。#50828
行为变更
- 更改外表物化视图的默认副本数,从默认
1
副本改为遵循 FE 参数default_replication_num
的值(默认值:3
)。#50931
3.3.3
发布日期:2024 年 9 月 5 日
新增功能
- 支持设置用户级别变量。#48477
- 支持了 Delta Lake Catalog 的元数据缓存、元数据手动刷新以及周期性刷新策略。#46526 #49069
- 支持导入 Parquet 文件的 JSON 类型。#49385
- JDBC SQL Server Catalog 支持 LIMIT 查询。#48248
- 存算分离集群支持通过 INSERT INTO 执行部分列更新。#49336
功能优化
- 优化导入报错信息:
- 优化导入时的分区机制,降低初始阶段的内存占用。#47976
- 优化存算一体集群的内存占用问题。增加元数据内存占用限制,避免在 Tablet、Segment 文件过多时可能引发的问题。#49170
- 优化了
max(partition_column)
的查询性能。#49391 - 如果分区列是生成列(即基于表中某个原生列计算所得),且查询的谓词过滤条件包含原生列,则可以使用分区裁剪优化查询性能。 #48692
- 对 Files()、PIPE 相关操作中的敏感信息进行脱敏。#47629
- 提供新的命令
SHOW PROC '/global_current_queries'
,用以查看在所有 FE 节点上运行的查询。而相对应的命令SHOW PROC '/current_queries'
只能查看当前连接的 FE 节点上运行的查询。#49826
问题修复
修复了如下问题:
- 在通过 StarRocks 外表将数据导出至目标集群时,系统将源集群 BE 误添加到当前集群。#49323
- aarch64 类机器上部署的 StarRocks 集群在通过
select * from files
读取 ORC 文件时,TINYINT 数据类型返回 NULL。#49517 - Stream Load 导入包含大 Integer 类型的 JSON 格式文件失败。 #49927
- Files() 导入 CSV 文件时,对非可见字符的错误处理而导致的 Schema 获取错误。#49718
- 多列分区表替换临时产生的分区错误。 #49764
行为变更
- 为了更好的适应向云上对象存储备份的场景,引入新的参数
object_storage_rename_file_request_timeout_ms
。系统会优先使用该参数作为备份的超时时间。默认为 30 秒。 #49706 to_json
、CAST(AS MAP)
以及STRUCT AS JSON
时,默认转换失败不报错,返回为 NULL。您可以通过设置系统变量sql_mode
为ALLOW_THROW_EXCEPTION
来使查询允许报错。#50157
3.3.2
发布日期:2024 年 8 月 8 日
新增功能
-
支持重命名 StarRocks 内表的列。#47851
-
支持读取 Iceberg 的视图(View)。目前仅支持读取通过 StarRocks 创建的视图。#46273
-
[Experimental] 支 持 STRUCT 类型数据增减子列。#46452
-
支持在建表时指定 ZSTD 压缩格式的压缩级别。 #46839
-
增加以下 FE 动态参数以限制表的边界。#47896
包括 :
auto_partition_max_creation_number_per_load
max_partition_number_per_table
max_bucket_number_per_partition
max_column_number_per_table
-
支持在线优化表数据分布,确保优化任务与针对该表的 DML 运行不冲突。#43747
-
支持全局 Data Cache 命中率可观测性接口。 #48450
-
支持函数 array_repeat。 #47862
功能优化
- 优化因 Kafka 鉴权失败而导致的 Routine Load 失败的报错信息。#46136 #47649
- Stream Load 支持将
\t
和\n
分别作为行列分割符,无需转成对应的十六进制 ASCII 码。#47302 - 优化写入算子的的异步统计信息收集方式,解决导入任务较多时延迟变高的问题。#48162
- 增加以下 BE 动态参数以控制导入过程中的资源硬限制,从而降低写入大量 Tablet 时对 BE 稳定性的影响。#48495
包括:
-
load_process_max_memory_hard_limit_ratio
-
enable_new_load_on_memory_limit_exceeded
-
增加同一表内 Column ID 的一致性检查,防止引起 Compaction 错误。#48498
-
持久化 PIPE 元数据,防止因 FE 重启而导致元数据丢失。#48852
问题修复
修复了如下问题:
- 在 FE Follower 上创建字典时进程无法结束。 #47802
- SHOW PARTITIONS 命令在存算分离集群和存算一体集群中返回的信息不一致。#48647
- 从 JSON 类型的子列导入至
ARRAY<BOOLERAN>
类型列时,因类型处理错误而导致的数据错误。#48387 information_schema.task_runs
中的query_id
列无法查询。#48876- 备份时针对同一操作的多份请求会提交给不同 Broker,导致请求报错。#48856
- 降级至 v3.1.11、v3.2.4 之前的版本,导致主键表的索引解压失败,进而导致查询报错。#48659
降级说明
如果您已经使用列重命名功能,在您降级到旧版本前,请您将所有列的名字改回历史名字,以防降级出现问题。您可以通过 Audit Log 来查看自升级以来是否出现 ALTER TABLE RENAME COLUMN
相关操作,并找到历史名称。
3.3.1(已下线)
发布日期:2024 年 7 月 18 日
此版本因存在主键模型表升级兼容性问题已经下线。
- 问题:从 3.1.11、3.2.4 之前的版本升级至 3.3.1 时,查询主键模型表时,索引解压失败,导致查询报错。
- 影响范围:对于不涉及主键模型表的查询,不受影响。
- 临时解决方法:请回滚至 3.3.0 及以下版本规避此问题,此问题会在 3.3.2 版本中解决。
新增特性
- [Preview] 支持临时表。
- [Preview] JDBC Catalog 支持 Oracle 和 SQL Server。
- [Preview] Unified Catalog 支持 Kudu。
- INSERT INTO 导入主键表,支持通过指定 Column List 实现部分列更新。
- 用户自定义变量支持 ARRAY 类型。 #42631
- Stream Load 支持将 JSON 类型转化并导入至 STRUCT/MAP/ARRAY 类型目标列。 #45406
- 支持全局字典 Cache。
- 支持批量删除分区。#44744
- 支持在 Apache Ranger 中设置列级别权限(物化视图和视图的列级别权限需要在表对象下设置)。 #47702
- 存算分离主键模型表支持列模式部份更新。#46516
- Stream Load 支持在传输过程中对数据进行压缩,减少网络带宽开销。可以通过
compression
或Content-Encoding
参数指定不同的压缩方式,支持 GZIP、BZIP2、LZ4_FRAME、ZSTD 压缩算法。#43732
功能优化
- 优化当前 IdChain 的 hashcode 实现,降低 FE 启动耗时。 #47599
- 优化 FILES() 函数中
csv.trim_space
参数的报错信息,检查非法字符并给出合理提示。 #44740 - Stream Load 支持将
\t
和\n
分别作为行列分割符,无需转成对应的十六进制 ASCII 码。#47302
问题修复
修复了如下问题:
- 在 Schema Change 过程中,因 Tablet 迁移,文件位置变化导致的 Schema Change 失败。#45517
- 因为字段默认值中包含
\
、\r
等控制字符导致跨集群迁移工具在目标集群中建表失败。 #47861 - BE 重启后 bRPC 持续失败。 #40229
user_admin
角色可以通过 ALTER USER 命令修改 root 密码。#47801- 主键索引写入失败,导致数据写入报错。#48045
行为变更
- 写出 Hive、Iceberg 默认打开 Spill。 #47118
- 修改 BE 配置项
max_cumulative_compaction_num_singleton_deltas
默认值为500
。#47621 - 用户创建分区表但未设置分桶数时,当分区数量超过 5 个后,系统自动设置分桶数的规则更改为
max(2 * BE 或 CN 数量, 根据最大历史分区数据量计算得出的分桶数)
。(原来的规则是根据最大历史分区数据量计算的分桶数)。#47949 - INSERT INTO 导入主键表时指定 Column List 会执行部分列更新。先前版本中,指定 Column List 仍然导致 Full Upsert。
降级说明
如需将 v3.3.1 及以上集群降级至 v3.2,用户需要在回滚前清理所有的 临时表。步骤如下:
-
禁止用户创建新的临时表:
ADMIN SET FRONTEND CONFIG("enable_experimental_temporary_table"="false");
-
查询系统内是否存在临时表:
SELECT * FROM information_schema.temp_tables;
-
如系统内存在临时表,通过以下命令清理系统内的临时表(需要 SYSTEM 级 OPERATE 权限):
CLEAN TEMPORARY TABLE ON SESSION 'session';
3.3.0
发布日期:2024 年 6 月 21 日
功能及优化
存算分离
-
优化了存算分离集群的 Fast Schema Evolution 能力,DDL 变更降低到秒级别。具体信息,参考 设置 Fast Schema Evolution。
-
为了满足从存算一体到存算分离架构的数据迁移需求,社区正式发布 StarRocks 数据迁移工具。该工具同样可用于实现存算一体集群之间的数据同步和容灾方案。
-
[Preview] 存算分离集群存储卷适配 AWS Express One Zone Storage,提升数倍读写性能。具体信息,参考 CREATE STORAGE VOLUME。
-
优化了存算分离集群的垃圾回收机制,支持手动 Manual Compaction,可以更高效的回收对象存储上的数据。具体信息,参考 手动 Compaction。
-
优化存算分离集群下主键表的 Compaction 事务 Publish 执行逻辑,通过避免读取主键索引,降低执行过程中的 I/O 和内存开销。
-
存算分离集群支持 Tablet 内并行 Scan,优化在建表时 Bucket 较少场景下,查询的并行度受限于 Tablet 数量的问题,提升查询性能。用户可以通过设置以下系统变量启用并行 Scan 功能。
SET GLOBAL enable_lake_tablet_internal_parallel = true;
SET GLOBAL tablet_internal_parallel_mode = "force_split";
数据湖分析
- Data Cache 增强:
- 新增 缓存预热 (Warmup) 命令 CACHE SELECT,用于填充查询热点数据,可以结合 SUBMIT TASK 完成周期性填充。该功能同时支持外表和存算分离的内表。
- 增加了多项 Data Cache 可观测性指标。
- Parquet Reader 性能提升:
- 针对 Page Index 的优化,显著减少 Scan 数据规模。
- 在有 Page Index 的情况下,降低 Page 多读的情况。
- 使用 SIMD 加速计算判断数据行是否为空。
- ORC Reader 性能提升:
- 使用 Column ID 下推谓词,从而支持读取 Schema Change 后的 ORC 文件。
- 优化 ORC Tiny Stripe 处理逻辑。
- Iceberg 文件格式能力升级:
- 大幅提升 Iceberg Catalog 的元数据访问性能,重构并行 Scan 逻辑,解决了 Iceberg 原生 SDK 在处理大量元数据文件时的单线程 I/O 瓶颈,在执行有元数据瓶颈的查询时带来 10 倍以上的性能提升。
- Parquet 格式的 Iceberg v2 表查询支持 equality-delete。
- [Experimental] Paimon Catalog 优化:
- 基于 Paimon 外表创建的物化视图支持自动查询改写。
- 优化针对 Paimon Catalog 查询的 Scan Range 调度,提高 I/O 并发。
- 支持查询 Paimon 系统表。
- Paimon 外表支持 DELETE Vector,以提升更新删除场景下的查询效率。
- 外表统计信息收集优化:
- ANALYZE TABLE 命令支持收集直方图统计信息,可以有效应对数据倾斜场景。
- 支持 STRUCT 子列统计信息收集。
- 数据湖格式写入性能提升:
- Sink 算子性能比 Trino 提 高一倍。
- Hive 及 INSERT INTO FILES 新增支持 Textfile 和 ORC 格式数据的写入。
- [Preview] 支持 Alibaba Cloud MaxCompute catalog,不需要执行数据导入即可查询 MaxCompute 里的数据,还可以结合 INSERT INTO 能力实现数据转换和导入。
- [Experimental] 支持 ClickHouse Catalog。
- [Experimental] 支持 Kudu Catalog。
性能提升和查询优化
-
ARM 性能优化:
针对 ARM 架构指令集大幅优化性能。在使用 AWS Gravinton 机型测试的情况下,在 SSB 100G 测试中,使用 ARM 架构时的性能比 x86 快 11%;在 Clickbench 测试中,使用 ARM 架构时的性能比 x86 快 39%,在 TPC-H 100G 测试中,使用 ARM 架构时的性能比 x86 快 13%,在 TPC-DS 100G 测试中,使用 ARM 架构时的性能比 x86 快 35%。
-
中间结果落盘(Spill to Disk)能力 GA:优化复杂查询的内存占用,优化 Spill 的调度,保证大查询都能稳定执行,不会 OOM。
-
[Preview] 支持将中间结果 落盘至对象存储。
-
支持更多索引:
- [Preview] 支持全文倒排索引,以加速全文检索。
- [Preview] 支持 N-Gram bloom filter 索引,以加速
LIKE
查询或ngram_search
和ngram_search_case_insensitive
函数的运算速度。
-
提升 Bitmap 系列函数的性能并优化内存占用,补充了 Bitmap 导出到 Hive 的能力以及配套的 Hive Bitmap UDF。
-
[Preview] 支持 Flat JSON:导入时自动检测 JSON 数据并提取公共字段,自动创建 JSON 的列式存储结构,JSON 查询性能达到 Struct 的水平。
-
[Preview] 优化全局字典:提供字典对象,将字典表中的键值对映射关系存在各个 BE 节点的内存中。通过
dictionary_get()
函数直接查询 BE 内存中的字典对象,相对于原先使用dict_mapping
函数查询字典表,查询速度更快。并且字典对象还可以作为维度表,可以通过dictionary_get()
函数直接查询字典对象来获取维度值,相对于原先通过 JOIN 维度表来获取维度值,查询速度更快。 -
[Preview] 支持 Colocate Group Execution: 大幅降低在 colocated 表上执行 Join 和 Agg 算子时的内存占用,能够更稳定的执行大查询。
-
优化 CodeGen 性能:默认打开 JIT,在复杂表达式计算场景下性能提升 5 倍。
-
支持使用向量化技术来进行正则表达式匹配,可以降低
regexp_replace
函数计算的 CPU 消耗。 -
优化 Broadcast Join,在右表为空时可以提前结束 Join 操作。
-
优化数据倾斜情况下的 Shuffle Join,避免 OOM。
-
聚合查询包含
Limit
时,多 Pipeline 线程可以共享 Limit 条件从而防止计算资源浪费。
存储优化与集群管理
- 增强 Range 分区的灵活性:新增支持三个特定时间函数作为分区列,可以将时间戳或字符串的分区列值转成日期,然后按转换后的日期划分分区。
- FE 内存可观测性:提供 FE 内各模块的详细内存使用指标,以便更好地管理资源。
- 优化 FE 中的元数据锁:提供 Lock Manager,可以对 FE 中的元数据锁实现集中管理,例如将元数据锁的粒度从库级别细化为表级别,可以提高导入和查询的并发性能。在 100 并发小数据量导入场景下,导入耗时减少 35%。
- 使用标签管理 BE:支持基于 BE 节点所在机架、数据中心等信息,使用标签对 BE 节点进行分组,以保证数据在机架或数据中心等之间均匀分布,应对某些机架断电或数据中心故障情况下的灾备需求。
- 优化排序键:明细表、聚合表和更新表均支持通过
ORDER BY
子句指定排序键。 - [Experimental] 优化非字符串标量类型数据的存储效率:这类数据支持字典编码,存储空间下降 12%。
- 主键表支持 Size-tiered Compaction 策略:降低执行 Compaction 时写 I/O 和内存开销。存算分离和存算一体集群均支持该优化。您可以通过 BE 配置项
enable_pk_size_tiered_compaction_strategy
控制是否启用该功能。默认开启。 - 优化主键表持久化索引的读 I/O:支持按照更小的粒度(页)读取持久化索引,并且改进持久化索引的 bloom filter。存算分离和存算一体集群均支持该优化。
- 支持 IPv6 部署:可以基于 IPv6 网络部署集群。
物化视图
- 基于视图的改写:针对视图的查询,支持改写至基于视图创建的物化视图上。具体信息,参考 基于视图的物化视图查询改写。
- 基于文本的改写:引入基于文本的改写能力,用于改写具有相同抽象语法树的查询(或其子查询)。具体信息,参考 基于文本的物化视图改写。
- [Preview] 支持为直接针对物化视图的查询指定透明改写模式:开启物化视图属性
transparent_mv_rewrite_mode
后,当用户直接查询物化视图时,StarRocks 会自动改写查询,将已经刷新的物化视图分区中的数据和未刷新分区对应的原始数据做自动 Union 合并。该模式适用于建模场景下,需要保证数据一致,但同时还希望控制刷新频率降低刷新成本的场景。具体信息,参考 CREATE MATERIALIZED VIEW。 - 支持物化视图聚合下推:开启系统变量
enable_materialized_view_agg_pushdown_rewrite
后,用户可以利用单表聚合上卷类的物化视图来加速多表关联场景,把聚合下推到 Join 以下的 Scan 层来显著提升查询效率。具体信息,参考 聚合下推。 - 物化视图改写控制的新属性:通过
enable_query_rewrite
属性实现禁用查询改写,减少整体开销。如果物化视图仅用于建模后直接查询,没有改写需求,则禁用改写。具体信息,参考 CREATE MATERIALIZED VIEW。 - 物化视图改写代价优化:增加候选物化视图个数的控制,以及更好的筛选算法。增加 MV plan cache。从而整体降低改写阶段 Optimizer 耗时。具体信息,参考
cbo_materialized_view_rewrite_related_mvs_limit
。 - Iceberg 物化视图更新:Iceberg 物化视图现支持分区更新触发的增量刷新和 Iceberg Partition Transforms。具体信息,参考 使用物化视图加速数据湖查询。
- 增强的物化视图可观测性:改进物化视图的监控和管理,以获得更好的系统洞察。具体信息,参考 异步物化视图监控项。
- 提升大规模物化视图刷新的效率:支持全局 FIFO 调度,优化嵌套物化视图级联刷新策略,修复高频刷新场景下部分问题。
- 多事实表分区刷新:基于多事实表创建的物化视图支持任意事实表更新后,物化视图都可以进行分区级别增量刷新,增加数据管理的灵活性。具体信息,参考 多基表对齐分区。
函数支持
- DATETIME 完整支 持微秒(Microsecond),相关的时间函数和导入均支持了新的单位。
- 新增如下函数:
- 字符串函数:crc32、url_extract_host、ngram_search
- Array 函数:array_contains_seq
- 时间日期函数:yearweek
- 数学函数:crbt
生态支持
- [Experimental] 新增 ClickHouse 语法转化工具 ClickHouse SQL Rewriter。
- StarRocks 提供的 Flink connector v1.2.9 已与 Flink CDC 3.0 框架集成,构建从 CDC 数据源到 StarRocks 的流式 ELT 管道。该管道可以将整个数据库、分库分表以及来自源端的 Schema Change 都同步到 StarRocks。更多信息,您参见 Flink CDC 同步(支持 Schema Change)。
行为及参数变更
建表与分区分桶
- 用户使用 CTAS 创建 Colocate 表时,必须指定 Distribution Key。#45537
- 用户创建非分区表但未设置分桶数时,系统自动设置的分桶数最小值修改为
16
(原来的规则是2 * BE 或 CN 数量
,也即最小会创建 2 个 Tablet)。如果是小数据且想要更小的分桶数,需要手动设置。#47005
导入与导出
__op
被系统保留作为特殊列名,默认设置下不再允许用户创建名字为__op
前缀的列。如果需要使用,需要设置 FE 配置项allow_system_reserved_names
为true
。请注意,在主键表中创建__op
前缀的列,会导致未知行为。#46239- Routine Load 作业运行中,如果无法消费到数据的时间超过了 FE 配置项
routine_load_unstable_threshold_second
中设置的时间(默认 1 小时),则作业状态会变成UNSTABLE
,但作业会继续运行。#36222 - FE 配置项
enable_automatic_bucket
的默认值改为TRUE
。为TRUE
时,系统会为新建表自动设置bucket_size
参数,从而新建表就启用了自动分桶(优化版的随机分桶)。但在 V3.2 中,设置enable_automatic_bucket
为true
不会生效,用户必须设置bucket_size
以开启自动分桶。此举可以方便从 V3.3 回滚到 V3.2,减少回滚风险。
查询与半结构化
- 单个查询在 Pipeline 框架中执行时所使用的内存限制不再受
exec_mem_limit
限制,仅由query_mem_limit
限制。取值为0
表示没有限制。 #34120 - JSON 对象中 NULL 值,在 IS NULL 和 IS NOT NULL 的处理中,被当作 SQL NULL 值对待。如
parse_json('{"a": null}') -> 'a' IS NULL
返回1
,parse_json('{"a": null}') -> 'a' IS NOT NULL
返回0
。#42765 #42909 - 新增会话变量
cbo_decimal_cast_string_strict
用于优化器控制 DECIMAL 类型转为 STRING 类型的行为。当取值为true
时,使用 v2.5.x 及之后版本的处理逻辑,执行严格转换(按 Scale 截断补0
);当取值为false
时,保留 v2.5.x 之前版本的处理逻辑(按有效数字处理)。默认值是true
。#34208 - 系统变量
cbo_eq_base_type
的默认值修改为decimal
,表示 DECIMAL 类型和 STRING 类型的数据比较时的,默认按 DECIMAL 类型进行比较。#43443
其他
- 物化视图属性
partition_refresh_num
默认值从-1
调整为1
,当物化视图有多个分区需要刷新时,原来在一个刷新任务重刷新所有的分区,当前会一个分区一个分区增量刷新,避免先前行为消耗过多资源。可以通过 FE 参数default_mv_partition_refresh_number
调整默认行为。 - 系统原先按照 GMT+8 时区的时间调度数据库一致性检查,现在将按照当地时区的时间进行调度。#45748
- 默认启用 Data Cache 来加速数据湖查询。用户也可通过
SET enable_scan_datacache = false
手动关闭 Data Cache。 - 对于存算分离场景,在降级到 v3.2.8 及其之前版本时,如需复用先前 Data Cache 中的缓存数据,需要手动修改 starlet_cache 目录下 Blockfile 文件名,将文件名格式从
blockfile_{n}.{version}
改为blockfile_{n}
,即去掉版本后缀。具体可参考 Data Cache 使用说明。v3.2.9 及以后版本自动兼容 v3.3 文件名,无需手动执行该操作。 - 支持动态修改 FE 参数
sys_log_level
。#45062 - Hive Catalog 属性
metastore_cache_refresh_interval_sec
默认值由7200
(两小时) 变为60
(一分钟)。 #46681
问题修复
修复了如下问题:
- 查询改写至使用 UNION ALL 创建的物化视图,查询结果错误。#42949
- 执行带谓词的查询,并且查询改写至物化视图时,读取了多余的列。#45272
- 函数 next_day、previous_day 的结果出错。#45343
- 副本迁移导致 schema change 失败。#45384
- RESTORE 全文倒排索引的表后,BE crash。#45010
- 使用 Iceberg Catalog 查询时,返回重复的数据行。#44753
- 低基数字典优化无法在聚合表中字符串数组(
ARRAY<VARCHAR>
)类型的列上生效。#44702 - 查询改写 至使用 UNION ALL 创建的物化视图,查询结果错误。#42949
- 如果启用 ASAN 编译 BE,使用集群后 BE Crash,并且
be.warning
日志显示dict_func_expr == nullptr
。#44551 - 聚合查询单副本表,查询结果错误。#43223
- View Delta Join 改写失败。#43788
- 修改列类型 VARCHAR 为 DECIMAL 后,BE crash。#44406
- 使用 not equal 运算符查询 List 分区的表,分区裁剪存在问题,导致查询结果出错。#42907
- 随着较多使用非事务接口的 Stream Load 完成,Leader FE 的堆大小迅速增加。#43715
降级说明
如需将 v3.3.0 及以上集群降级至 v3.2,用户需执行以下操作:
-
确保降级前的 v3.3 集群中发起的所有 ALTER TABLE SCHEMA CHANGE 事物已完成或取消。
-
通过以下命令清理所有事务历史记录:
ADMIN SET FRONTEND CONFIG ("history_job_keep_max_second" = "0");
-
通过以下命令确认无历史记录遗留:
SHOW PROC '/jobs/<db>/schema_change';
-
如果您想将集群降级至 v3.2.8 或 v3.1.14 之前的小版本,则必须删除所有使用
PROPERTIES('compression' = 'lz4')
属性创建的异步物化视图。 -
执行以下语句为元数据创建镜像文件:
ALTER SYSTEM CREATE IMAGE;
-
在新的镜像文件传输到所有 FE 节点的目录 meta/image 之后,降级其中一个 Follower FE 节点,确认没有问题后继续降级集群中的其他节点。