回归测试
概念
Suite
: 一个测试用例,目前仅用来指代测试用例文件名Group
: 一个测试集,目前仅用于指代测试用例所属的目录Action
: 一个封装好的具体测试行为,比如用于执行sql的sql
Action,用于校验结果的test
Action,用于导入数据的streamLoad
Action等
测试步骤
- 需要预先安装好集群
- 修改配置文件
${DORIS_HOME}/regression-test/conf/regression-conf.groovy
,设置jdbc url、用户等配置项 - 创建测试用例文件并编写用例
- 如果用例文件包含
qt
Action,则需要创建关联的data文件,比如suites/demo/qt_action.groovy
这个例子,需要用到data/demo/qt_action.out
这个TSV文件来校验输出是否一致 - 运行
${DORIS_HOME}/run-regression-test.sh
测试全部用例,或运行${DORIS_HOME}/run-regression-test.sh --run <suiteName>
测试若干用例,更多例子见"启动脚本例子"章节
目录结构
开发时需要关注的重要文件/目录
run-regression-test.sh
: 启动脚本regression-conf.groovy
: 回归测试的默认配置data
: 存放输入数据和输出校验数据suites
: 存放用例
./${DORIS_HOME}
|-- **run-regression-test.sh** 回归测试启动脚本
|-- regression-test
| |-- plugins 插件目录
| |-- conf
| | |-- logback.xml 日志配置文件
| | |-- **regression-conf.groovy** 默认配置文件
| |
| |-- framework 回归测试框架源码
| |-- **data** 用例的输入输出文件
| | |-- demo 存放demo的输入输出文件
| | |-- correctness 存放正确性测试用例的输入输出文件
| | |-- performance 存放性能测试用例的输入输出文件
| | |-- utils 存放其他工具的输入输出文件
| |
| |-- **suites** 回归测试用例
| |-- demo 存放测试用例的demo
| |-- correctness 存放正确性测试用例
| |-- performance 存放性能测试用例
| |-- utils 其他工具
|
|-- output
|-- regression-test
|-- log 回归测试日志
框架默认配置
测试时需要实际情况修改jdbc和fe的配置
/* ============ 一般只需要关注下面这部分 ============ */
// 默认DB,如果未创建,则会尝试创建这个db
defaultDb = "regression_test"
// Jdbc配置
jdbcUrl = "jdbc:mysql://127.0.0.1:9030/?"
jdbcUser = "root"
jdbcPassword = ""
// fe地址配置, 用于stream load
feHttpAddress = "127.0.0.1:8030"
feHttpUser = "root"
feHttpPassword = ""
/* ============ 一般不需要修改下面的部分 ============ */
// DORIS_HOME变量是通过run-regression-test.sh传入的
// 即 java -DDORIS_HOME=./
// 设置回归测试用例的目录
suitePath = "${DORIS_HOME}/regression-test/suites"
// 设置输入输出数据的目录
dataPath = "${DORIS_HOME}/regression-test/data"
// 设置插件的目录
pluginPath = "${DORIS_HOME}/regression-test/plugins"
// 默认会读所有的组,读多个组可以用半角逗号隔开,如: "demo,performance"
// 一般不需要在配置文件中修改,而是通过run-regression-test.sh --run -g来动态指定和覆盖
testGroups = ""
// 默认会读所有的用例, 同样可以使用run-regression-test.sh --run -s来动态指定和覆盖
testSuites = ""
// 默认会加载的用例目录, 可以通过run-regression-test.sh --run -d来动态指定和覆盖
testDirectories = ""
// 排除这些组的用例,可通过run-regression-test.sh --run -xg来动态指定和覆盖
excludeGroups = ""
// 排除这些suite,可通过run-regression-test.sh --run -xs来动态指定和覆盖
excludeSuites = ""
// 排除这些目录,可通过run-regression-test.sh --run -xd来动态指定和覆盖
excludeDirectories = ""
// 其他自定义配置
customConf1 = "test_custom_conf_value"
编写用例的步骤
- 进入
${DORIS_HOME}/regression-test
目录 - 根据测试的目的来选择用例的目录,正确性测试存在
suites/correctness
,而性能测试存在suites/performance
- 新建一个groovy用例文件,增加若干
Action
用于测试,Action将在后续章节具体说明
Action
Action是一个测试框架默认提供的测试行为,使用DSL来定义。
sql action
sql action用于提交sql并获取结果,如果查询失败则会抛出异常
参数如下
- String sql: 输入的sql字符串
return List<List<Object>>
: 查询结果,如果是DDL/DML,则返回一行一列,唯一的值是updateRowCount
下面的样例代码存放于${DORIS_HOME}/regression-test/suites/demo/sql_action.groovy
:
suite("sql_action", "demo") {
// execute sql and ignore result
sql "show databases"
// execute sql and get result, outer List denote rows, inner List denote columns in a single row
List<List<Object>> tables = sql "show tables"
// assertXxx() will invoke junit5's Assertions.assertXxx() dynamically
assertTrue(tables.size() >= 0) // test rowCount >= 0
// syntax error
try {
sql "a b c d e"
throw new IllegalStateException("Should be syntax error")
} catch (java.sql.SQLException t) {
assertTrue(true)
}
def testTable = "test_sql_action1"
try {
sql "DROP TABLE IF EXISTS ${testTable}"
// multi-line sql
def result1 = sql """
CREATE TABLE IF NOT EXISTS ${testTable} (
id int
)
DISTRIBUTED BY HASH(id) BUCKETS 1
PROPERTIES (
"replication_num" = "1"
)
"""
// DDL/DML return 1 row and 1 column, the only value is update row count
assertTrue(result1.size() == 1)
assertTrue(result1[0].size() == 1)
assertTrue(result1[0][0] == 0, "Create table should update 0 rows")
def result2 = sql "INSERT INTO test_sql_action1 values(1), (2), (3)"
assertTrue(result2.size() == 1)
assertTrue(result2[0].size() == 1)
assertTrue(result2[0][0] == 3, "Insert should update 3 rows")
} finally {
/**
* try_xxx(args) means:
*
* try {
* return xxx(args)
* } catch (Throwable t) {
* // do nothing
* return null
* }
*/
try_sql("DROP TABLE IF EXISTS ${testTable}")
// you can see the error sql will not throw exception and return
try {
def errorSqlResult = try_sql("a b c d e f g")
assertTrue(errorSqlResult == null)
} catch (Throwable t) {
assertTrue(false, "Never catch exception")
}
}
// order_sql(sqlStr) equals to sql(sqlStr, isOrder=true)
// sort result by string dict
def list = order_sql """
select 2
union all
select 1
union all
select null
union all
select 15
union all
select 3
"""
assertEquals(null, list[0][0])
assertEquals(1, list[1][0])
assertEquals(15, list[2][0])
assertEquals(2, list[3][0])
assertEquals(3, list[4][0])
}
qt action
qt action用于提交sql,并使用对应的.out TSV文件来校验结果
- String sql: 输入sql字符串
- return void
下面的样例代码存放于${DORIS_HOME}/regression-test/suites/demo/qt_action.groovy
:
suite("qt_action", "demo") {
/**
* qt_xxx sql equals to quickTest(xxx, sql) witch xxx is tag.
* the result will be compare to the relate file: ${DORIS_HOME}/regression_test/data/qt_action.out.
*
* if you want to generate .out tsv file for real execute result. you can run with -genOut or -forceGenOut option.
* e.g
* ${DORIS_HOME}/run-regression-test.sh --run qt_action -genOut
* ${DORIS_HOME}/run-regression-test.sh --run qt_action -forceGenOut
*/
qt_select "select 1, 'beijing' union all select 2, 'shanghai'"
qt_select2 "select 2"
// order result by string dict then compare to .out file.
// order_qt_xxx sql equals to quickTest(xxx, sql, true).
order_qt_union_all """
select 2
union all
select 1
union all
select null
union all
select 15
union all
select 3
"""
}
test action
test action可以使用更复杂的校验规则来测试,比如验证行数、执行时间、是否抛出异常
可用参数
- String sql: 输入的sql字符串
List<List<Object>> result
: 提供一个List对象,用于比较真实查询结果与List对象是否相等Iterator<Object> resultIterator
: 提供一个Iterator对象,用于比较真实查询结果与Iterator是否相等- String resultFile: 提供一个文件Uri(可以是本地文件相对路径,或http(s)路径),用于比较真实查询结果与http响应流是否相等,格式与.out文件格式类似,但没有块头和注释
- String exception: 校验抛出的异常是否包含某些字符串
- long rowNum: 验证结果行数
- long time: 验证执行时间是否小于这个值,单位是毫秒
Closure<List<List<Object>>, Throwable, Long, Long> check
: 自定义回调校验,可传入结果、异常、时间。存在回调函数时,其他校验方式会失效。
下面的样例代码存放于${DORIS_HOME}/regression-test/suites/demo/test_action.groovy
:
suite("test_action", "demo") {
test {
sql "abcdefg"
// check exception message contains
exception "errCode = 2, detailMessage = Syntax error"
}
test {
sql """
select *
from (
select 1 id
union all
select 2
) a
order by id"""
// multi check condition
// check return 2 rows
rowNum 2
// execute time must <= 5000 millisecond
time 5000
// check result, must be 2 rows and 1 column, the first row is 1, second is 2
result(
[[1], [2]]
)
}
test {
sql "a b c d e f g"
// other check will not work because already declared a check callback
exception "aaaaaaaaa"
// callback
check { result, exception, startTime, endTime ->
// assertXxx() will invoke junit5's Assertions.assertXxx() dynamically
assertTrue(exception != null)
}
}
test {
sql """
select 2
union all
select 1
union all
select null
union all
select 15
union all
select 3
"""
check { result, ex, startTime, endTime ->
// same as order_sql(sqlStr)
result = sortRows(result)
assertEquals(null, result[0][0])
assertEquals(1, result[1][0])
assertEquals(15, result[2][0])
assertEquals(2, result[3][0])
assertEquals(3, result[4][0])
}
}
// execute sql and order query result, then compare to iterator
def selectValues = [1, 2, 3, 4]
test {
order true
sql selectUnionAll(selectValues)
resultIterator(selectValues.iterator())
}
// compare to data/demo/test_action.csv
test {
order true
sql selectUnionAll(selectValues)
// you can set to http://xxx or https://xxx
// and compare to http response body
resultFile "test_action.csv"
}
}
explain action
explain action用来校验explain返回的字符串是否包含某些字符串
可用参数:
- String sql: 查询的sql,需要去掉sql中的explain
- String contains: 校验explain是否包含某些字符串,可多次调用校验同时多个结果
- String notContains: 校验explain是否不含某些字符串,可多次调用校验同时多个结果
Closure<String> check
: 自定义校验回调函数,可以获取返回的字符串,存在校验函数时,其他校验方式会失效Closure<String, Throwable, Long, Long> check
: 自定义校验回调函数,可以额外获取异常和时间
下面的样例代码存放于${DORIS_HOME}/regression-test/suites/demo/explain_action.groovy
:
suite("explain_action", "demo") {
explain {
sql("select 100")
// contains("OUTPUT EXPRS:<slot 0> 100\n") && contains("PARTITION: UNPARTITIONED\n")
contains "OUTPUT EXPRS:<slot 0> 100\n"
contains "PARTITION: UNPARTITIONED\n"
}
explain {
sql("select 100")
// contains(" 100\n") && !contains("abcdefg") && !("1234567")
contains " 100\n"
notContains "abcdefg"
notContains "1234567"
}
explain {
sql("select 100")
// simple callback
check { explainStr -> explainStr.contains("abcdefg") || explainStr.contains(" 100\n") }
}
explain {
sql("a b c d e")
// callback with exception and time
check { explainStr, exception, startTime, endTime ->
// assertXxx() will invoke junit5's Assertions.assertXxx() dynamically
assertTrue(exception != null)
}
}
}
streamLoad action
streamLoad action用于导入数据 可用参数为
- String db: db,默认值为regression-conf.groovy中的defaultDb
- String table: 表名
- String file: 要导入的文件路径,可以写data目录下的相对路径,或者写http url来导入网络文件
Iterator<List<Object>> inputIterator
: 要导入的迭代器- String inputText: 要导入的文本, 较为少用
- InputStream inputStream: 要导入的字节流,较为少用
- long time: 验证执行时间是否小于这个值,单位是毫秒
- void set(String key, String value): 设置stream load的http请求的header,如label、columnSeparator
Closure<String, Throwable, Long, Long> check
: 自定义校验回调函数,可以获取返回结果、异常和超时时间。当存在回调函数时,其他校验项会失效。
下面的样例代码存放于${DORIS_HOME}/regression-test/suites/demo/streamLoad_action.groovy
:
suite("streamLoad_action", "demo") {
def tableName = "test_streamload_action1"
sql """
CREATE TABLE IF NOT EXISTS ${tableName} (
id int,
name varchar(255)
)
DISTRIBUTED BY HASH(id) BUCKETS 1
PROPERTIES (
"replication_num" = "1"
)
"""
streamLoad {
// you can skip declare db, because a default db already specify in ${DORIS_HOME}/conf/regression-conf.groovy
// db 'regression_test'
table tableName
// default label is UUID:
// set 'label' UUID.randomUUID().toString()
// default column_separator is specify in doris fe config, usually is '\t'.
// this line change to ','
set 'column_separator', ','
// relate to ${DORIS_HOME}/regression-test/data/demo/streamload_input.csv.
// also, you can stream load a http stream, e.g. http://xxx/some.csv
file 'streamload_input.csv'
time 10000 // limit inflight 10s
// stream load action will check result, include Success status, and NumberTotalRows == NumberLoadedRows
}
// stream load 100 rows
def rowCount = 100
// range: [0, rowCount)
// or rangeClosed: [0, rowCount]
def rowIt = range(0, rowCount)
.mapToObj({i -> [i, "a_" + i]}) // change Long to List<Long, String>
.iterator()
streamLoad {
table tableName
// also, you can upload a memory iterator
inputIterator rowIt
// if declared a check callback, the default check condition will ignore.
// So you must check all condition
check { result, exception, startTime, endTime ->
if (exception != null) {
throw exception
}
log.info("Stream load result: ${result}".toString())
def json = parseJson(result)
assertEquals("success", json.Status.toLowerCase())
assertEquals(json.NumberTotalRows, json.NumberLoadedRows)
assertTrue(json.NumberLoadedRows > 0 && json.LoadBytes > 0)
}
}
}
其他Action
thread, lazyCheck, events, connect, selectUnionAll
具体可以在这个目录找到例子: ${DORIS_HOME}/regression-test/suites/demo
启动脚本例子
# 查看脚本参数说明
./run-regression-test.sh h
# 查看框架参数说明
./run-regression-test.sh --run -h
# 测试所有用例
./run-regression-test.sh
# 删除测试框架编译结果和测试日志
./run-regression-test.sh --clean
# 测试suiteName为sql_action的用例, 目前suiteName等于文件名前缀,例子对应的用例文件是sql_action.groovy
./run-regression-test.sh --run sql_action
# 测试suiteName包含'sql'的用例,**注意需要用单引号括起来**
./run-regression-test.sh --run '*sql*'
# 测试demo和performance group
./run-regression-test.sh --run -g 'demo,performance'
# 测试demo group下的sql_action
./run-regression-test.sh --run -g demo -s sql_action
# 测试demo目录下的sql_action
./run-regression-test.sh --run -d demo -s sql_action
# 测试demo目录下用例,排除sql_action用例
./run-regression-test.sh --run -d demo -xs sql_action
# 排除demo目录的用例
./run-regression-test.sh --run -xd demo
# 排除demo group的用例
./run-regression-test.sh --run -xg demo
# 自定义配置
./run-regression-test.sh --run -conf a=b
# 并发执行
./run-regression-test.sh --run -parallel 5 -suiteParallel 10 -actionParallel 20
使用查询结果自动生成.out文件
# 使用查询结果自动生成sql_action用例的.out文件,如果.out文件存在则忽略
./run-regression-test.sh --run sql_action -genOut
# 使用查询结果自动生成sql_action用例的.out文件,如果.out文件存在则覆盖
./run-regression-test.sh --run sql_action -forceGenOut
Suite插件
有的时候我们需要拓展Suite类,但不便于修改Suite类的源码,则可以通过插件来进行拓展。默认插件目录为${DORIS_HOME}/regression-test/plugins
,在其中可以通过groovy脚本定义拓展方法,以plugin_example.groovy
为例,为Suite类增加了testPlugin函数用于打印日志:
import org.apache.doris.regression.suite.Suite
// register `testPlugin` function to Suite,
// and invoke in ${DORIS_HOME}/regression-test/suites/demo/test_plugin.groovy
Suite.metaClass.testPlugin = { String info /* param */ ->
// which suite invoke current function?
Suite suite = delegate as Suite
// function body
suite.getLogger().info("Test plugin: suiteName: ${suite.name}, info: ${info}".toString())
// optional return value
return "OK"
}
logger.info("Added 'testPlugin' function to Suite")
增加了testPlugin函数后,则可以在普通用例中使用它,以${DORIS_HOME}/regression-test/suites/demo/test_plugin.groovy
为例:
suite("test_plugin", "demo") {
// register testPlugin function in ${DORIS_HOME}/regression-test/plugins/plugin_example.groovy
def result = testPlugin("message from suite")
assertEquals("OK", result)
}
CI/CD的支持
TeamCity
TeamCity可以通过stdout识别Service Message。当使用--teamcity
参数启动回归测试框架时,回归测试框架就会在stdout打印TeamCity Service Message,TeamCity将会自动读取stdout中的事件日志,并在当前流水线中展示Tests
,其中会展示测试的test及其日志。
因此只需要配置下面一行启动回归测试框架的命令即可。其中-Dteamcity.enableStdErr=false
可以让错误日志也打印到stdout中,方便按时间顺序分析日志。
JAVA_OPTS="-Dteamcity.enableStdErr=${enableStdErr}" ./run-regression-test.sh --teamcity --run
外部数据源 e2e 测试
Doris 支持一些外部署数据源的查询。所以回归框架也提供了通过 Docker Compose 搭建外部数据源的功能,以提供 Doris 对外部数据源的 e2e 测试。
-
准备工作
在启动 Docker 前,请先修改
docker/thirdparties/custom_settings.env
文件中的CONTAINER_UID
变量。可以修改为如:
doris-10002-18sda1-
。之后的启动脚本会,将 docker compose 中对应的名称进行替换,这样可以保证多套 containers 环境的容器名称和网络不会冲突。
-
启动 Container
Doris 目前支持 es, mysql, pg, hive, sqlserver, oracle, iceberg, hudi, trino 等数据源的 Docker compose。相关文件存放在
docker/thirdparties/docker-compose
目录下。默认情况下,可以直接通过以下命令启动所有外部数据源的 Docker container: (注意,hive和hudi container 需要下载预制的数据文件,请参阅下面 hive和hudi 相关的文档。)
cd docker/thirdparties && sh run-thirdparties-docker.sh
该命令需要 root 或 sudo 权限。命令返回成功,则代表所有 container 启动完成。可以通过
docker ps -a
命令查看。可以通过以下命令停止所有 container:
cd docker/thirdparties && sh run-thirdparties-docker.sh --stop
也可以通过以下命令启动或停止指定的组件:
cd docker/thirdparties
# 启动 mysql
sh run-thirdparties-docker.sh -c mysql
# 启动 mysql,pg,iceberg
sh run-thirdparties-docker.sh -c mysql,pg,iceberg
# 停止 mysql,pg,iceberg
sh run-thirdparties-docker.sh -c mysql,pg,iceberg --stop-
MySQL
MySQL 相关的 Docker compose 文件存放在 docker/thirdparties/docker-compose/mysql 下。
mysql-5.7.yaml.tpl
:Docker compose 文件模板,无需修改。默认用户名密码为 root/123456mysql-5.7.env
:配置文件,其中可以配置 MySQL container 对外暴露的端口,默认为 3316。init/
:该目录存放的 sql 文件会在 container 创建后自动执行。目前默认会创建库、表并插入少量数据。data/
:container 启动后挂载的本地数据目录,run-thirdparties-docker.sh
脚本会在每次启动时,自动清空并重建这个目录。
-
Postgresql
Postgresql 相关的 Docker compose 文件存放在 docker/thirdparties/docker-compose/postgresql 下。
postgresql-14.yaml.tpl
:Docker compose 文件模板,无需修改。默认用户名密码为 postgres/123456postgresql-14.env
:配置文件,其中可以配置 Postgresql container 对外暴露的端口,默认为 5442。init/
:该目录存放的 sql 文件会在 container 创建后自动执行。目前默认会创建库、表并插入少量数据。data/
:container 启动后挂载的本地数据目录,run-thirdparties-docker.sh
脚本会在每次启动时,自动清空并重建这个目录。
-
Hive
Hive 相关的 Docker compose 文件存放在 docker/thirdparties/docker-compose/hive 下。
-
hive-2x.yaml.tpl
:Docker compose 文件模板,无需修改。 -
hadoop-hive.env.tpl
:配置文件的模板,无需修改。 -
gen_env.sh
:初始化配置文件的脚本,可以在其中修改:FS_PORT
和HMS_PORT
两个对外端口,分别对应 defaultFs 和 Hive metastore 的端口。默认为 8120 和 9183。run-thirdparties-docker.sh
启动时会自动调用这个脚本。 -
scripts/
目录会在 container 启动后挂载到 container 中。其中的文件内容无需修改。但须注意,在启动 container 之前,需要先下载预制文件:将
https://doris-build-hk-1308700295.cos.ap-hongkong.myqcloud.com/regression/load/tpch1_parquet/tpch1.db.tar.gz
文件下载到scripts/
目录并解压即可。
-
-
Elasticsearch
包括 ES6,ES7,ES8 三个版本的 docker 镜像,存放在 docker/thirdparties/docker-compose/elasticsearch/ 下。
es.yaml.tpl
:Docker compose 文件模板。包括 ES6,ES7,ES8 三个版本。无需修改。es.env
:配置文件,需配置 ES 的端口号。scripts
目录下存放了启动镜像后的初始化脚本。
-
Oracle
提供 Oracle 11 镜像,存放在 docker/thirdparties/docker-compose/oracle/ 下。
oracle-11.yaml.tpl
:Docker compose 文件模板。无需修改。oracle-11.env
:配置 Oracle 对外端口,默认为 1521。
-
SQLServer
提供 SQLServer 2022 镜像,存放在 docker/thirdparties/docker-compose/sqlserver/ 下。
sqlserver.yaml.tpl
:Docker compose 文件模板。无需修改。sqlserver.env
:配置 SQLServer 对外端口,默认为 1433。
-
ClickHouse
提供 ClickHouse 22 镜像,存放在 docker/thirdparties/docker-compose/clickhouse/ 下。
clickhouse.yaml.tpl
:Docker compose 文件模板。无需修改。clickhouse.env
:配置 ClickHouse 对外端口,默认为 8123。
-
Iceberg
提供 Iceberg + Spark + Minio 镜像组合。存放在 docker/thirdparties/docker-compose/iceberg/ 下。
iceberg.yaml.tpl
:Docker compose 文件模板。无需修改。entrypoint.sh.tpl
:镜像启动后的初始化脚本模板。无需修改。spark-defaults.conf.tpl
:Spark 的配置文件模板。无需修改。iceberg.env
:对外端口配置文件,需修改各个对外端口,避免端口冲突。
启动后,可以通过如下命令启动 spark-sql
docker exec -it doris-xx-spark-iceberg spark-sql
其中
doris-xx-spark-iceberg
为 container 名称。spark-sql iceberg 操作示例:
create database db1;
show databases;
create table db1.test1(k1 bigint, k2 bigint, k3 string) partitioned by (k1);
insert into db1.test1 values(1,2,'abc');
select * from db1.test1;
quit;也可以通过 spark-shell 进行访问:
docker exec -it doris-xx-spark-iceberg spark-shell
spark.sql(s"create database db1")
spark.sql(s"show databases").show()
spark.sql(s"create table db1.test1(k1 bigint, k2 bigint, k3 string) partitioned by (k1)").show()
spark.sql(s"show tables from db1").show()
spark.sql(s"insert into db1.test1 values(1,2,'abc')").show()
spark.sql(s"select * from db1.test1").show()
:q更多使用方式可参阅 Tabular 官方文档。
-
Hudi
Hudi 相关的 Docker compose 文件存放在 docker/thirdparties/docker-compose/hudi 下。
-
hudi.yaml.tpl
:Docker compose 文件模板,无需修改。 -
hadoop.env
:配置文件的模板,无需修改。 -
scripts/
目录会在 container 启动后挂载到 container 中。其中的文件内容无需修改。但须注意,在启动 container 之前,需要先下载预制文件: 将https://doris-build-hk-1308700295.cos.ap-hongkong.myqcloud.com/regression/load/hudi/hudi_docker_compose_attached_file.zip
文件下载到scripts/
目录并解压即可。
启动前,可以将以下设置添加到
/etc/hosts
中,以避免出现UnknownHostException
错误127.0.0.1 adhoc-1
127.0.0.1 adhoc-2
127.0.0.1 namenode
127.0.0.1 datanode1
127.0.0.1 hiveserver
127.0.0.1 hivemetastore
127.0.0.1 sparkmaster启动后,可以通过如下命令启动 hive query
docker exec -it adhoc-2 /bin/bash
beeline -u jdbc:hive2://hiveserver:10000 \
--hiveconf hive.input.format=org.apache.hadoop.hive.ql.io.HiveInputFormat \
--hiveconf hive.stats.autogather=false
show tables;
show partitions stock_ticks_mor_rt;
select symbol, max(ts) from stock_ticks_cow group by symbol HAVING symbol = 'GOOG';
select symbol, max(ts) from stock_ticks_mor_ro group by symbol HAVING symbol = 'GOOG';
exit;也可以通过 spark-shell 进行访问:
docker exec -it adhoc-1 /bin/bash
$SPARK_INSTALL/bin/spark-shell \
--jars /var/scripts/hudi_docker_compose_attached_file/jar/hoodie-hive-sync-bundle.jar \
--master local[2] \
--driver-class-path $HADOOP_CONF_DIR \
--conf spark.sql.hive.convertMetastoreParquet=false \
--deploy-mode client \
--driver-memory 1G \
--executor-memory 3G \
--num-executors 1
spark.sql("show tables").show(100, false)
spark.sql("select symbol, max(ts) from stock_ticks_cow group by symbol HAVING symbol = 'GOOG'").show(100, false)
spark.sql("select `_hoodie_commit_time`, symbol, ts, volume, open, close from stock_ticks_cow where symbol = 'GOOG'").show(100, false)
spark.sql("select symbol, max(ts) from stock_ticks_mor_ro group by symbol HAVING symbol = 'GOOG'").show(100, false)
spark.sql("select symbol, max(ts) from stock_ticks_mor_rt group by symbol HAVING symbol = 'GOOG'").show(100, false)
spark.sql("select `_hoodie_commit_time`, symbol, ts, volume, open, close from stock_ticks_mor_ro where symbol = 'GOOG'").show(100, false)
:q更多使用方式可参阅 Hudi 官方文档。
-
-
Trino Trino 相关的 Docker compose 文件存放在 docker/thirdparties/docker-compose/trino 下。 模版文件:
- gen_env.sh.tpl :用于生成 HDFS相关端口号,无需修改,若出现端口冲突,可以对端口号进行修改。
- hive.properties.tpl :用于配置trino catalog 信息,无需修改。
- trino_hive.env.tpl :Hive 的环境配置信息,无需修改。
- trino_hive.yaml.tpl :Docker compose 文件,无需修改。 启动 Trino docker 后,会配置一套 Trino + hive catalog 环境,此时 Trino 拥有两个catalog
- hive
- tpch(trino docker 自带)
更多使用方式可参阅 Trino 官方文档
-
-
运行回归测试
外表相关的回归测试默认是关闭的,可以修改
regression-test/conf/regression-conf.groovy
中的以下配置来开启:enableJdbcTest
:开启 jdbc 外表测试,需要启动 MySQL 和 Postgresql 的 container。mysql_57_port
和pg_14_port
分别对应 MySQL 和 Postgresql 的对外端口,默认为 3316 和 5442。enableHiveTest
:开启 hive 外表测试,需要启动 hive 的 container。hms_port
对应 hive metastore 的对外端口,默认为 9183。enableEsTest
:开启 es 外表测试。需要启动 es 的 container。es_6_port
:ES6 的端口。es_7_port
:ES7 的端口。es_8_port
:ES8 的端口。