合并数据内测版
该 API 的 Base URL 格式如下:
https://api.cloud.zilliz.com.cn
控制面接口速率限制为单用户单接口每秒最多 20 个请求。
当前接口为公测版。如果您在使用该接口过程中遇到任何问题,欢迎您联系 Zilliz Cloud 技术支持。
export BASE_URL="https://api.cloud.zilliz.com.cn"
认证令牌,应为具备适当权限的 API 密钥。
本操作目标 Collection 所在集群的名称。
本操作目标 Collection 所在数据库的名称。
本操作目标 Collection 的名称。
待创建 Collection 所在数据库的名称。
待创建 Collection 的名称。该 Collection 将保存合并后的数据。
待与指定 Collection 合并的数据。您需要将待合并数据存为 PARQUET 文件,然后将其上传到 Zilliz Cloud 可以访问的对象存储桶中。在此参数中,您需要提供待合并数据文件的 URL 及存放该数据文件的存储桶的访问凭据。
数据源的类型。
Zilliz Cloud 存储点的名称。此参数仅当您将 type
设置为 stage
时有效。有关创建存储点的详细信息,请参阅 Create Stage
操作的文档。
待与指定 Collection 合并的 PARQUET 文件的 URL。
存放待合并数据文件的存储桶的访问凭据。
存放待合并数据文件的存储桶的访问密钥。
存放待合并数据文件的存储桶的访问密钥。
作为合并键的字段名称。该字段必须同时存在于待合并 Collection 和待插入数据记录中。在一般情况下,您可以使用主键作为合并字段。
待创建 Collection 的各字段数据结构。该参数的值应该为字段数据结构数组。
The schema of a field to add.
Name of the current field to add.
Data type of the current field to add.
Extra settings for the current field to add.
VARCHAR 字段的最大长度。该参数仅当 dataType
设置为 VARCHAR
时可用。
export TOKEN="YOUR_API_KEY"
curl --request POST \
--url "${BASE_URL}/v2/etl/merge" \
--header "Authorization: Bearer ${TOKEN}" \
--header "Content-Type: application/json" \
-d '{
"clusterId": "in00-xxxxxxxxxxxxxxx",
"dbName": "my_database",
"collectionName": "my_collection",
"targetDbName": "my_database",
"targetCollectionName": "my_merged_collection",
"mergeData": {
"dataPath": "s3://my-bucket/my_data.parquet",
"regionId": "us-west-2",
"credential": {
"accessKey": "my-access-key",
"secretKey": "my-secret-key"
}
},
"mergeKey": "id",
"mergeFieldSchema": [
{
"name": "my_field1",
"dataType": "VARCHAR",
"params": {
"maxLength": 512
}
}
]
}'
响应码。
响应负载,包含了当前操作创建的数据合并任务的 ID。
A created data-merge job.
当前创建的数据合并任务 ID。
Returns an error message.
响应码。
错误描述。
{
"code": 0,
"data": {
"jobId": "job-xxxxxxxxxxxxxxxxxxxxx"
}
}