案例分享:聚水潭·奇门数据集成到MySQL
为了满足企业对销售订单数据的高效管理和分析需求,使用轻易云数据集成平台将聚水潭·奇门系统中的销售订单数据定时抓取并批量写入到MySQL数据库成为了一种行之有效的解决方案。本案例展示了如何通过配置API接口,实现从聚水潭·奇门中获取销售订单,并可靠地存储到BI崛起-销售订单表_原始查询_copy。
在本次技术实施过程中,我们采用了以下关键步骤和技术点:
- 调用API接口抓取聚水潭·奇门的数据
- 使用
jushuitan.order.list.query
API接口按时间段分页获取最新的销售订单。这一过程需要处理繁多的数据分页和限流问题,以避免漏单现象。
- 使用
- 数据转换与清洗
- 聚水潭·奇门与MySQL之间存在显著的数据格式差异。为确保数据一致性,需要自定义处理逻辑进行格式转换,包括字段映射、值变化等操作。
- 批量高效写入至MySQL
- 利用MySQL
batchexecute
API,对从聚水潭·奇门获取的大量订单信息进行批量处理和保存,保障写入效率及完整性。同时,结合事务管理机制保证每一次批量操作的原子性。
- 利用MySQL
- 实时监控与异常告警
- 在整个数据集成过程提供集中监控,通过日志记录、告警系统实时跟踪任务状态。任何错误或异常都会被即时捕捉处理,包括自动重试策略以提升稳定性。
接下来的章节将逐步详解以上流程中的各个环节,并重点说明如何借助轻易云平台实现这些功能,从而帮助企业用户更好地利用其强大的元数据管理能力,提高业务透明度和决策效率。
调用聚水潭·奇门接口jushuitan.order.list.query获取并加工数据
在数据集成生命周期的第一步中,我们需要从源系统聚水潭·奇门接口jushuitan.order.list.query
获取销售订单数据,并进行初步加工。以下是具体的技术实现细节。
接口调用配置
首先,配置API接口调用的元数据。该接口使用POST方法进行请求,主要参数包括页数、每页行数、修改开始时间、修改结束时间、单据状态和时间类型。
{
"api": "jushuitan.order.list.query",
"effect": "QUERY",
"method": "POST",
"number": "o_id",
"id": "o_id",
"name": "io_id",
"request": [
{
"field": "page_index",
"label": "页数",
"type": "string",
"describe": "第几页,从第一页开始,默认1",
"value": "1"
},
{
"field": "page_size",
"label": "每页行数",
"type": "string",
"describe": "每页多少条,默认25,最大25",
"value": "100"
},
{
"field": "start_time",
"label": "修改开始时间",
"type": "string",
"describe": "修改起始时间,和结束时间必须同时存在,时间间隔不能超过七天,与线上单号不能同时为空",
"value": "{{LAST_SYNC_TIME|datetime}}"
},
{
"field": "end_time",
"label": "修改结束时间",
"type": "string",
"describe": "修改结束时间,和起始时间必须同时存在,时间间隔不能超过七天,与线上单号不能同时为空",
...
请求参数说明
page_index
: 页数,从第一页开始,默认值为1。page_size
: 每页行数,默认值为25,但为了提高效率,我们将其设置为100。start_time
和end_time
: 修改的起始和结束时间,这两个参数必须同时存在,并且时间间隔不能超过七天。通过模板变量{{LAST_SYNC_TIME|datetime}}
和{{CURRENT_TIME|datetime}}
动态生成。status
: 单据状态,如待出库(WaitConfirm)、已出库(Confirmed)和作废(Cancelled)。date_type
: 时间类型,默认为0,即按修改时间筛选。
数据请求与清洗
在调用API获取数据后,需要对返回的数据进行清洗和初步处理。以下是一个示例代码片段,用于发起请求并处理响应数据:
import requests
import json
from datetime import datetime, timedelta
# 定义请求参数
params = {
'page_index': '1',
'page_size': '100',
'start_time': (datetime.now() - timedelta(days=7)).strftime('%Y-%m-%d %H:%M:%S'),
'end_time': datetime.now().strftime('%Y-%m-%d %H:%M:%S'),
'status': 'WaitConfirm',
'date_type': 0
}
# 发起POST请求
response = requests.post('https://api.jushuitan.com/order/list/query', data=json.dumps(params))
# 检查响应状态码
if response.status_code == 200:
data = response.json()
# 数据清洗逻辑
cleaned_data = []
for order in data['orders']:
cleaned_order = {
'order_id': order['o_id'],
'order_status': order['status'],
'order_date': order['created'],
# 添加更多字段转换逻辑...
}
cleaned_data.append(cleaned_order)
else:
print(f"Error: {response.status_code}")
条件过滤与补救机制
为了确保数据质量,我们还需要对返回的数据进行条件过滤。例如,不包含特定标签(如线上发货、虚拟发货)的订单,以及特定店铺(如头条放心购)的订单。
{
...
...
...
...
}
此外,为了应对可能出现的数据遗漏问题,可以配置补救机制,通过定时任务(crontab)重新拉取前一天的数据:
{
...
...
}
通过上述步骤,我们可以高效地从聚水潭·奇门接口获取销售订单数据,并进行初步加工,为后续的数据转换与写入阶段打下坚实基础。
使用轻易云数据集成平台进行ETL转换并写入MySQL API接口
在数据集成生命周期的第二阶段,我们需要将已经集成的源平台数据进行ETL(Extract, Transform, Load)转换,并转为目标平台 MySQL API 接口所能够接收的格式,最终写入目标平台。本文将详细探讨如何利用轻易云数据集成平台进行这一过程。
数据请求与清洗
在数据请求与清洗阶段,我们从源平台(如聚水潭)获取销售订单数据,并对其进行必要的清洗和预处理,以确保数据质量和一致性。这一阶段的主要任务是提取有效数据并去除冗余信息,为后续的转换和写入做好准备。
数据转换与写入
数据转换与写入是ETL过程的核心部分。在这一阶段,我们将清洗后的数据按照目标平台(MySQL)的要求进行格式转换,并通过API接口将其写入目标数据库。以下是具体步骤和技术细节:
1. 配置元数据
首先,我们需要配置元数据,以定义从源平台到目标平台的数据映射关系。以下是一个示例配置:
{
"api": "batchexecute",
"effect": "EXECUTE",
"method": "SQL",
"number": "id",
"id": "id",
"name": "id",
"idCheck": true,
"request": [
{"field":"id","label":"主键","type":"string","value":"{o_id}-{items_oi_id}"},
{"field":"order_date","label":"下单时间","type":"string","value":"{order_date}"},
{"field":"shop_status","label":"线上订单状态","type":"string","value":"{shop_status}"},
// ...(其他字段省略)
{"field":"items_qyy_amountafter","label":"轻易云分摊后金额","type":"string","value":"{items_qyy_amountafter}"}
],
"otherRequest": [
{
"field": "main_sql",
"label": "主语句",
"type": "string",
"describe": "SQL首次执行的语句,将会返回:lastInsertId",
"value": "REPLACE INTO order_list_query(id,order_date,shop_status,question_type,shop_id,question_desc,so_id,status,receiver_state,receiver_city,receiver_district,send_date,plan_delivery_date,creator_name,buyer_tax_no,invoice_type,pay_amount,freight,buyer_message,remark,invoice_title,is_cod,type,paid_amount,pay_date,modified,order_from,l_id,shop_name,wms_co_id,logistics_company,free_amount,co_id,drp_co_id_to,end_time,referrer_id,invoice_data,drp_info,shop_buyer_id,seller_flag,invoice_amount,oaid,open_id,node..."
},
{"field": "limit", "label": "limit", "type": "string", "value": "1000"}
]
}
2. 数据转换
在配置元数据之后,我们需要根据定义好的映射关系对数据进行转换。例如,将源平台中的 o_id
和 items_oi_id
拼接生成目标平台中的主键 id
,以及其他字段的对应转换。
REPLACE INTO order_list_query(
id,
order_date,
shop_status,
question_type,
shop_id,
question_desc,
so_id,
status,
receiver_state,
receiver_city,
receiver_district,
send_date,
plan_delivery_date,
creator_name,
buyer_tax_no,
invoice_type,
pay_amount,
freight,
buyer_message,
remark,
invoice_title,
is_cod,
type,
paid_amount,
pay_date,
modified,
order_from,
l_id,
shop_name,
...
) VALUES (
'{o_id}-{items_oi_id}',
'{order_date}',
'{shop_status}',
'{question_type}',
'{shop_id}',
'{question_desc}',
'{so_id}',
'{status}',
'{receiver_state}',
'{receiver_city}',
'{receiver_district}',
'{send_date}',
'{plan_delivery_date}',
'{creator_name}',
'{buyer_tax_no}',
'{invoice_type}',
'{pay_amount}',
'{freight}',
...
)
技术要点
- 字段映射:确保每个字段都正确映射到目标数据库中的相应字段。
- 类型转换:根据目标数据库要求,对字段类型进行必要的转换,如字符串、日期、数字等。
- 特殊处理:对于某些特殊字段,如
items_item_ext_data
,需要使用特定函数进行处理,例如截取字符串长度。
API调用
最后,通过API接口将转换后的数据批量写入MySQL数据库。我们使用 batchexecute
方法执行SQL语句,实现批量插入操作。
{
// 批量执行SQL插入操作
api: 'batchexecute',
method: 'POST',
body: {
main_sql: 'REPLACE INTO order_list_query(...) VALUES (...)',
limit: '1000'
}
}
通过上述步骤,我们成功地将源平台的数据经过ETL处理后,写入到目标MySQL数据库中。这一过程充分利用了轻易云数据集成平台提供的全异步、多系统支持特性,实现了高效的数据集成和管理。