用轻易云平台统筹数据集成:从聚水潭到KIS私有云的实时数据流配置

  • 轻易云集成顾问-贺强

聚水潭数据至KIS私有云的集成案例分享

在企业资源管理系统(ERP)中,库存盘亏的数据处理至关重要。我们面临一个具体技术挑战:将聚水潭系统中的库存盘亏数据可靠、高效地集成到KIS私有云中。本次案例展示了如何通过轻易云平台,实现这一任务。

首先,我们使用聚水潭提供的API接口/open/inventory/count/query定时抓取库存盘亏数据。这一步要求对分页和限流的问题进行特别关注,以确保数据获取的完整性和实时性。同时,通过高吞吐量的数据写入能力,确保从聚水潭大量获取的数据能够快速被传递并写入到KIS私有云,这里采用的是/koas/app007104/api/miscellaneousdelivery/create API接口。

为了实现两者间平滑且高效的数据转换,我们利用自定义数据转换逻辑来匹配特定业务需求与各个字段差异。此外,为了解决可能存在的异常情况,我们设计了一套错误重试机制,并结合实时监控和日志记录功能,使得整个流程更加自动化与透明化。

接下来,将深入探讨具体实现步骤,包括如何配置各类连接器、创建可视化的数据流设计、处理不同类型的异常以及优化性能等多方面内容。 系统集成平台API接口配置

调用聚水潭接口/open/inventory/count/query获取并加工数据

在数据集成生命周期的第一步,我们需要调用聚水潭接口/open/inventory/count/query来获取并加工数据。本文将详细探讨如何配置和使用该接口,以实现高效的数据请求与清洗。

接口配置与调用

首先,我们需要了解接口的基本配置和调用方式。根据元数据配置,接口采用POST方法,主要参数如下:

  • page_index: 开始页码,默认值为1。
  • page_size: 每页条数,默认值为30,最大值为50。
  • modified_begin: 修改开始时间,与结束时间必须同时存在,时间间隔不能超过七天。
  • modified_end: 修改结束时间,与起始时间必须同时存在,时间间隔不能超过七天。
  • status: 单据状态,取值范围包括Confirmed(生效)、WaitConfirm(待审核)、Creating(草拟)、Archive(归档)、Cancelled(作废)。

以下是一个示例请求体:

{
  "page_index": "1",
  "page_size": "50",
  "modified_begin": "{{LAST_SYNC_TIME|datetime}}",
  "modified_end": "{{CURRENT_TIME|datetime}}",
  "status": "Confirmed"
}

数据过滤与清洗

在获取到数据后,需要进行初步的过滤和清洗。根据元数据配置中的condition_bkcondition字段,我们可以设置具体的过滤条件。例如:

  • condition_bk: 条件为items.qty > 0,用于筛选出数量大于0的记录。
  • condition: 条件为items.qty < 0 且 wms_co_id 在 [14132797, 14133381] 范围内,用于筛选出特定仓库ID且数量小于0的记录。

这些条件可以通过编写相应的过滤逻辑来实现,例如:

def filter_data(data):
    filtered_data = []
    for item in data:
        if item['items']['qty'] > 0:
            filtered_data.append(item)
        elif item['items']['qty'] < 0 and item['wms_co_id'] in [14132797, 14133381]:
            filtered_data.append(item)
    return filtered_data

数据转换与写入

在完成数据过滤和清洗后,需要将数据转换为目标系统所需的格式,并写入目标系统。在本案例中,目标系统是KIS其他出库模块。我们可以定义一个转换函数,将聚水潭的数据结构转换为KIS所需的数据结构,例如:

def transform_data(data):
    transformed_data = []
    for item in data:
        transformed_record = {
            "io_id": item["io_id"],
            "qty": item["items"]["qty"],
            // 添加其他必要字段
        }
        transformed_data.append(transformed_record)
    return transformed_data

最后,将转换后的数据通过API或数据库连接写入目标系统。

实时监控与日志记录

为了确保数据集成过程的透明度和可追溯性,我们需要对每个环节进行实时监控,并记录详细的日志信息。这包括请求参数、响应结果、过滤条件、转换逻辑等。通过轻易云平台提供的可视化界面,可以方便地查看和分析这些日志信息,从而快速定位和解决问题。

import logging

logging.basicConfig(level=logging.INFO)

def log_request(request_body):
    logging.info(f"Request: {request_body}")

def log_response(response_body):
    logging.info(f"Response: {response_body}")

# 示例调用
log_request(request_body)
log_response(response_body)

通过上述步骤,我们可以高效地调用聚水潭接口获取并加工数据,为后续的数据转换与写入打下坚实基础。这不仅提升了业务流程的透明度和效率,也确保了数据处理过程的准确性和可靠性。 如何开发用友BIP接口

使用轻易云数据集成平台进行ETL转换并写入KIS私有云API接口的技术案例

在数据集成生命周期的第二阶段,我们需要将已经集成的源平台数据进行ETL转换,转为目标平台KIS私有云API接口所能够接收的格式,并最终写入目标平台。本文将详细探讨如何利用轻易云数据集成平台完成这一过程。

1. API接口配置

首先,我们需要配置KIS私有云API接口,以便将转换后的数据写入目标系统。根据提供的元数据配置,KIS API接口路径为/koas/app007104/api/miscellaneousdelivery/create,请求方法为POST。

{
  "api": "/koas/app007104/api/miscellaneousdelivery/create",
  "effect": "EXECUTE",
  "method": "POST",
  "number": "id",
  "id": "id",
  "name": "id",
  "idCheck": true,
  "request": [
    {
      "field": "AccountDB",
      "label": "AccountDB",
      "type": "string",
      "value": "001"
    },
    {
      "field": "Object",
      "label": "Object",
      "type": "object",
      ...
    }
  ]
}

2. 数据头部字段配置

在配置请求体时,需要特别注意头部字段(Head)的设置。以下是一些关键字段及其对应的值:

  • FBillNo: 单据编号,使用{io_id}作为占位符。
  • Fdate: 日期,通过函数替换空格为'T'。
  • FDeptID: 部门,固定值16921
  • FBillTypeID: 入库类型,固定值1003
  • FDCStockID: 仓库(表头),由{wms_co_id}-{wh_id}动态生成。
  • FManagerID, FSManagerID, FFManagerID, FBillerID, FEmpID: 均映射到相同的源字段{wms_co_id}
{
  "field": "Head",
  ...
  "children": [
    {
      ...
      {"field":"FBillNo","label":"单据编号","type":"string","value":"{io_id}"},
      {"field":"Fdate","label":"日期","type":"string","value":"_function REPLACE ('{{io_date|datetime}}',' ','T')"},
      {"field":"FDeptID","label":"部门","type":"string","value":"16921"},
      {"field":"FBillTypeID","label":"入库类型","type":"string","value":"1003"},
      ...
    }
  ]
}

3. 数据条目字段配置

条目字段(Entry)的设置同样重要,以下是一些关键字段及其对应的值:

  • FItemID: 产品代码,通过MongoDB查询获取。
  • Fauxqty, FSecQty: 实发数量和辅助数量,通过函数计算得到负数。
  • Famount: 金额,直接从源数据中提取。
  • FDCStockID: 仓库(表体),与头部仓库类似,由{wms_co_id}-{wh_id}动态生成。
  • FUnitID: 物料单位,通过MongoDB查询获取。
{
  ...
  {
    ...
    {"field":"Entry","label":"Entry","type":"array","value":"items","children":[
      {"field":"FItemID","label":"产品代码","type":"int","value":"_mongoQuery ... findField=content.FItemID where={\"content.F_103\":{\"$eq\":\"{sku_id}\"}}"},
      {"field":"Fauxqty","label":"实发数量","type":"float","value":"_function -1*{{items.qty}}"},
      {"field":"FSecQty","label":"辅助数量","type":"float","value":"_function -1*{{items.qty}}"},
      {"field":"Famount","label":"金额","type":"string","value":"{item_cost_price}"},
      {"field":"FDCStockID","label":"仓库(表体)","type":"int","value":"{wms_co_id}-{wh_id}"},
      {"field":"FUnitID","label":"物料单位","type\":\"string\",\"value\":\"_mongoQuery ... findField=content.FProductUnitID where={\"content.F_103\":{\"$eq\":\"{sku_id}\"}}"}
    ]}
  }
}

4. 数据转换与写入流程

在完成上述配置后,我们可以通过轻易云数据集成平台执行以下步骤来实现数据转换与写入:

  1. 数据请求与清洗:从源系统获取原始数据,并进行必要的数据清洗和预处理。
  2. 数据转换:根据配置,将清洗后的数据转换为目标系统所需的格式,包括对日期、数量等字段进行函数处理和映射。
  3. 数据写入:通过调用KIS私有云API接口,将转换后的数据写入目标系统。

通过以上步骤,我们可以确保源系统的数据被准确地转换并成功写入到KIS私有云,从而实现不同系统间的数据无缝对接。这一过程不仅提高了业务透明度和效率,还保证了数据的一致性和完整性。 金蝶与MES系统接口开发配置

更多系统对接方案