我们能帮你什么吗?
功能说明
模拟任务管理
模拟任务管理模块用于管理和配置基于历史数据或模拟数据运行的仿真模拟任务。
创建历史数据源仿真任务
历史数据源仿真任务可用于数据回放、仿真测试和趋势分析,帮助用户基于设备或场景的历史数据进行模拟。
准备历史数据
历史数据的定义
历史数据:是数字孪生场景或现实设备在运行过程中持续记录下来的时序数据。DFS 会自动存储并累积这些数据,为仿真任务提供可靠输入。
历史数据来源
类型 | 来源 | 典型应用 | 举例 |
场景历史数据 | 场景运行或回放时自动产生 | 场景整体回放、多设备交互分析 | 生产线场景:机器人臂+传送带+检测工位的协同运行 |
设备历史数据 | – 设备绑定页面导入 – 创建适配器实例时接入 – 创建模拟任务时上传 | 单设备状态验证、算法测试、特征提取 | 数控机床 A 的主轴转速与温度记录 |
说明
- 使用场景历史数据:需要在 DFS 中先完成以下步骤:
- 建立设备信息。具体步骤可参考绑定设备和孪生体。
- 导入场景。
- 绑定场景中的孪生体与设备。
- 使用设备历史数据:选择以下方式进行,具体步骤可参考绑定设备和孪生体。
- 设备绑定页面导入
- 创建适配器实例时接入
- 创建模拟任务时上传
创建模拟任务
前提条件
请确认所选设备或场景已有历史数据,否则仿真任务无法顺利执行。
操作步骤
- 新建任务:在模拟任务管理 > 历史数据源仿真页面中点击【新建任务】打开新建窗口。
- 命名任务:输入任务的名称。
- 选择数据(基于设备或场景):
- 设备历史数据:选中【设备】选项,并点击【+选择设备】,从设备列表中选择要用于仿真的设备(支持多选)。
- 场景历史数据:选中【场景】选项,并点击【+选择场景】,从场景列表中选择要用于仿真的场景。
- 设置模拟任务开始时间:设置模拟任务的开始执行的时间。
- 选择是否循环模拟:
- 开启:新建的模拟任务会循环执行,适用于持续性测试或长期展示场景。
- 关闭:模拟任务仅执行一次,适用于单次测试或验证场景。
- (可选)选择历史数据范围:选择回放的历史数据时间段。
- 确认创建:点击【确认】按钮,完成模拟任务的创建。
完成后您将获得
- 一个基于历史数据的新仿真任务。
- 可以在任务列表中查看并运行回放;
- 驱动孪生体或场景重现设备历史过程,用于验证、展示或分析。
创建模拟数据源仿真任务
模拟数据源用于在 无真实设备数据的情况下,生成数据流以支持测试、验证或展示。
当缺少现实设备或实时数据时,可以通过上传模拟数据文件,创建虚拟设备的初始数据集。这些数据在后续任务运行中会被系统存储为设备的历史数据。
使用场景
- 设备测试:模拟设备在特定环境中的数据,验证设备的响应或优化设备配置。
- 数据展示或验证:在缺少历史数据或实时数据的情况下,通过模拟数据进行场景展示或验证。
- 早期开发阶段:即使设备暂时无实时数据输出,也能通过模拟数据进行验证和演示。
准备数据文件
文件格式:XLS / XLSX / TXT / JSON
模拟数据文件的获取方式
您可以通过以下途径准备模拟数据文件:
- 系统提供的模板(推荐)
- 在【模拟任务管理】 > 【模拟数据源仿真】页面,点击【新建任务】> excel或text 模板,可获取官方预定义的 Excel / Text 模板文件。
- 您只需按照模板要求填写设备名称、属性及数据值,再上传即可。
- 基于设备系统导出的数据
- 如果已有设备系统(如 PLC、MES、传感器平台)支持数据导出,用户可直接导出。
- 导出的文件需要根据 DFS 模板格式进行调整,以保证字段名、时间戳、属性名一致。
- 手动构造或仿真生成的数据
- 在没有真实设备时,您可以手动填写模板(例如设定几个关键属性的测试值)。
- 或者使用外部脚本/工具生成测试数据,再转存为符合模板要求的文件。
Excel 模板示例
设备名称(name) | 设备属性(key) | 设备属性值(value) | 数据生成时间戳(可为空) |
TestDevice | temperature | 123 | 1709797575817 |
字段说明
- 设备名称(name):设备的唯一标识名称,例如 TestDevice。
- 设备属性(key):属性名称,例如温度、转速、压力等。
- 设备属性值(value):对应属性的数值,例如 123。
- 数据生成时间戳:毫秒级时间戳;可以留空,若为空系统会以上传时间自动填充。
Text/JSON 模板示例
[ { “serial”: “Device name”, “ts”: “String or integer millisecond timestamp”, “datas”: { “key1”: “data1”, “key2”: “data2” } } ] |
参数说明
- serial:设备名称。
- ts:时间戳(毫秒)。
- datas:设备属性及其对应的值。
- key:属性名
- data:属性值
⚠️ 注意:设备属性名称必须与数字孪生体的属性名称一致;如不一致,需要在 设备与孪生体绑定步骤 中手动映射。
创建模拟任务
1. 新建模拟任务:在模拟任务管理 > 模拟数据源仿真页面中点击【新建任务】打开新建窗口。
2. 填写模拟任务信息:
a) 命名模拟任务:输入模拟任务的名称。
b) 上传数据:此步骤用于导入设备数据并生成设备信息。
- 上传已有数据文件;
- 或下载系统提供的模板,填写后再上传(参考准备数据文件)。
c) 选择设备:点击【+选择设备】从设备列表中选择要用于执行模拟任务的设备。
注意:此处选择的设备必须包含在上传的数据文件中。只有数据文件中包含的设备才能参与模拟任务。
d) 设置模拟任务开始时间:设置模拟任务的开始时间,以确定模拟数据生成的时间范围。
e) 选择是否循环模拟:
- 开启:新建的模拟任务会循环执行,适用于持续性测试或长期展示场景。
- 关闭:模拟任务仅执行一次,适用于单次测试或验证场景。
3. 确认创建任务:点击【确认】按钮,完成模拟任务的创建。
完成后您将获得
- 一个基于模拟数据的新仿真任务;
- 该任务会生成可回放的 模拟数据源,可用于驱动孪生体、场景展示与验证;
DFS 适配器
DFS 适配器是连接外部数据源与 DFS 平台之间的桥梁,主要用于接收、预处理并转换实时数据流,确保数据在进入 DFS 系统后能够被正确解析、存储和应用。
通过 DFS 适配器,您可以将设备、控制系统或业务平台中的实时数据接入 FactVerse 数字孪生平台,实现数据驱动的孪生体实时响应和业务联动。
核心作用
- 数据接入:连接各类工业数据源(如 PLC、IoT 平台、网关等);
- 数据预处理:对数据进行清洗、格式转换、结构标准化;
- 数据驱动孪生体:绑定孪生体属性,实时反映现场运行状态;
- 配置灵活:支持图形化流程配置(Node-RED),提高数据处理透明度和效率。
关键概念
名称 | 说明 |
适配器模板 | 预定义的 Node-RED 数据流模板,包含数据采集、处理、清洗等规则,便于快速复用和统一标准。 |
适配器实例 | 基于模板创建的具体数据接入点,每个实例对应一个实际的数据源接入任务,配置独立的地址、端口、密钥等参数。 |
实时数据源 | 实时输出数据的设备或平台,如 PLC 控制器、传感器网关、IoT 平台、工业协议接口等。 |
实时数据源典型应用场景
场景类型 | 应用说明 |
动态监控 | 实时采集设备状态变化(温度、转速、位置等),同步驱动孪生体表现 |
实时决策支持 | 依赖新鲜数据进行产线调度、故障预测、能耗优化等决策 |
设置数据处理和加工规则
在适配器实例正式运行前,需配置对应的数据处理逻辑,确保采集到的数据可被系统正确识别、清洗、存储等。
创建适配器模板(可选)
适配器模板用于标准化处理流程,便于在多个实例中复用,减少重复配置。模板内容为 Node-RED 流程 JSON 文件。
说明: 若无复用需求,可跳过模板创建,直接在实例中手动配置流程。
操作步骤
- 在DFS适配器 > 适配器模板页面,点击【新建】。
- 填写模板名称,在模板数据输入框中填写或粘贴 JSON 格式的 Node-RED 流程。
- 点击【确认】保存模板。
编辑数据处理流程(Node-RED)
Node-RED 是图形化流程编辑器,用于可视化配置数据采集、解析与推送逻辑。
操作步骤
- 在浏览器中访问适配器实例对应的 Node-RED 地址。
- 在流程画布中配置数据采集频率、字段处理、输出格式等节点。
- 完成编辑后,点击【部署】按钮,将流程应用至运行中的适配器服务。
可参考《Node-RED 用户指南》获取详细操作方法。
创建适配器实例
适配器实例是与具体数据源对接的配置入口,每个实例对应一个数据接入任务,具备独立的监听地址、端口和数据处理逻辑。
创建实例
操作步骤
- 在DFS适配器 > 适配器实例页面,点击【新建】按钮创建一个新的适配器实例。
- 在弹出的窗口中填写以下信息:
字段 | 描述 |
名称 | 自定义适配器实例名称,便于识别数据源。 |
边缘密钥(选填) | 支持边缘设备身份认证,增强数据安全性。 |
IP | DFS 适配器服务的被管理IP |
端口 | 适配器实例的端口 |
描述(选填) | 对该适配器实例的简要说明 |
IP 及端口设置说明:
- 单机部署多个实例:IP地址相同,端口不同;
- 多机部署:IP 地址根据实际设备设置,不同实例使用不同 IP。
- 填写完成后,点击【确认】。
绑定适配器模板(可选)
在DFS适配器 > 适配器实例页面,点击适配器实例相应的【选择模板】按钮 ,选择适配器模板为适配器实例设置数据处理规则。
编辑 Node-RED 流
本节旨在指导企业内部开发工程师在已部署的 DFS Node-RED 环境中,按照具体业务需求,安全有效地修改、扩展或更新数据流。
1. 前置条件
在修改前,请确认以下条件已满足:
- 已成功部署 Node-RED,并可通过浏览器访问(默认地址通常为 http://<server-ip>:1880)。
- 已具备 Node-RED 基本概念(节点、连接线、部署按钮)。
- 已获取 DFS 平台账号及关键设备信息(如 edgeId、digitalTwinId)。
- 已完成流程文件备份(建议通过“导出 JSON”方式)。
2. 流程结构概览
DFS Node-RED 流程通常包含以下三个主要部分,彼此协同运行:
- DFS 心跳流程:定期向 DFS 平台发送“存活心跳”以确认节点在线状态。
- 设备绑定流程:从 Redis 拉取设备与数字孪生体映射关系,写入全局缓存。
- 设备数据发送流程:接收或模拟设备原始数据,依据映射关系推送到对应的数字孪生体,并通过 MQTT 分别发往 DFS Server(用于后端存储)和前端(用于可视化驱动)。
3. 关键参数说明:
参数名 | 说明 | 示例值 | 注意事项 |
edgeId | 边缘节点唯一标识(DFS 分配) | 68979c3e78f3d473c54e0cd9 | 应与平台信息一致 |
edgeName | 节点显示名称,方便识别 | nodered | 可自定义,便于识别 |
DFS 心跳接口 URL | 心跳请求的目标地址 | https://<dfs-server>/api/dfs/instance/beat | 必填项,需与平台信息匹配 |
tenantId | 租户ID | c299600a2e86b582746956d23e132b690 | 请向平台支持人员确认,避免配置不一致 |
digitalTwinId | 数字孪生体唯一标识 | 600ab3a6391d44c499da0babe90f9e1f | 可在 DFS 平台数字孪生体详情页面中获取 |
4. 数据主题
Node-RED 流程通过不同的主题向后端和前端发送数据:
- /DFS/telemetry/{edgeId}:用于向 DFS Server(Artemis)发送遥测数据。
- /DFS/{tenantId}/{digitalTwinId}:向前端(通过 EMQX)发送孪生体驱动数据,用于实时驱动数字孪生体在前端展示。
5. 数据格式要求
DFS 接口接收的数据通常为 JSON 格式,建议保持以下结构:
[ { “serial”: “Device name”, “ts”: 63, “datas”: { “key1”: “data1”, “key2”: “data2” } } ] |
字段说明:
- serial:设备名称或序列号(应与绑定关系中保持一致)。
- ts:时间戳(毫秒)。
- datas:设备属性与对应值的键值对。
⚠️ 注意事项:
- datas 中的属性名应与 DFS 平台中配置的数字孪生体属性一致。若名称不一致,可通过平台提供的手动绑定功能完成属性映射。
6. 常见业务修改点
以下是根据业务调整流程时最常涉及的节点类型及其可修改参数:
节点类型 | 用途 | 可修改的参数 | 修改示例 |
Inject | 定时触发(心跳 / 数据采集) | 触发间隔 | 心跳 10 秒一次,数据 1 秒一次 |
File in | 从文件读取数据 | 文件路径 | /home/user/device.json |
MQTT in | 从 MQTT 订阅数据 | Broker 地址、Topic | mqtt://192.168.1.100:1883,robot/pose |
Kafka in | 从 Kafka 订阅数据 | Broker 地址、Topic | kafka://broker1:9092, device-data |
Function | 数据格式清洗、字段映射 | JS 脚本逻辑 | 将 temp:28.5C 转换为 { “temperature”: 28.5 } |
HTTP request | 数据上报到 DFS | URL | https://<dfs-server>/api/dfs/data |
MQTT out | 数据转发到消息队列 | Broker 地址、Topic | ws://192.168.2.80:83 / 192.168.2.60:1884 |
7. 连接配置
请确保以下连接节点配置正确,特别是在部署环境切换(如测试/生产)时:
- MQTT out(前端)
示例地址:ws://192.168.2.80:83
配置名称:emqx-mqtt
- MQTT out(DFS Server)
示例地址:192.168.2.80:1884
配置名称:artemis-mqtt
- Redis 数据源
示例地址:192.168.2.80:6379
用于定期拉取设备与孪生体绑定映射(键名形如:dfs:device:<serial>)
孪生体关联
孪生体关联模块用于将物理设备数据与数字孪生体进行映射绑定,实现数据驱动的仿真、交互与业务优化。通过该功能,企业可构建贴近真实运行状态的孪生模型,辅助运维、监控与分析。
导入数字孪生场景
您需将包含目标孪生体的场景从 FactVerse 平台导入至 DFS,作为后续数据绑定的载体。
操作步骤
- 创建数字孪生场景:使用 FactVerse Designer 创建数字孪生场景,确保场景中包含实际设备对应的孪生体。
示例:创建场景“机械臂Demo”,其中包含一个机械臂孪生体(如 ” 机械臂A1″),用于后续设备数据绑定。
- 导入数字孪生场景
a) 登录DFS管理平台。
b) 在孪生体关联 > 场景配置页面中,点击【导入】打开导入窗口。
c) 在导入窗口中,选择要导入的场景(例如“机械臂Demo”),点击【确认】完成导入。
绑定设备和孪生体
将实际设备与数字孪生体建立绑定关系,是实现“数据驱动的虚拟仿真”与“实时同步”的关键步骤。绑定完成后,设备数据将用于驱动孪生体的属性变化,形成真实与虚拟的闭环联动。
前提条件
- 已导入包含待绑定孪生体的场景;
- 已完成设备的添加(详见下方说明);
设备添加方式(三种)
添加方式 | 说明 |
设备绑定页导入 | 手动创建设备,用于连接实际设备或模拟数据 |
创建适配器实例时导入 | 在接入实时数据的过程中自动创建设备信息 |
创建模拟任务时导入 | 用于测试/调试目的,自动生成虚拟设备 |
设备与孪生体绑定流程
1. 进入设备详情页:在孪生体关联 > 设备绑定页面中,找到目标设备(示例中为创建模拟任务时导入的设备“RobotA1_2”),点击相应的详情按钮,进入设备的详情页。
2. 打开配置孪生体窗口:在设备配置栏里,点击【配置孪生体】按钮,打开配置孪生体窗口。
3. 选择孪生体:
a) 在配置孪生体窗口中,点击设备所属场景的下一级按钮。
b) 选中要绑定的孪生体,点击【确认】完成设备与孪生体的绑定。
4. 属性绑定(可选):
若设备属性与孪生体属性名称不一致,需进行手动绑定,确保数据正确驱动孪生体属性变化。
a) 点击属性标签,点击设备属性的绑定图标 。
b) 在弹出的绑定属性窗口中,选择要关联的属性,然后点击【确定】。
验证:在 FactVerse Designer中,打开场景“机械臂Demo”。点击播放按钮,观察机械臂在数据驱动下的姿态变化。
数据集管理
数据集管理模块为用户提供统一的数据导入、组织、分类、分析支持,是开展数据探索、智能分析与可视化的基础。
通用数据集页面
通用数据集页面支持对不同来源的数据资源进行集中管理,并为后续的数据探索、建模分析提供支撑。
数据集分类目录
左侧为数据集分类目录,支持对数据集进行分组管理,有助于实现数据处理流程的全流程追踪与结构化组织。
操作说明
操作 | 说明 |
| 鼠标悬停分类名称,点击【添加子类】按钮创建子目录 |
| 鼠标悬停分类名称,点击【编辑】按钮进行重命名 |
| 仅支持删除无子类的空分类。若存在子类,请先删除子类 注意:删除分类将删除分类下所有数据集,不可恢复,需谨慎操作 |
| 支持关键字模糊搜索快速定位目标分类 |
数据集列表
在选中左侧分类目录后,右侧展示该分类下的全部数据集,包括以下字段信息:
- 数据集名称
- 数据集类型(本地数据集 / 数据源数据集 / 探索数据集)
- 创建人
- 创建时间
数据集类型
通用数据集按来源分为三类:
类型 | 描述 | 应用场景 |
本地数据集 | 用户手动上传的 .csv 文件 | 快速导入和分析离线数据 |
数据源数据集 | 来自外部业务系统接入平台的数据或 FactVerse Designer 生成并上传的模拟记录 | 行为仿真、生产监控、数字孪生数据驱动等 |
探索数据集 | 通过自动或手动数据探索任务生成的结果集 | 数据分析和结果输出 |
数据集列表区功能说明
功能 | 说明 |
新增本地数据集 | 点击【新增本地数据集】,上传 .csv 文件,系统自动解析并创建数据集 |
数据看板 | 点击【数据看板】进入数据可视化配置与展示界面,支持图表配置与交互分析 |
搜索数据集 | 通过数据集名称、数据集类型、时间范围等信息,快速定位目标数据集 |
数据查看 | 点击数据集的详情按钮进入该数据集的数据查看页,进行数据分析、查看数据表等进一步操作。 |
删除数据集 | 删除选中的数据集 注意:不可恢复,需谨慎操作 |
创建本地数据集
在通用数据集页面中,用户可通过上传 .csv 文件的方式快速创建本地数据集,便于后续数据分析任务。
操作步骤
- 选择数据集分类:在左侧分类目录中,选择一个用于归属新数据集的目录分类。首先选择要创建本地数据集的数据集分类。如无合适分类,可先创建分类目录再继续。
- 点击【新建本地数据集】:点击页面右上角的【新建本地数据集】按钮,打开新建窗口。
- 填写数据集基本信息:在弹出的窗口中,填写以下信息:
- 数据集名称
- 描述(可选)
- 导入 CSV 文件:点击【导入文件】,选择本地 .csv 文件上传。
注意:请确保CSV文件格式符合要求,字段格式规范且数据完整,以确保导入顺利进行。
- 设置以下数据集选项:
- 是否时序数据: 若数据包含时间戳并按时间顺序进行分析,请勾选“是”。例如:一个设备每5分钟采集一次转速,就是典型的时序数据。
- 是否包含表头:若 CSV 文件首行为字段名,请勾选“是”;否则勾选“否”。
- 点击【确认】完成:系统将自动解析 CSV 内容并生成数据字段,数据集创建成功后会显示在当前分类目录下。
数据查看
在通用数据集页面中,点击任意数据集名称或右侧的详情按钮,可进入该数据集的查看与分析界面。
数据查看页面包括 数据表、数据分析、字段管理 三个标签页,支持用户从不同维度对数据进行查看、筛选与分析,帮助发现数据规律,并为后续的数据建模、预警配置等操作提供基础数据支持。
数据表
在通用数据集中选择目标数据集,点击数据集名称或详情按钮进入数据查看页面,系统默认打开 数据表 标签页。
该标签页以表格形式呈现原始数据,适用于:
- 精确核查单个数据点的取值;
- 对比多个参数的具体值;
- 按时间序列查看数据变化。
功能说明
- 表格默认按时间升序排列,可根据需要进行参数筛选。
- 每行数据包含所选参数的具体数值;字段名称可在 字段管理 标签页中进行管理和别名设置。
- 支持按时间、参数等字段逐行查看数据。
- 可直接在此标签页发起数据探索任务,用于分析特定数据点或时间段(参考“发起数据探索”说明)
参数筛选操作步骤
- 在 数据表 标签页右上角点击筛选框。
- 在弹出的“参数筛选”窗口中点击 【选择参数】按钮。
- 在“选择参数”窗口中勾选需要显示的参数,点击【确认】。
- 数据表将仅显示已选择的参数字段。
数据分析
“数据分析”标签页用于针对单个“时序数据集”进行的探索和分析,可通过配置图表帮助用户发现趋势、异常或变量之间的关系。
功能说明
- 通过参数筛选选择需要分析的字段。
- 支持多种图表类型(散点图、折线图、直方图)。
- 可配置字段样式、标注特征点(最大值、最小值、中位数等)。
- 支持交互操作:放大、缩小、拖拽、辅助线、数据提示、时间段选择。
- 支持导出图表为图片,用于报告或分享。
提示:首次进入若未配置,页面为空白;如已配置,系统会自动加载上一次的图表。
操作步骤
- 进入数据分析:在通用数据集中点击目标数据集,然后在数据查看页中,切换至“数据分析”标签页。
- 筛选参数生成图表:
a) 点击工具栏中的“筛选”框。
b) 在弹出的“参数筛选”窗口中,点击【选择参数】可选择需要参与图表生成的字段。
c) 点击【提交】,系统自动生成默认折线图。
- 配置图表
您可以手动配置图表类型(如散点图、折线图等)并选择相关参数优化图表展示。
点击工具栏【数据配置】按钮,打开参数配置窗口。
- 图表类型:选择散点图、折线图或直方图。
- 数据拆分:选择需要分析的参数,生成独立的图表。
- 字段配置:
- 勾选要显示的字段(参数),可调整其在图表中的颜色和标识。
- 可调整字段的样式(如颜色、线型),提升图表的可读性。
- 标注特征点(可选):在“字段配置”中启用“特征点”选项,用于标注图表中具有分析意义的数据点(例如异常值、阈值点等):
- 最大值:标注数据中的峰值点,便于识别异常高点。
- 最小值:标注数据中的最低点,用于分析趋势低谷。
- 中位值:展示数据的中间值,便于了解整体分布的中心趋势。
下图展示参数飞机“排气温度 EGT (右发)”特征点最大值
- 交互与查看
在生成图表后,用户可以通过以下交互操作灵活查看和分析数据:
- 缩放与移动
- 选择放大
:点选【选择放大】按钮,用鼠标从 左上向右下 拖动框选图表的某一区域,即可快速放大查看该数据段。若从 右下向左上 拖动,则可撤销上一步的放大操作。
- 选择放大
- 放大
/缩小
:通过缩放按钮调整图表的缩放比例,使用户可以更加详细地查看数据。
- 拖拽
:按住鼠标左键拖动图表,可以改变图表展示区域,查看不同部分的内容。
- 重置视图
:点击重置按钮,图表会恢复到最初的视图大小和数据显示的时间范围。
- 放大
- 辅助分析
- 辅助线
:鼠标悬停在图表某一数据点时,图表上将显示纵横两条辅助线,帮助用户准确对比数值。
- 辅助线
- 单列
或多列
提示:当鼠标悬停在数据点上时,可以显示该时间点一个或多个纵轴参数的数值信息。
- 单列
- 时间区间选择
- 调整显示范围:拖动“时间范围选择器”的起止柄,左右调整展示的时间区间。
- 选择时间段:在已选时间区间内,按住鼠标左键拖动可重新选择一段时间。
- 移动时间段:将鼠标移到“时间范围选择器”上边缘,指针变为双向箭头,拖动即可整体平移时间段,保持区间长度不变。
- 字段显隐:点击图表下方的字段名可以切换其显示/隐藏状态。
- 导出图片
:点击【导出为图片】按钮,将当前图表保存为图片文件,方便后续分享或报告使用。
字段管理
“字段管理”标签页用于维护数据集中字段的显示名称与分类方式,便于在数据表、数据看板等功能中快速定位字段。
字段分类规则
系统会自动分析数据集字段并分类为 维度 或 指标:
- 维度:
- 文本类型:CHAR、VARCHAR、TEXT、MEDIUMTEXT、LONGTEXT、ENUM、ANY
- 时间类型:DATE、TIME、YEAR、DATETIME、TIMESTAMP
- 指标:
- 整型:INT、SMALLINT、MEDIUMINT、INTEGER、BIGINT、LONG
- 浮点型:FLOAT、DOUBLE、DECIMAL、REAL
- 布尔型:BIT、TINYINT
支持的操作
- 编辑字段昵称:为字段添加易理解的别名,便于在中快速识别。
- 切换字段类型:
- 点击下移图标可将维度切换为指标
- 点击上移图标可将指标切换为维度。
注意:文本类维度(系统标记为string 类型)不可转换为指标。
- 删除字段:支持单个或批量删除。
- 新增字段:支持单个或批量添加。
以上所有操作仅影响字段的显示与管理,不会修改原始数据集。系统会在每次编辑后自动保存更改。
数据看板
“数据看板”用于将多个可视化图表集中在同一页面进行统一展示和对比,方便进行趋势分析、异常定位和汇报展示。与
支持路径分析、碰撞统计、明细表、饼图、柱状图、散点图等多种图表类型。
数据来源范围说明
- 系统自动创建的场景目录(例如模拟回顾生成的“场景名”分类目录):
此目录下的看板只能引用该目录下的数据集,适用于同场景的多次模拟结果对比。 - 手动创建的分类目录:
此类目录下的看板可引用任意其他分类目录下的数据集,适用于需要组合不同来源数据的分析场景。
数据看板界面
看板工具栏
功能 | 说明 |
组件菜单 | 点击【组件菜单】可选择添加到看板的组件类型,包括:统计指标、柱状图、饼图、折线图、散点图、明细表、路径分析、碰撞统计等。 |
设置 | 点击【设置】可配置看板的数据刷新频率。 |
锁定 | 锁定看板,防止误编辑。 |
解锁 | 解锁已锁定的看板,恢复编辑功能。 |
撤销 | 撤销最近一步编辑操作。 |
重做 | 恢复最近一次撤销的操作。 |
重置画布 | 将看板画布恢复至初始布局状态。 |
预览 | 点击【预览】进入全屏模式,查看看板展示效果。 |
保存 | 保存当前看板配置,便于后续继续编辑或查看。 |
发布 | 发布当前看板配置。发布后,同一场景目录下自动生成的模拟数据集可直接应用该看板配置自动生成看板。 |
创建数据看板流程
首次配置时需手动添加组件并绑定数据集,后续可通过看板模板快速复用配置。
首次配置
- 打开看板界面:在数据集列表中找到目标数据集(例如基于 Designer 模拟回顾生成的模拟记录数据集或手动上传的数据集),点击【数据看板】进入空白看板。
- 添加组件:点击【组件菜单】,选择要添加的组件,添加到看板画布中。
- 打开组件属性配置面板:双击已添加的组件,打开配置面板,完成数据集、字段、样式等参数配置。
- 保存看板配置:点击【保存】保存看板配置,便于后续直接查看和编辑。
- 发布看板(可选):如需在后续相同数据结构的任务中复用配置,可点击【发布】将当前看板发布为看板模板。
自动套用模板的条件
- 当基于 Designer 模拟回顾 生成新模拟记录时,DFS 会将该记录保存为数据集,并自动归入对应场景的分类目录。
- 如果该场景已发布过看板模板,系统会自动将新数据集套用模板配置(组件布局、字段绑定、筛选条件等),生成新的看板内容。
- ⚠️ 手动上传的本地数据集、其他来源的数据集,即使字段一致,也不会自动套用模板,需要手动进入看板绑定数据集并配置组件。
配置看板组件
路径分析
路径分析组件用于在数据看板中查看可进行路径分析的孪生体,并将其运行路径与场景叠加展示在 Designer 中,实现数据与 3D 场景的直观结合。
功能说明
- 组件加载后,以列表形式显示当前数据集及场景中所有支持路径分析的孪生体。
- 用户可在 Designer 中勾选一个或多个孪生体,并点击【3D 结果查看】,打开对应场景并叠加显示运行路径。
- 仅支持基于 Designer 模拟回顾 生成的模拟记录数据集。
操作步骤
- 在 DFS 配置路径分析组件:
a) 在数据看板的【组件菜单】中选择【路径分析】,添加到看板画布中。
b) 双击组件,在右侧配置栏选择绑定的数据集(通常为模拟回顾生成的数据集)。
c) 点击【更新】查看配置效果,然后点击【保存】保存看板配置。
- 在 Designer 查看路径叠加效果:
a) 点击主页中的【模拟回顾】按钮,打开 DFS 通用数据集窗口。
b) 在数据集列表中找到目标数据集,并点击【数据看板】打开数据看板界面。
c) 在看板画布中可以看到已配置好的路径分析表,勾选要查看路径的孪生体。
d) 点击【3D 结果查看】,系统会在 Designer 中加载对应场景并叠加显示选中孪生体的运行路径。
e) 为确保能够看到场景,请将数据看板窗口最小化或移至一侧,以便完整查看 3D 场景中的路径效果。
碰撞检测
碰撞检测组件配置需要在模拟回顾中展示的【碰撞统计】明细表。
碰撞事件详情以列表形式展示在卡片中,查看全部碰撞结果。
操作步骤
- 在 DFS 配置碰撞检测组件:在数据看板的【组件菜单】中选择【碰撞检测】,添加到看板画布中。
- 双击组件,在右侧配置栏选择绑定的数据集(通常为场景模拟回顾生成的数据集)。
- 点击【更新】查看配置效果,然后点击【保存】保存看板配置。
图表类组件
图表类组件用于将数据集中的字段以多种可视化方式展示,支持交互分析与对比。
- 统计指标:直接展示某个指标字段的汇总结果(如总和、平均值、最大值、最小值等),方便快速获取关键数值信息。
- 折线图:展示指标随时间或其他维度变化的趋势,可直观反映数据的波动和对比情况。支持设置“子类别/维度”用于在同一折线图中对比多个类别的趋势,例如不同设备的温度曲线。
- 散点图:展示两个或多个指标之间的分布与相关性,适合关联分析。
- 饼图:展示各类别的占比,适合比例分析。
- 柱状图:展示各类别的数值对比,适合分类对比分析。
- 明细表:以表格形式列出维度与指标数据,支持多列配置和排序,适合明细查看。可在数据列中配置需要展示的维度和指标。
不同类型的图表均遵循下方“通用配置步骤”进行配置。
通用配置步骤
1. 添加组件:在看板工具栏点击【组件菜单】,选择目标图表类型,将组件添加到画布。
2. 打开属性配置栏:双击组件卡片,右侧弹出属性配置面板。
3. 设置标题:输入组件标题,便于识别和管理。
4. 选择数据集:从可用数据集中选择一个作为图表数据来源。
5. 配置维度与指标:
a) 从字段列表中拖拽维度/指标到对应区域;
b)可为维度设置排序方式(升序、降序或默认顺序);
6. 设置指标汇总方式(如求和、平均、最大值、最小值等)。
7. 添加过滤器(可选):按时间、设备 ID 等条件筛选数据。
8. 设置刷新时间(可选):按秒为单位设置组件数据刷新间隔。
9. 更新并保存:点击【更新】查看效果,满意后点击【保存】。
文字和图片
文字组件
用于在数据看板中添加说明性文本、标题或备注,帮助解释图表内容或提供业务背景信息。
- 支持自定义文字内容
- 选中内容弹出文本编辑工具栏,支持编辑字号、颜色、背景颜色等。
- 可调整组件位置与大小,以适应看板布局。
图片组件
用于在数据看板中展示静态图片(如企业 Logo、流程图、示意图等),提升看板可读性与美观度。
数据探索
数据探索是 DFS 平台中面向分析与预警的关键功能。通过对数据集进行深度处理和建模,用户可以快速发现规律、配置预警规则,并将结果输出为新的探索数据集,用于后续分析、看板展示或业务决策。
关键概念
- 数据探索数据集:执行探索任务后生成的结果数据集,通常已包含处理逻辑和特征变量。
- 预警规则:在探索过程中设定的触发条件,用于自动识别风险或异常情况。
- 数据探索模板:预定义的探索逻辑和处理规则,便于复用,提高探索效率。
发起数据探索
在数据探索页面发起
操作步骤
- 在数据探索页面,点击【新建】。
- 在弹出的窗口中填写任务信息。
- 名称(必填):输入数据探索任务名称。
- 数据集(必填):选择要分析的数据集。
- 数据集时间范围(必填):通过开始时间和结束时间选择数据集的分析范围。
- 描述(选填):补充说明任务用途或背景。
- 点击【确认】,进入数据探索编辑面板进行任务配置。
从数据集直接发起
操作步骤
- 在通用数据集页面选择目标数据集,点击数据集名称或详情按钮进入数据查看页面。
- 点击数据表标签页中的【发起数据探索】按钮。
- 在弹出的窗口中填写任务信息:
- 名称(必填):输入探索任务名称。
- 描述(选填):补充说明任务背景或目标。
- 点击【确认】,进入数据探索编辑面板进行任务配置。
数据探索编辑面板
工具栏
- 选择参数:用于通过参数标签和数据集标签选择原始数据。
- 执行:运行当前任务并生成数据处理后的结果。
- 保存:存储当前任务配置。
- 发布:发布时可选择多个同构型的不同飞机号,支持复用探索方法。对同构型数据会自动执行对应的数据分析、预警检测逻辑。
节点栏
“节点栏”提供多种数据处理、分析、模型运算及输出节点,用户可根据业务需求和数据分析逻辑进行灵活编排。以下为各类节点的详细说明、适用场景及使用方法。
- 预处理方法节点:预处理节点用于对原始数据进行初步处理,以便更好地进行后续分析。
- 线性插值:
- 功能:通过假设数据在缺失点前后的变化是线性的,推算缺失数据。即沿着一条直线连接相邻已知数据点,填补空缺。
- 适用场景:处理时间序列数据中存在的小量缺失值,保证数据的连贯性和完整性。
- 数据降频:
- 功能:将原始高频数据转换为低频数据,例如将高频采样的数据降低为每秒一次。
- 适用场景:需要将过于频繁的数据简化为更易分析的低频数据。
- 数据填充–时间重采样:
- 功能:对低频数据进行重采样,将其转换为高频数据,适用于同时分析高频与低频数据的场景。
- 适用场景:当高频数据与低频数据混合使用时,使用此方法填充低频数据以与高频数据匹配。
- 自定义预处理方法:
- 功能:用户可以根据特定需求创建自定义的数据预处理逻辑。
- 适用场景:当标准预处理方法不能满足需求时,提供灵活的扩展性。
- 特征指提取方法节点:特征提取节点用于从数据中提取重要的统计特征,用于后续建模和分析。
- 提取最大值:提取数据中的最大值
- 提取四分位数:将数据排序并分成四等份,提取三个分割点(25%、50%、75%)的位置数值。
- 提取标准差:计算数据的标准差,反映数据的波动程度。
- 提取中位数:提取数据集的中位数(50%分位数)。
- 提取平均值:提取数据的平均值。
- 提取方差:计算数据集的方差,反映数据的分散程度。
- 提取最小值:提取最小值。
- 自定义特征值提取方法:根据特定需求编写自定义的特征提取规则。
- 线性插值:
- 运算节点:运算节点用于在数据处理过程中进行数学运算,通常用于构建计算模型或生成新的数据指标。
- 输出节点:输出节点用于将处理结果导出或传递到其他模块
- 预处理输出节点:将经过预处理的数据输出,以供后续分析使用。
- 模型节点:模型节点用于集成第三方AI算法模型,对数据进行预测和智能分析。
画布(任务编排区域)
您可以在此区域进行数据探索任务配置,主要支持的功能如下:
- 添加节点:支持从左侧的节点栏拖动节点到画布上,创建任务的基本框架。
- 连接节点:通过拖动节点之间的连接线(箭头)来定义数据流向。箭头表示数据从一个节点流向另一个节点的顺序,确保任务按正确的顺序执行。
- 查看节点详情:
- 基础信息:例如处理方法的名称、类型、创建者、状态等信息。
- 相关代码:该节点关联的代码或脚本。
- 查看节点处理后的数据:在任务执行后,用户可以在画布上查看各个节点处理后的数据,帮助分析任务运行的结果。
交互按钮
- 帮助:查看快捷键。
- 清空画布:清空画布上的所有节点和连接,恢复为初始空白状态。
- 撤销:撤销上一步的操作,将画布恢复到上一个操作状态。
- 重做:重做已撤销的操作,将画布恢复到撤销前的状态。
- 缩小:缩小画布视图,使画布上的内容显示得更加宽广,方便查看全局。
- 放大:放大画布视图,使画布上的内容更加清晰,方便用户专注于某一部分。
- 重置:将画布视图恢复为默认设置,通常会将画布大小和显示比例恢复到初始状态。
- 适配:自动调整画布中的内容显示,使其适配当前的视窗或显示区域。
画布缩略图
画布右下角的缩略图提供了快速导航和视图调整功能,便于用户在复杂画布中定位和调整显示区域,以下是缩略图的主要功能及其使用方法:
缩放视窗:拉拽绿色视窗右下角的圆形缩放柄,可以扩大或缩小视窗,从而调整画布中的显示范围。
移动视窗:通过拖拽绿色视窗本身或点击视窗外的空白区域,可以改变视窗的位置,从而调整画布中显示的具体内容区域。
配置数据探索
通过拖拉拽和连线,完成数据处理方法和原始数据之间的关系配置,实现工作流形式的数据探索配置。
- 打开数据探索编辑面板:
- 自动打开:创建新数据探索后,系统会自动打开“数据探索编辑面板”。
- 手动打开:在数据探索页面,选择需要编辑的数据探索,点击数据探索的名称或【编排规则】按钮打开“数据探索编辑面板”。
- 选择原始数据:
a) 点击工具栏中的【选择参数】按钮,打开数据选择窗口。
b) 在弹出的窗口中,通过以下方式筛选所需数据:
- 参数:从数据集中选择所需的参数。
- 参数规则:通过设定参数的取值范围,进一步筛选并缩小范围,快速定位目标数据。
c) 点击【确认】按钮,系统将在画布上添加一个“原始数据”节点。
- 选择数据处理方法
a) 从左侧的节点栏中找到所需的节点,将节点拖动到画布上。
b) 从一个节点的输出端连接到另一个节点的输入端,箭头表示数据的处理顺序。
- 保存任务配置:点击 【保存】,存储当前任务配置。
执行和验证
通过执行和验证步骤来确保数据处理任务的有效性和准确性。以下是进行数据分析并验证数据处理有效性的操作说明:
- 执行任务:点击画布右上角的【执行】按钮,系统将根据画布中定义的数据处理逻辑,执行节点处理并生成数据分析结果。
执行过程可能涉及数据清洗、特征提取、模型运算等操作,依赖于画布中配置的节点。通过执行任务,分析师可以获得根据业务需求和逻辑处理后的数据结果,数据结果将自动保存到通用数据集中,供后续查看和分析。
- 数据验证:点击数据处理节点上的查看按钮
,打开展示该节点输出结果的数据图表和数据表。
- 查看数据趋势、规律、异常值等,进而分析数据是否符合预期。
- 对比数据图表和数据表中的结果,检查是否符合预期的计算结果或分析结果。
- 通过与原始数据、外部数据源或者已知标准的对比,来验证数据处理的准确性。
- 优化数据处理:如果数据处理结果存在问题,分析师可以通过调整节点配置、重新运行任务等方式,进行修正和优化。
探索方法管理
本节详细介绍了如何通过自定义预处理、特征值提取方法以及接入第三方AI算法模型,灵活扩展系统的数据处理能力。
预处理方法管理
预处理方法管理页面展示系统内所有可用的预处理方法,包括内置方法和用户自定义方法。
此页面支持以下功能:
- 查看预处理方法:展示系统内置及自定义的所有预处理方法,提供方法名称、描述、脚本内容等信息。
- 新增预处理方法:用户可以通过上传或直接输入Python脚本,添加自定义的预处理方法。
- 删除预处理方法:支持删除不需要的方法。
内置方法
系统内置了以下几种常用的预处理方法,用户可以直接应用于数据处理:
- 线性插值:填补数据中的缺失值,适用于连续性数据的插值计算。
- 数据降频:对数据进行降频处理,减少数据点以适配分析需求。
- 数据填充 – 时间重采样:基于时间对数据进行重采样,填补数据的时间间隔不一致问题。
自定义方法
用户可以根据需求编写Python脚本,定义个性化的预处理方法:
- 支持上传脚本文件或在系统中直接输入脚本。
- 自定义方法支持灵活扩展预处理功能,为复杂数据场景提供更高的适配性。
自定义预处理方法
操作步骤
- 进入新增页面:在预处理方法管理页面,点击【新增】按钮打开新增页面。
- 填写方法信息:在新增页面中,填写以下信息:
- 方法名称(必填):为方法命名。
- 脚本文件名(必填):指定用于预处理的脚本文件名称。
- 描述(选填):补充说明方法用途和逻辑。
- 上传脚本文件:通过拖拽或文件导入方式上传脚本文件。
- 保存方法:点击【保存】按钮,将方法保存为草稿状态,可在数据探索任务中验证其有效性。
- 提交发布:验证通过后,点击【提交】按钮,将方法状态更新为发布状态,可在系统中正式使用。
特征值提取方法管理
特征值提取方法管理页面支持用户查看和自定义特征值提取方法。
内置方法
- 提取最大值
- 提取四分位数
- 提取标准差
- 提取中位数
- 提取平均值
- 提取方差
- 提取最小值
自定义方法
- Python脚本:用户可通过编写和上传Python脚本,创建新的特征值提取方法,以满足特定分析需求。
自定义特征值提取方法
操作步骤
- 进入新增页面:在特征值提取方法管理页面,点击【新增】按钮打开新增页面。
- 填写方法信息:在新增页面中,填写以下信息:
- 方法名称(必填):命名特征值提取方法。
- 脚本文件名(必填):指定脚本文件名称。
- 描述(选填):补充说明方法逻辑。
- 是否支持滑动窗口:选择“是”时启用滑动窗口,以设定步长分段处理数据,输出多组特征值。
- (可选)配置特征提取方法动态参数:在参数栏中添加可调整的参数,用于控制特征提取的方式。例如:新增“滑动窗口大小”参数,在后续数据探索任务中,用户可根据需求输入具体值,以灵活调整特征提取过程。
- 上传脚本或编辑代码:拖拽或导入脚本文件,或直接在编辑框中输入Python代码。
- 保存方法:点击【保存】按钮,将方法保存为草稿状态,可在数据探索任务中验证其有效性。
- 提交发布:验证通过后,点击【提交】按钮,将方法状态更新为发布状态,以便在任务中使用。