Industrial Physical AI
for Smart Factory
Unified Intelligence for Smart Factories
AI检测软件
执行图像处理、数据分析、机器学习推理等功能的
AI 检测软件
→ 即使仅在现有 PC 环境中导入 withAI(软件),也可以获得进一步增强的缺陷检测能力。
核心价值


实时不良检测硬件 Edge Device
用于基于 AI 的推理(检测)的 On-Device。适用于 Align、1D&2D Code、OCR 的专用 Device。
适用行业
-
医疗 & 制药

- 超波影像诊断
- 培养细胞 检查 - Live, Dead, Debris 区分
- 药材种类&等级区分
- 注射输液内异物和印刷检查
- 试料桶种类区分
- 药片破损,刮伤,颜色,形体检查
-
材料 & 零部件

- 金属纱筒的痕迹刮伤检查
- 线材断面的线材颜色检查
- Capsule 里气泡,破损检查
- Wafer 刮伤,斑点检查
- 涂铅检查 (未铅, 过铅, 小铅, Short)
- 橡胶环有色异物,破损,边缘检查
-
显示器 & 二次电池

- 压痕, 异物检查
- 边缘Crack, 破损检查
- Lead Burr,Open,Short不良检查
- 斑点 (点型, 线型, 波浪型)检查
- 手机刮伤,相机以及指纹感应器刮伤,外观破损检查
-
物流 & 流通

- 移动中箱体分类
- 用于完成品组装的螺丝分类与排列
- 农产品自动分类
- 消费者订购商品检测及出货、退货商品对比检测
- 包装纸、容器等 OCR 读取
-
食品 & 包装材料

- 化妆品容器破损、划伤、异物检测
- 包装内保质期印刷检测
- 胶囊内容物的气泡、破裂检测
- 食品中的污染、异物检测
-
机器人 & 自动驾驶

- AMR(Autonomous Mobile Robots)
- 定位测量及同步建图方式
- 通过障碍物识别进行路径生成、物体避让、防止碰撞
- 利用 Segmentation 预测可行驶区域
- 基于强化学习的多机器人、避障与异常检测
- 结合摄像头检测与 DDS 传感器,实现实时协同作业识别
withAI 2.0 VLM 不仅超越了基于目标检测的 AI,还可综合分析作业人员、叉车、设备、障碍物等之间的关系与移动情况,从而判断工厂现场状态,提供工业级 Vision Intelligence。
-
基于工业现场“场景理解(Scene Understanding)”的判断
- 对象语义理解:将人员、叉车、设备、托盘、载物、障碍物等现场对象按语义单位进行区分
- 关系/上下文判断:判断“人员是否位于机器人移动路径上?”“叉车是否正在接近?”等对象之间的关系
- 状态/行为推定:判断停止/移动/接近/离开、进入
- 危险区域等行为模式风险等级分类:将安全距离不足、可能碰撞、人员接近等情况分类为正常/注意/危险等
-
通过整合 3D + VLM + Physical AI,实现“判断”与“动作”联动
- 通过 3D 获取准确空间信息:计算距离、方向、高度、碰撞余量空间等物理信息
- 通过 VLM 进行基于语义的决策:判断“人员接近”、“叉车路径重叠”、“障碍物种类/危险度”
- 通过 Physical AI 强化执行逻辑:应用避让/减速/停止、绕行路径选择、安全停止标准调优等现场动作策略
- Self-Supervised 校正:自动校正因传感器/相机/设备变化造成的误差,减少重新示教负担
-
基于 Edge 的实时应用(可直接在现场运行)
- 实时处理:无需网络延迟,可在现场即时判断
- 现场独立运行:减少对服务器/云端的依赖,确保产线稳定性
- 便于监控与调优:通过手机/平板修改设置后可立即确认结果
- 将工厂现场状态以 Structured Format 发送至 Setup Agency 和 Operational Twin
- 运行扩展性:可将相同策略/模型部署到多个 Edge-Device,在多条产线/多道工序中适用统一标准
基于工业现场“场景理解(Scene Understanding)”的判断
- 对象语义理解:将人员、叉车、设备、托盘、载物、障碍物等现场对象按语义单位进行区分
- 关系/上下文判断:判断“人员是否位于机器人移动路径上?”“叉车是否正在接近?”等对象之间的关系
- 状态/行为推定:判断停止/移动/接近/离开、进入
- 危险区域等行为模式风险等级分类:将安全距离不足、可能碰撞、人员接近等情况分类为正常/注意/危险等
通过整合 3D + VLM + Physical AI,实现“判断”与“动作”联动
- 通过 3D 获取准确空间信息:计算距离、方向、高度、碰撞余量空间等物理信息
- 通过 VLM 进行基于语义的决策:判断“人员接近”、“叉车路径重叠”、“障碍物种类/危险度”
- 通过 Physical AI 强化执行逻辑:应用避让/减速/停止、绕行路径选择、安全停止标准调优等现场动作策略
- Self-Supervised 校正:自动校正因传感器/相机/设备变化造成的误差,减少重新示教负担
基于 Edge 的实时应用(可直接在现场运行)
- 实时处理:无需网络延迟,可在现场即时判断
- 现场独立运行:减少对服务器/云端的依赖,确保产线稳定性
- 便于监控与调优:通过手机/平板修改设置后可立即确认结果
- 将工厂现场状态以 Structured Format 发送至 Setup Agency 和 Operational Twin
- 运行扩展性:可将相同策略/模型部署到多个 Edge-Device,在多条产线/多道工序中适用统一标准
需求SPEC

| 구분 | 권장 사양 | ||
|---|---|---|---|
| Train PC | CPU | Intel i7 이상 | |
| RAM | 32GB | ||
| CUDA Compute Capability | 3.5 | ||
| GPU | GeForce RTX 4090 (24GB 이상) | ||
| OS | Windows 10 x64, Windows 11 x64 | ||
| Inference PC | CPU | Intel i7 이상 | |
| RAM | 16GB 이상 | 32GB 이상 | |
| GPU | Geforce RTX 4070 (12GB 이상) | Geforce RTX 4080 (16GB 이상) | |
| OS | Windows 10 x64, Windows 11 x64 | ||
| 개발 환경 | Visual Studio 2017 이상 | ||
| 구분 | Target Image | 추론 시간 (RTX 4080) | 최적화 추론 시간 (RTX 4080) | |
|---|---|---|---|---|
| Detection | Lite | 2048 x 1536 | 79ms | 10ms |
| LiteX | 90ms | 11ms | ||
| Pro | 150ms | 28ms | ||
| Segmentation | Lite | 2048 x 1536 | 98ms | 13ms |
| LiteX | 105ms | 15ms | ||
| Pro | 165ms | 33ms | ||
| Classification | Lite | 200 x 200 | 6.3ms | 1.8ms |
| LiteX | 7ms | 1.9ms | ||
| Pro | 8.2ms | 2.1ms | ||
-

Inference Time Segmentation (Pro) 38.02ms Segmentation (Lite) 37.10ms Semantic Segmentation 36.30ms Detection (Pro) 34.56ms Detection (Lite) 26.50ms Classification (Lite) 2.44ms Specification CPU 12-core Arm® Cortex®-A78AE v8.2 64-bit CPU 3MB L2 + 6MB L3 GPU 2048-core NVIDIA Ampere architecture GPU with 64 Tensor Cores, 275TOPs Memory 64GB 256-bit LPDDR5 204.8GB/s Storage 1 x M.2. key M 2280 for SSD / 64GB eMMC Networking 1 x GbE RJ-45 USB 4x USB 3.2 Gen 2 Type-A / 2x USB 3.2 Gen2 Type-C IO 40-pin header (UART, SPI, I2S, I2C, CAN, PWM, GPIO) Power 15W - 60W Dimension 110mm x 110mm x 71.65mm Camera 4x 2D cameras, 2x 3D cameras AI Model fully compatible with withAI 2.0 3D supports Physical AI models, semantic segmentation, point-cloud/3D processing, pre-processing. -

Inference Time Segmentation (Pro) 78.01ms Segmentation (Lite) 73.24ms Semantic Segmentation 57.71ms Detection (Pro) 69.27ms Detection (Lite) 54.15ms Classification (Lite) 2.99ms Specification CPU 6-core Arm® Cortex®-A78AE v8.2 64-bit CPU 1.5MB L2 + 4MB L3 GPU 1024-core NVIDIA Ampere architecture GPU with 32 Tensor Cores, 67TOPs Memory 8GB 128-bit LPDDR5 102.4GB/s Storage 1 x M.2. key M 2280 for SSD Networking 1 x GbE RJ-45 USB 4x USB 3.2 Gen 1 Type-A IO 40-pin header (UART, SPI, I2S, I2C, CAN, PWM, GPIO) Power 15W - 25W Dimension 151mm x 98.5mm x 73mm Camera 2x 2D cameras, 2x 3D cameras AI Model fully compatible with withAI 2.0 3D supports Physical AI models, semantic segmentation, point-cloud/3D processing, pre-processing. -

Inference Time Segmentation (Pro) 62.81ms Segmentation (Lite) 60.32ms Semantic Segmentation 49.12ms Detection (Pro) 58.46ms Detection (Lite) 46.87ms Classification (Lite) 2.85ms Specification CPU 8-core Arm® Cortex®-A78AE v8.2 64-bit CPU 2MB L2 + 4MB L3 GPU 1024-core NVIDIA Ampere architecture GPU with 32 Tensor Cores, 157TOPs Memory 16GB 128-bit LPDDR5 102.4GB/s Storage 1 x M.2. key M 2280 for SSD Networking 1 x GbE RJ-45 USB 4x USB 3.2 Gen 1 Type-A IO 40-pin header (UART, SPI, I2S, I2C, CAN, PWM, GPIO) Power 10W - 40W Dimension 151mm x 98.5mm x 73mm Camera 2x 2D cameras, 2x 3D cameras AI Model fully compatible with withAI 2.0 3D supports Physical AI models, semantic segmentation, point-cloud/3D processing, pre-processing.
Operational Twin
工厂的大脑。
-
1. 我们制造的 Brain 是什么?
- Operational Twin 是一个能够实时理解工厂状态,并推荐下一步行动的运营智能平台。
-
2. 技术结构
- 实时产线监控
- 基于事件的 Setup 日志引擎
- Guide LLM:推荐引擎
- 结构化场景建模
- 数据驱动的持续学习
-
3. 为什么选择V-One Tech Brain?
- 整合 Inspection + Robot + Line Data
- 使用基于 20 年现场 Setup / 运营数据训练的基础模型
- 基于 Setup Agency 持续积累现场运营数据
- 相同产线再次接单时性能提升
- 具备可在运行中持续学习的 Guide LLM 结构
