事件相机 PROPHESEE EVK4紧凑基于事件的 高清视觉评估套件 视觉传感 EVK4

本文涉及的产品
视觉智能开放平台,视频资源包5000点
视觉智能开放平台,图像资源包5000点
视觉智能开放平台,分割抠图1万点
简介: 探索基于事件的视觉,从 PROPHESEE EVK4 HD 开始。这款超轻、紧凑的高清 Metavision ®评估套件,可承受现场测试条件。集成 IMX636(高清),堆叠式事件视觉传感器由索尼半导体解决方案公司发布,由索尼和 PROPHESEE 合作实现。

全球领先的神经拟态视觉传感公司普诺飞思(Prophesee)推出超轻、紧凑的高清评估套件(EVK4),帮助计算机视觉系统开发人员评估普诺飞思与索尼合作开发的堆叠式高清视觉传感器 IMX636ES。

该功能齐全的评估套件为计算机视觉工程师提供了经多重检验的解决方案,以实现高效的技术指导和快速的应用程序原型设计与开发。

该套件还与普诺飞思享誉业界的 Metavision® 软件免费兼容,同时配备高级技术支持,并支持访问知识中心的应用说明、高级文档和社区论坛等。

mark_图1.png

mark_3.png

事件相机 PROPHESEE EVK4 HD

集成 IMX636(高清),堆叠式事件视觉传感器由索尼半导体解决方案公司发布,由索尼和 PROPHESEE 合作实现

• 事件相机评估套件,配有 C/CS 接口光学镜头

• 分辨率(px):1280 x 720

• 延迟(μs):220

• 动态范围(dB):>86 *

• 名义对比度阈值(%):25

• 像素大小(μm):4.86 x 4.86

• 相机最大带宽(Gbps):1.6

• 相机功率(W):Typ 0.5

• 高品质铝合金外壳

• 超紧凑轻巧:30x30x36mm,仅重 40g

• 持久耐用:IEC 认证

(T° IEC 60068-2-14/Heat IEC 60068-2-78/Shocks IEC 60068-2-31/Electrostatic discharge IEC 61000-4-2 (Level 3))

• 易于集成:4x M2 前置+ 2x M2.6 后置固定点+三脚架螺丝

• USB 3 兼容的总线供电

• 可调节对比度检测(CD)阈值以进行事件检测

• 随附:

1x C 接口 1/2.5 英寸镜头+ 1x C-CS 镜头安装适配器+ 1x 三脚架+ 1x USB-C 至 USB-A 电缆

• 免费访问最全面的基于事件的视觉软件套件:Metavision Intelligence 2.3 及更高版本

• 知识中心访问(技术应用笔记、高级硬件手册、个人票务工具、社区论坛等)。

• 2 小时高级支持服务

mark_4.png

相关文章
|
3月前
|
数据采集 监控 算法
LabVIEW与3D相机开发高精度表面检测系统
LabVIEW与3D相机开发高精度表面检测系统
51 2
|
12天前
|
编解码 监控 算法
高动态范围成像:超越人眼的视觉体验
【10月更文挑战第15天】高动态范围成像(HDR)通过捕捉更广泛的亮度范围,超越传统图像和人眼的极限,提供卓越的视觉体验。本文深入解析HDR的基本原理、技术特点及其在摄影、电影、游戏、医学影像和工业检测等领域的广泛应用,展现其引领视觉技术革命的独特魅力。
|
5月前
|
编解码 编译器 网络安全
LabVIEW使用视觉采集软件从GigE视觉相机进行采集 1
LabVIEW使用视觉采集软件从GigE视觉相机进行采集 1
194 0
|
传感器 机器学习/深度学习 算法
CVPR 2023 | 移动传感器引导的跨时节六自由度视觉定位,准确且高效
CVPR 2023 | 移动传感器引导的跨时节六自由度视觉定位,准确且高效
220 0
|
机器学习/深度学习 监控 算法
传统图像处理之相机模型
传统图像处理之相机模型
244 0
|
机器学习/深度学习 数据可视化 图形学
【视觉高级篇】24 # 如何模拟光照让3D场景更逼真?(下)
【视觉高级篇】24 # 如何模拟光照让3D场景更逼真?(下)
130 0
【视觉高级篇】24 # 如何模拟光照让3D场景更逼真?(下)
|
数据可视化
【视觉高级篇】23 # 如何模拟光照让3D场景更逼真?(上)
【视觉高级篇】23 # 如何模拟光照让3D场景更逼真?(上)
158 0
【视觉高级篇】23 # 如何模拟光照让3D场景更逼真?(上)
|
传感器 机器学习/深度学习 编解码
激光雷达与视觉联合标定综述!(系统介绍/标定板选择/在线离线标定等)
由于2D识别的成功,论文引入了一个大型基准,称为OMNI3D,重新审视了3D目标检测的任务。OMNI3D对现有数据集进行了重新利用和组合,生成了234k张图像,标注了300多万个实例和97个类别。由于相机内参的变化以及场景和目标类型的丰富多样性,这种规模的3D检测具有挑战性。论文提出了一个名为Cube R-CNN的模型,旨在通过统一的方法在摄像机和场景类型之间进行泛化。结果表明,在更大的OMNI3D和现有基准上,Cube R-CNN优于先前的工作。最后,论文证明了OMNI3D是一个强大的3D目标识别数据集,表明它提高了单个数据集的性能,并可以通过预训练加速对新的较小数据集的学习。
激光雷达与视觉联合标定综述!(系统介绍/标定板选择/在线离线标定等)
|
机器学习/深度学习 传感器 存储
一文尽览 | 全景/鱼眼相机低速自动驾驶的近距离感知(识别+重建+定位+工程化)(下)
本文的工作部分受到了Malik等人在[5]中的工作的启发。这项工作的作者提出,计算机视觉的核心问题是重建、识别和重组,他们称之为计算机视觉的3R。在此,论文建议将计算机视觉的3R扩展并专门化为自动驾驶计算机视觉的4R:重建、识别、重组和重新定位。
一文尽览 | 全景/鱼眼相机低速自动驾驶的近距离感知(识别+重建+定位+工程化)(下)
|
传感器 机器学习/深度学习 人工智能
一文尽览 | 全景/鱼眼相机低速自动驾驶的近距离感知(识别+重建+定位+工程化)(上)
本文的工作部分受到了Malik等人在[5]中的工作的启发。这项工作的作者提出,计算机视觉的核心问题是重建、识别和重组,他们称之为计算机视觉的3R。在此,论文建议将计算机视觉的3R扩展并专门化为自动驾驶计算机视觉的4R:重建、识别、重组和重新定位。
一文尽览 | 全景/鱼眼相机低速自动驾驶的近距离感知(识别+重建+定位+工程化)(上)