跳到主要内容

NetworkTables API

Limelight OS 具有 NetworkTables 4 客户端。它根据设置 UI 中配置的团队编号/ID,自动连接到 FRC 机器人上运行的 NetworkTables 4 服务器。

所有数据都发布到与设备名称匹配的表中(例如:"limelight")。如果为您的相机分配了主机名/昵称,表名将与完整的 limelight 名称匹配(例如:"limelight-top")。

LimelightLib WPIJava 和 LimelightLib WPICPP 通过 NetworkTables 与 Limelight 设备交互。

基本目标数据

使用以下代码:

NetworkTableInstance.getDefault().getTable("limelight").getEntry("<variablename>").getDouble(0);

获取以下数据:

类型描述
tvint如果存在有效目标则为 1。如果不存在有效目标则为 0
txdouble从准星到目标的水平偏移(LL1:-27 度到 27 度 / LL2:-29.8 到 29.8 度)
tydouble从准星到目标的垂直偏移(LL1:-20.5 度到 20.5 度 / LL2:-24.85 到 24.85 度)
txncdouble从主像素到目标的水平偏移(度)
tyncdouble从主像素到目标的垂直偏移(度)
tadouble目标区域(图像的 0% 到 100%)
tldouble管道的延迟贡献(毫秒)。添加到 "cl" 以获得总延迟。
cldouble捕获管道延迟(毫秒)。从传感器中间行曝光结束到跟踪管道开始的时间。
t2ddouble包含匹配时间戳统计信息的数组:[targetValid, targetCount, targetLatency, captureLatency, tx, ty, txnc, tync, ta, tid, targetClassIndexDetector, targetClassIndexClassifier, targetLongSidePixels, targetShortSidePixels, targetHorizontalExtentPixels, targetVerticalExtentPixels, targetSkewDegrees]
getpipeint相机的真实活动管道索引(0 .. 9)
getpipetypestring管道类型,例如 "pipe_color"
jsonstring目标结果的完整 JSON 转储。必须在 'output' 选项卡中按管道启用
tclassstring主要神经检测器结果或神经分类器结果的类名
tcdoubleArray获取准星区域下方的平均 HSV 颜色(3x3 像素区域)作为数字数组
hbdouble心跳值。每帧增加一次,在 20 亿时重置
hwdoubleArray硬件指标 [fps, cpu 温度, 内存使用率, 温度]
crosshairsdoubleArray2D 准星 [cx0, cy0, cx1, cy1]
tcclassstring分类器管道计算的类名
tdclassstring检测器管道的主要检测类名

AprilTag和3D数据

使用以下代码:

NetworkTableInstance.getDefault().getTable("limelight").getEntry("<variablename>").getDoubleArray(new double[6]);

获取以下数据:

键名类型描述
botposedoubleArray机器人在场地空间中的变换。平移(X,Y,Z)单位为米,旋转(Roll,Pitch,Yaw)单位为度,总延迟(cl+tl),标签数量,标签跨度,相机到标签的平均距离,平均标签面积(图像百分比)
botpose_wpibluedoubleArray机器人在场地空间中的变换(蓝色驾驶站WPILIB原点)。平移(X,Y,Z)单位为米,旋转(Roll,Pitch,Yaw)单位为度,总延迟(cl+tl),标签数量,标签跨度,相机到标签的平均距离,平均标签面积(图像百分比)
botpose_wpireddoubleArray机器人在场地空间中的变换(红色驾驶站WPILIB原点)。平移(X,Y,Z)单位为米,旋转(Roll,Pitch,Yaw)单位为度,总延迟(cl+tl),标签数量,标签跨度,相机到标签的平均距离,平均标签面积(图像百分比)
botpose_orbdoubleArray机器人在场地空间中的变换(Megatag2)。平移(X,Y,Z)单位为米,旋转(Roll,Pitch,Yaw)单位为度,总延迟(cl+tl),标签数量,标签跨度,相机到标签的平均距离,平均标签面积(图像百分比)
botpose_orb_wpibluedoubleArray机器人在场地空间中的变换(Megatag2)(蓝色驾驶站WPILIB原点)。平移(X,Y,Z)单位为米,旋转(Roll,Pitch,Yaw)单位为度,总延迟(cl+tl),标签数量,标签跨度,相机到标签的平均距离,平均标签面积(图像百分比)
botpose_orb_wpireddoubleArray机器人在场地空间中的变换(Megatag2)(红色驾驶站WPILIB原点)。平移(X,Y,Z)单位为米,旋转(Roll,Pitch,Yaw)单位为度,总延迟(cl+tl),标签数量,标签跨度,相机到标签的平均距离,平均标签面积(图像百分比)
camerapose_targetspacedoubleArray相机在主视图AprilTag坐标系中的3D变换(数组(6)) [tx, ty, tz, pitch, yaw, roll] (米,度)
targetpose_cameraspacedoubleArray主视图AprilTag在相机坐标系中的3D变换(数组(6)) [tx, ty, tz, pitch, yaw, roll] (米,度)
targetpose_robotspacedoubleArray主视图AprilTag在机器人坐标系中的3D变换(数组(6)) [tx, ty, tz, pitch, yaw, roll] (米,度)
botpose_targetspacedoubleArray机器人在主视图AprilTag坐标系中的3D变换(数组(6)) [tx, ty, tz, pitch, yaw, roll] (米,度)
camerapose_robotspacedoubleArray相机在机器人坐标系中的3D变换(数组(6))
tidint主视图AprilTag的ID
stddevsdoubleArrayMegaTag标准差 [MT1x, MT1y, MT1z, MT1roll, MT1pitch, MT1Yaw, MT2x, MT2y, MT2z, MT2roll, MT2pitch, MT2yaw]
camerapose_robotspace_setdoubleArray设置相机在机器人坐标系中的位姿。
priorityidint设置tx/ty目标所需的ID。忽略其他目标。不影响定位
robot_orientation_setdoubleArray设置机器人方向和角速度,单位为度和度/秒[偏航,偏航率,俯仰,俯仰率,横滚,横滚率]
fiducial_id_filters_setdoubleArray覆盖用于定位的有效基准ID(数组)
fiducial_offset_setdoubleArray设置3D兴趣点偏移[x,y,z]

相机控制

使用以下代码:

NetworkTableInstance.getDefault().getTable("limelight").getEntry("<variablename>").setNumber(<value>);

设置以下数据:

ledMode设置limelight的LED状态
[0]使用当前管道中设置的LED模式
[1]强制关闭
[2]强制闪烁
[3]强制开启
pipeline设置limelight的当前管道
0 .. 9选择管道0..9
stream设置limelight的流模式
0标准 - 如果网络摄像头连接到Limelight,则并排显示流
1画中画主要 - 次要相机流放置在主相机流的右下角
2画中画次要 - 主相机流放置在次要相机流的右下角
crop(数组) 设置裁剪矩形。管道必须在Web界面中使用默认裁剪矩形。数组必须恰好有4个条目。
[0]X0 - 裁剪矩形的最小或最大X值(-1到1)
[1]X1 - 裁剪矩形的最小或最大X值(-1到1)
[2]Y0 - 裁剪矩形的最小或最大Y值(-1到1)
[3]Y1 - 裁剪矩形的最小或最大Y值(-1到1)
throttle_set(int) 我们建议在禁用时将其设置为100-200。设置处理帧之间要跳过的帧数,以减少温度上升。在跳过的帧期间,输出不会归零。
double[] cropValues = new double[4];
cropValues[0] = -1.0;
cropValues[1] = 1.0;
cropValues[2] = -1.0;
cropValues[3] = 1.0;
NetworkTableInstance.getDefault().getTable("limelight").getEntry("crop").setDoubleArray(cropValues);

IMU控制

键名类型描述
imumode_setint设置IMU模式。0 - 使用外部IMU,1 - 使用外部IMU,为内部IMU提供种子,2 - 使用内部IMU,3 - 使用内部IMU并由MT1辅助收敛,4 - 使用内部IMU并由外部IMU辅助收敛
imuassistalpha_setdouble互补滤波器alpha/强度。较高的值将使内部IMU更快地收敛到辅助源。默认值设置为较低的0.001,因为我们现在比以前更信任内部IMU。辅助模式旨在非常轻柔地将内部IMU"拉向"所选的辅助源。

Python

Python 脚本允许任意的入站和出站数据。

llpython由 Python 脚本发送的数字数组。这在机器人代码中可访问。
llrobot由机器人发送的数字数组。这在 Python SnapScripts 中可访问。

原始数据

角点:

在"Output"(输出)选项卡中启用"send contours"(发送轮廓)以流式传输角点坐标:

tcornxy角点坐标的数字数组 [x0,y0,x1,y1......]

原始目标:

Limelight 向 NetworkTables 发布三个不受分组模式影响的原始轮廓。也就是说,它们通过您的管道参数进行过滤,但从不分组。X 和 Y 以归一化屏幕空间(-1 到 1)而非角度返回。

rawtargets[txnc,tync,ta,txnc2,tync2,ta2....]

原始基准标记:

获取所有有效(未过滤)的基准标记

rawfiducials [id, txnc, tync, ta, distToCamera, distToRobot, ambiguity, id2.....]

原始检测:

获取所有有效(未过滤)的神经网络检测结果

rawdetections [id, txnc, tync, ta, corner0x, corner0y, corner1x, corner1y, corner2x, corner2y, corner3x, corner3y, id2.....]

原始条形码:

获取所有有效(未过滤)的条形码结果

rawbarcodes 条形码数据的字符串数组