Pular para o conteúdo principal

Limelight Lib Python

limelightlib-python é a maneira mais fácil de interagir com dispositivos Limelight. Funciona em todos os sistemas operacionais (MacOS, Windows, Linux) e arquiteturas (x86, ARM).

Instalação

pip install limelightlib-python

Uso

import limelight
import limelightresults
import json
import time

discovered_limelights = limelight.discover_limelights(debug=True)
print("limelights descobertos:", discovered_limelights)

if discovered_limelights:
limelight_address = discovered_limelights[0]
ll = limelight.Limelight(limelight_address)
results = ll.get_results()
status = ll.get_status()
print("-----")
print("resultados de direcionamento:", results)
print("-----")
print("status:", status)
print("-----")
print("temperatura:", ll.get_temp())
print("-----")
print("nome:", ll.get_name())
print("-----")
print("fps:", ll.get_fps())
print("-----")
print("relatório de hardware:", ll.hw_report())

ll.enable_websocket()

# imprime as configurações atuais do pipeline
print(ll.get_pipeline_atindex(0))

# atualiza o pipeline atual e salva no disco
pipeline_update = {
'area_max': 98.7,
'area_min': 1.98778
}
ll.update_pipeline(json.dumps(pipeline_update),flush=1)

print(ll.get_pipeline_atindex(0))

# muda para o pipeline 1
ll.pipeline_switch(1)

# atualiza dados personalizados do usuário
ll.update_python_inputs([4.2,0.1,9.87])


try:
while True:
result = ll.get_latest_results()
parsed_result = limelightresults.parse_results(result)
if parsed_result is not None:
print("alvos válidos: ", parsed_result.validity, ", índice do pipeline: ", parsed_result.pipeline_id,", Latência de direcionamento: ", parsed_result.targeting_latency)
#for tag in parsed_result.fiducialResults:
# print(tag.robot_pose_target_space, tag.fiducial_id)
time.sleep(1) # Defina como 0 para máximo fps


except KeyboardInterrupt:
print("Programa interrompido pelo usuário, encerrando.")
finally:
ll.disable_websocket()

Métodos

Baseados em REST

  • get_results(): Busca os últimos resultados via HTTP GET.
  • capture_snapshot(snapname): Captura um snapshot com um nome específico.
  • upload_snapshot(snapname, image_path): Faz upload de um snapshot com um nome e arquivo de imagem específicos.
  • snapshot_manifest(): Recupera o manifesto de snapshots via HTTP GET.
  • delete_snapshots(): Exclui todos os snapshots via HTTP GET.
  • upload_neural_network(nn_type, file_path): Faz upload de um arquivo de rede neural com um tipo especificado.
  • hw_report(): Busca relatório de hardware via HTTP GET.
  • cal_default(): Busca dados de calibração padrão via HTTP GET.
  • cal_file(): Busca dados de calibração do arquivo via HTTP GET.
  • cal_eeprom(): Busca dados de calibração da EEPROM via HTTP GET.
  • cal_latest(): Busca os dados de calibração mais recentes via HTTP GET.
  • update_cal_eeprom(cal_data): Atualiza dados de calibração na EEPROM via HTTP POST.
  • update_cal_file(cal_data): Atualiza dados de calibração no arquivo via HTTP POST.
  • delete_cal_latest(): Exclui os dados de calibração mais recentes via HTTP DELETE.
  • delete_cal_eeprom(): Exclui dados de calibração da EEPROM via HTTP DELETE.
  • delete_cal_file(): Exclui dados de calibração do arquivo via HTTP DELETE.

Baseados em WebSocket

  • enable_websocket(): Inicializa e inicia uma conexão WebSocket em outra thread.
  • disable_websocket(): Fecha a conexão WebSocket e une a thread.
  • get_latest_results(): Retorna os últimos resultados recebidos do WebSocket.

Análise

  • limelightresults.parse_results(): Analisa os resultados e retorna um objeto GeneralResult

Especificação da Classe de Resultado

class GeneralResult:
def __init__(self, results):
self.barcode = results.get("Barcode", [])
self.classifierResults = [ClassifierResult(item) for item in results.get("Classifier", [])]
self.detectorResults = [DetectorResult(item) for item in results.get("Detector", [])]
self.fiducialResults = [FiducialResult(item) for item in results.get("Fiducial", [])]
self.retroResults = [RetroreflectiveResult(item) for item in results.get("Retro", [])]
self.botpose = results.get("botpose", [])
self.botpose_wpiblue = results.get("botpose_wpiblue", [])
self.botpose_wpired = results.get("botpose_wpired", [])
self.capture_latency = results.get("cl", 0)
self.pipeline_id = results.get("pID", 0)
self.robot_pose_target_space = results.get("t6c_rs", [])
self.targeting_latency = results.get("tl", 0)
self.timestamp = results.get("ts", 0)
self.validity = results.get("v", 0)
self.parse_latency = 0.0


class RetroreflectiveResult:
def __init__(self, retro_data):
self.points = retro_data["pts"]
self.camera_pose_target_space = retro_data["t6c_ts"]
self.robot_pose_field_space = retro_data["t6r_fs"]
self.robot_pose_target_space = retro_data["t6r_ts"]
self.target_pose_camera_space = retro_data["t6t_cs"]
self.target_pose_robot_space = retro_data["t6t_rs"]
self.target_area = retro_data["ta"]
self.target_x_degrees = retro_data["tx"]
self.target_x_pixels = retro_data["txp"]
self.target_y_degrees = retro_data["ty"]
self.target_y_pixels = retro_data["typ"]

class FiducialResult:
def __init__(self, fiducial_data):
self.fiducial_id = fiducial_data["fID"]
self.family = fiducial_data["fam"]
self.points = fiducial_data["pts"]
self.skew = fiducial_data["skew"]
self.camera_pose_target_space = fiducial_data["t6c_ts"]
self.robot_pose_field_space = fiducial_data["t6r_fs"]
self.robot_pose_target_space = fiducial_data["t6r_ts"]
self.target_pose_camera_space = fiducial_data["t6t_cs"]
self.target_pose_robot_space = fiducial_data["t6t_rs"]
self.target_area = fiducial_data["ta"]
self.target_x_degrees = fiducial_data["tx"]
self.target_x_pixels = fiducial_data["txp"]
self.target_y_degrees = fiducial_data["ty"]
self.target_y_pixels = fiducial_data["typ"]

class DetectorResult:
def __init__(self, detector_data):
self.class_name = detector_data["class"]
self.class_id = detector_data["classID"]
self.confidence = detector_data["conf"]
self.points = detector_data["pts"]
self.target_area = detector_data["ta"]
self.target_x_degrees = detector_data["tx"]
self.target_x_pixels = detector_data["txp"]
self.target_y_degrees = detector_data["ty"]
self.target_y_pixels = detector_data["typ"]

class ClassifierResult:
def __init__(self, classifier_data):
self.class_name = classifier_data["class"]
self.class_id = classifier_data["classID"]
self.confidence = classifier_data["conf"]