You are on page 1of 6

Um Sistema de Acompanhamento Visual para

Robôs Móveis Semi-autônomos em Ambientes


Semi-estruturados
Ricardo Figueiredo Machado, Paulo Fernando Ferreira Rosa, Antônio E. Carrilho da Cunha, Diego Félix de
Almeida

Resumo— Este trabalho apresenta um Sistema de Acompan- fortemente do sentido visual. Uma destas importantes capaci-
hamento Visual de Alvo por Robô com rodas (SAVAR) para dades é a de rastrear os objetos.
ambientes semi-estruturados, capaz de controlar dois graus de O ser humano ao rastrear um alvo móvel concentra boa
liberdade do robô e de uma câmera de rede embarcada. Dois
controladores são usados, um para a plataforma robótica e outro parte da atenção no objeto de interesse, mas mantém relativa
para a câmera, com o objetivo de permitir a independência de percepção do entorno para detecção dos objetos móveis e
movimentos da câmera e do robô na execução da tarefa de estáticos, quando na sua condução em direção ao alvo. Para
acompanhamento com desvio de obstáculos. A configuração do isso aplicamos métodos distintos para rastrear um objeto,
sistema em malha fechada é realizada sob uma WLAN(Wireless navegar e evitar colisões. Assim, é natural esperar-se que um
Local Area Network) com tecnologia padrão 802.11b/g. Nesta
abordagem o maior custo computacional é realizado por um sistema artificial cognitivo seja desenvolvido para, até certo
computador (host) e algoritmos de baixo custo computacional ponto, ser capaz de demonstrar capacidades semelhantes.
embarcados no hardware do robô. São empregados os sensores Em se tratando de robôs, os aspectos relacionados à visão se
inerciais (giroscópios, compasso digital e acelerômetro) como referem à sua capacidade de perceber visualmente o ambiente
suporte à orientação e navegação. e com ele interagir. A visão do robô para o cumprimento de
Palavras-Chave— Robôs móveis, Visão computacional, Sen- suas tarefas se estende ao campo da visão computacional, não
sores inerciais, Sistemas embarcados. sendo uma entidade isolada, mas parte de um sistema mais
Abstract— This paper presents a visual tracking system of complexo. Com isso as informações visuais foram incluı́das
targets by wheeled mobile robots on semi-structured environ- na malha de realimentação das formulações de controle da
ments(Sistema de Acompanhamento Visual de Alvos por Robô postura do robô. Esta estratégia de controle é atualmente
- SAVAR), capable of controlling two degrees of freedom robot
and a network camera loaded. Two controllers are used, one conhecida como controle servo visual [1].
for the robotic platform and another for the camera, in order Na detecção de objetos, uma qualidade desejável de um
to allow the independence movements of the camera and the ponto de interesse é a sua invariância a mudanças na
robot in performing the task of tracking with obstacle avoidance. iluminação e do ponto de vista da câmera. Na literatura,
The configuration in the closed loop system is performed under os detectores de ponto de interesse mais usados incluem: o
a WLAN(Wireless Local Area Network) technology standard
802.11b/g. In this approach, the major computational cost is detector Harris [?]; o detector KLT [3] e o detector SIFT(Scale
achieved by a computer (host) and low computational cost Invariant Feature Transform) [4]. Eles são usados para lo-
algorithms are embedded in the hardware of the robot. Inertial calizar pontos de interesse em imagens que tem uma expres-
sensors (gyroscopes, digital compass and accelerometer) are used siva textura em suas respectivas localidades. Mikolajczyk e
as support to the guidance and navigation. Schmid [5] apresentam uma avaliação empı́rica.
Keywords— Mobile robot, Computer vision, Inertial sensors, Outra abordagem muito comum é executar a subtração
Embedded system. de um modelo de fundo do quadro da imagem observada;
a parte da imagem que difere significativamente do modelo
de fundo, representa os objetos em movimento. Resultados
I. I NTRODUÇ ÃO
experimentais comparativos de diversos métodos [6], mostram
Para muitas espécies vivas a percepção visual desempenha que as técnicas mais simples, como a mediana filtragem
um papel fundamental em seu comportamento. A capacidade adaptativa pode produzir bons resultados com uma menor
de coordenação do tipo mão-olho dá a flexibilidade, a destreza complexidade computacional .
e robustez de movimento que uma máquina ainda não pode A literatura chama de detecção ao processo de identificação
executar. Para os seres humanos localizar e identificar objetos de um objeto em uma imagem estática. Cada processo exige
estáticos ou em movimento, bem como compreender e de- um método para detectar um objeto em cada quadro ou
terminar a forma de lidar com estes, muitas vezes depende do primeiro objeto que aparece no vı́deo. Alguns métodos
de detecção de objetos fazem uso da informação temporal
Ricardo Figueiredo Machado, Paulo Fernando Ferreira Rosa, Antônio calculada a partir de uma sequência de quadros para reduzir
E. Carrilho da Cunha, Diego Félix de Almeida¸ Seção de Engenharia o número de falsas detecções. Essa informação temporal é
de Defesa, Instituto Militar de Engenharia, Rio de Janeiro, Brasil, E-
mails: rfm61@hotmail.com, rpaulo@ime.eb.br, carrilho@ime.eb.br, diegob- geralmente sob a forma de diferenciação de quadros, o que
ill@gmail.com. Este trabalho é parte de tema de dissertação de Mestrado. evidencia a mudança das regiões de busca em quadros consec-
utivos. A detecção de objetos requer uma pesquisa particular Com base nos resultados de trabalhos recentes e o fato de
do objeto de interesse. Os métodos mais utilizados neste não existir um sistema para rastreamento visual para os robôs
contexto, devido a precisão são os detectores pontuais [7]. do laboratório do IME, surgiu a inspiração para a presente
Assim sendo, a elaboração de sistemas de acompanhamento trabalho.
visual por robôs móveis que possa lidar com objetos móveis ou
estáticos no seu ambiente de trabalho, assume uma relevante III. A PRESENTAÇ ÃO DO P ROBLEMA
importância para aplicações robóticas civis e militares.
No cenário semi-estruturado, resolveremos o problema de
O artigo está estruturado em cinco seções distintas: a seção
acompanhamento visual por um robô móvel terrestre dotado
II apresenta uma sı́ntese de trabalhos correlatos; a seção III
apenas de uma câmera como seu único sistema sensorial.
trata do enunciado do problema; a seção IV apresenta a visão
Na maioria das atividades industriais automatizadas o robô
geral do Sistema, os aspectos teóricos do desenvolvimento de
tem conhecimento exato de sua posição, da posição dos objetos
um robô experimental e sua eletrônica embarcada e ao final,
e obstáculos, operando assim em ambientes completamente
na seção V a conclusão e as referências.
estruturados, a exemplo dos robôs industriais utilizados em
linha de montagem. Por ambiente estruturado entende-se, um
II. T RABALHOS CORRELATOS ambiente no qual algumas pré-condições podem ser estabele-
cidas e garantidas, como o tipo de solo para navegação, que
Um sistema de detecção e rastreamento visual de faces hu-
seja adequado a anatomia do robô e a existência de marcos
manas em tempo real, para um robô humanoide, foi proposto
confiáveis à navegação, entre outros.
por [8], usando um computador embarcado. O autor utiliza o
Em ambientes onde estas condições iniciais não podem
método baseado de gradientes de intensidade e histogramas de
ser totalmente garantidas e respeitados, semi-estruturado, um
cores. As imagens são transmitidas por sinal de rádio para um
certo grau de autonomia deve ser dado ao sistema de controle
computador, que processa o algoritmo de visão que gerencia
do robô, para que a execução da tarefa seja realizada com
e executa o rastreamento visual. O desempenho do sistema
segurança. Também nesses ambientes é fundamental que a
consumiu 112ms para processamento da imagem a taxas de
resposta do sistema robótico seja adequada à dinâmica não-
9, 8 quadros/segundo e 0, 21 segundo/imagem para rastrear.
linear do meio e à sua interação em tempo real. Assim se
Trabalhos recentes como [9], [10] e [11] utilizam o plano
faz necessário um aumento da quantidade de sensores para
da imagem para rastreamento visual. Os dois primeiros são
interação com o meio, o que acarreta um aumento dos custos
baseados na estimativa de erro, controle de robôs móveis
e maior complexidade do sistema robótico.
e controle robusto baseado em método direto de Lyapunov,
assegurando uma estabilidade global assintótica da malha
fechada do sistema de monitoramento visual. O último utiliza IV. V IS ÃO G ERAL DO S ISTEMA
uma dual jacobiana, de forma à acoplar o controle do modelo Neste trabalho propomos um Sistema de Acompanhamento
do robô e do alvo. Como estimador foi utilizado um filtro de de Alvo móvel por Robô (SAVAR) capaz de controlar dois
Kalman auto ajustável. O modelo é robusto em relação as leis graus de liberdade do robô e de uma câmera embarcada. São
de controle, entretanto tem restrições, devido a distribuição usados dois controladores: um para a plataforma robótica e
Gaussiana incerta e taxa de amostragem uniforme. O sistema outro para a câmera.
visual é dotado de um grau de liberdade. A utilização de dois controladores se deve à existência de
A indústria começa a se desenvolver e adotar soluções diferentes tempos de discretização nos processos de rastrea-
RTE(Real-Time Ethernet) e atualmente já são conhecidas mais mento visual e controle do robô, como também para permitir
de dez propostas de soluções e as normas IEC(International a independência de movimentos da câmera e do robô quando
Electrotechnical Commission) estão buscando estabelecer uma na execução da tarefa de acompanhamento com desvio de
orientação e critérios de seleção reconhecidas com base em obstáculos. Propõe-se ainda, na configuração do sistema, a
indicadores para o usuário [12], assim as aplicações com utilização de uma rede ethernet sem fio e o uso de uma câmera
robôs de serviço tendem a crescer, e inversamente proporcional de rede. Nesta abordagem o maior custo computacional será
serão os custos finais de seu desenvolvimento, pela menor realizado por um computador (host) e algoritmos de baixo
complexidade de seu hardware. custo computacional embarcados no hardware do robô.
O controle de um motor DC brushless em tempo real foi O uso da tecnologia WLAN e protocolos TCP/IP, introduz
realizado sobre uma rede ethernet, com dois controladores benefı́cios consideráveis ao sistema pela possibilidade de tele-
distintos [13], onde a malha de realimentação foi fechada sob operação de robôs e reutilização do sistema com pouca ou
a rede e supervisionada por um outro computador também nenhuma alteração no hardware do robô e no software em-
remoto. barcado. Estes incluem ainda reduções substanciais no projeto
Um rastreador usando uma câmera de rede PTZ(Pan, Til e no esforço futuros para desenvolvimento de novos contro-
e Zoom) em tempo real é apresentado por [14], onde são ladores, através da utilização de componentes padronizados
utilizados filtros de partı́culas em duas fases de multi-escala, de hardware e de software. Potencialmente amplas vantagens
juntamente com o algoritmo de KLT e um mecanismo de operacionais surgem, em especial a possibilidade de operação
multi-threading. Apesar da latência de transferência de dados remota de qualquer local com ligação à Internet.
sobre uma rede ethernet um controle robusto em tempo real O sistema exerce, a priori, as seguintes funções básicas:
foi alcançado. detecta, estima e persegue um alvo de interesse; desvia de
obstáculos; identifica marcos e exerce o controle cinemático do Feitas as considerações para sua formulação [15], para a
robô para acompanhamento do alvo, usando a imagem como descrição de sua posição, Figura 3, toma-se por base o plano
único sensor do robô. do seu movimento. Nele é fixado uma base inercial ortonormal

− → −
arbitrária {0, X i , Z i }. Define-se um ponto arbitrário P sobre

− → −
V. S UBSISTEMA ROB Ô -C ÂMERA o quadro do robo na base arbitrária {0, X m , Z m }, aplicada
Neste subsistema são realizadas a captura da imagem do ao seu quadro. A posição é completamente definida por três
alvo, de obstáculos e marcos seguros à navegação, além
do controle do robô e do mecanismo PTZ. Duas portas
independentes do módulo de comunicação WiFi são usadas
para o fluxo de dados do módulo de controle dos motores
e da câmera de rede para o computador cliente, cuja as
realimentações das plantas são realizadas sob a rede ehternet
em um cliente remoto. A Figura 1 apresenta o diagrama em
blocos do subsistema.

Fig. 3. Definição da postura do robô.

variáveis x, y e θ, onde x e y são as coordenadas do ponto de


referência P na base inercial e θ é o ângulo de orientação da

− → − →
− → −
base {0, X m , Z m } em relação à {0, X i , Z i }. A sua postura
é então definida por:
 
x
ξ, z  (1)
θ
A matriz de rotação ortogonal que expressa a orientação do

− → −
sistema de coordenadas {0, X m , Z m } em relação ao sistema
Fig. 1. Diagrama em blocos - Subsistema Robô-Câmera inercial é expressa por:
 
cos θ sin θ 0
R(θ) , − sin θ cos θ 0 (2)
A. Robô 0 0 1
Para servir de plataforma experimental ao SAVAR, um Para suas rodas convencionais entende-se que a velocidade
robô móvel foi desenvolvido e construı́do. O protótipo possui no ponto de contato é igual zero e como consequência as
uma estrutura mecânica simples, comumente utilizada em componentes desta velocidade paralela e ortogonal ao plano da
pesquisa de navegação robótica, dotada somente de rodas roda são também iguais a zero [15]. A sua descrição, Figura 4,
convencionais, sendo duas rodas dianteiras fixas(motoras) e é feita tomando-se por base o sistema {Xm , Zm } e um ponto
uma traseira orientável centrada(tipo bola esférica). A figura A no centro da roda, cuja posição em coordenadas polares
2 ilustra o protótipo. é dada pela distância P A = l e o ângulo α. A constante β
representa a orientação do plano da roda em relação a P A, ϕ
é o ângulo de rotação da roda em torno do seu próprio eixo
(horizontal) e r o raio da roda.
A posição de suas rodas é então caracterizada pelas con-
stantes α, l, r, do ângulo variável no tempo ϕ(t) e o ângulo
β, constante para as rodas convencionais fixas e variável no
tempo para as rodas convencionais orientáveis, β(t). Com esta
descrição, as componentes da velocidade no ponto de contato
podem ser facilmente calculadas.
A restrição de rolamento que impõe que todo o movimento
na direção do plano da roda deva ser acompanhado por uma
quantidade apropriada de rotação da roda, de modo que haja
puro rolamento no ponto de contato, resulta que:
Fig. 2. Robô experimental desenvolvido para o SAVAR [− sin(α + β) cos(α + β)l cos β] R(θ)ξ˙ + rϕ̇ = 0 (3)
TABELA I
A S CONSTANTES CARACTER ÍSTICAS DO ROB Ô
Rodas α β `
1f (roda tipo fixa - direita) 0 0 L
2f (roda tipo fixa - esquerda) π 0 L

3c (roda tipo centrada (esférica) - traseira) 2
- L

C1 (βc )R(θ)ξ˙ = 0 (6)


com a seguinte definição 
para o protótipo:
J1f
1) J1 (βc ) , =
 J1c (βc ) 
0 1 0
= 0 −1 0 , onde:
cos βc sin βc L sin βc
Fig. 4. Descrição da roda convencional.
• βc é o ângulo da roda fixa orientável;
• J1f , J1c (βc ), são matrizes de dimensão Nf x3 e
Por outro lado, temos também a restrição de que nenhum Nc x3, respectivamente, derivadas diretamente das
movimento ocorre ortogonal à direção de rolagem, donde se restrições de mobilidade das rodas, Equações 3 e
conclui que a componente do movimento da roda ortogonal 4, e L=104mm.
ao seu plano deve ser zero, assim: 2) J2 é uma matriz diagonal 3x3, onde os elementos são
os raios das rodas do robô, respectivamente rf =50mm
[cos(α + β) sin(α + β)l sin β] R(θ)ξ˙ = 0 (4) e rc = 9.525mm.
 
C1f
No robô α=β=450 , `=137mm, rf (raio da rodas mo- 3) C1 (βc ) , , onde:
C1c (βc )
toras)=50mm e a terceira tipo bola esférica(omnidirecionais)
não possui um eixo principal de rotação, não impondo • C1f e C1c (βc ) são matrizes de dimensões Nf x3 e
restrições sobre a cinemática do chassi do robô. Para esta Nc x3, respectivamente, cuja as formas (linhas) são
última, a Equação 3 descreve simplesmente a taxa nominal derivadas diretamente das restrições de mobilidade
de rotação da esfera na direção do movimento do ponto A do das rodas Equações 4;
robô e por definição, o eixo de rotação ortogonal a essa direção • C1f é uma constante enquanto C1c é variável no
é zero, o que evidencia que as equações para a roda esférica tempo;
são exatamente as mesmas que as das rodas convencionais Para a digiribilidade do robô somente as Nf e as Nc têm
fixas, apenas a interpretação da Equação 4 é diferente. impacto sobre a cinemática do seu chassi, [16] e considerando-
A ideia fundamental é que cada roda impõe zero ou mais se o cálculo das suas restrições cinemáticas, onde N = Nf +
restrições sobre o movimento do robô, assim o processo de Nc , temos explicitamente as restrições da Equação 6 como:
cálculo é simplesmente uma combinação adequada de todas
as restrições cinemáticas decorrentes de todas as rodas, com C1f (βc )R(θ)ξ˙ = 0 (7)
base na colocação dessas rodas no chassis do robô, [16].
Usando o subscrito f e c respectivamente, como referência A Equação 7 implica que o vetor R(θ)ξ˙ pertence ao espaço
para rodas motoras e esférica tipo bola do robô temos que, a nulo da matriz da C1∗ (βc ):
configuração temporal do robô é completamente descrita pelos 
C1f


vetores de coordenadas: C1 (βc ) = (8)
 T C1c (βc )
T
• da postura ξ(t) , x(t) z(t) θ(t) ,
Portanto, a mobilidade do robô fica restrita, no sentido de
• da orientação das rodas βc (t) e
T
 T que, para qualquer trajetória admissı́vel ξ( t), a velocidade ξ˙( t)
• da rotação das rodas ϕ(t) , ϕf (t) ϕc (t) . é obrigada a pertencer ao espaço de distribuição bidimensional
Assim, fica evidente que para o robô desenvolvido o número gerado pelos vetores RT (θ)s1 e RT (θ)s2 , onde s1 e s2 são
total de configurações de coordenadas é sete, ou seja, N = dois vetores unitários span de N(C1f ).
7 = 1(Nf = 2) + 2(Nc = 1) + 3(ξ, β e θ). Sem perda da Em geral, as limitações da mobilidade de um robô móvel
generalidade das equações podemos colocar o seu ponto P no estão relacionadas ao posto(C1∗ ) (menor número de linhas ou
ponto médio entre os centros das duas rodas, [16]. A Figura colunas independentes), que varia de acordo com o projeto
3 ilustra as caracterı́sticas do protótipo: do robô, com isso quanto maior for o posto(C1 (βf )), maiores
As Equações 3 e 4 podem ser reescritas sob uma forma sãos as restrições de mobilidade imposta pelas rodas, onde a
matricial [15], [16] e [17]: Equação 7 representa todas as restrições impostas pelas rodas
deslizantes do robô.
J1 (βc )R(θ)ξ˙ + J2 ϕ̇ = 0 (5) Suas rodas tem uma posição especificada por meio dos

− → −
parâmetros α, β e `, em relação à {0, X m , Z m } (referência principal de controle do robô é personalizada. Esta interface
local no chassi do robô), onde C1 (βc ) é formada por C1 (βf ) com o módulo de comunicação possui duas portas padrão
e C1 (βc ), Equação 6. Sendo o robô dotado apenas de rodas RS232-C e foi desenvolvido utilizando-se o software Eagle
convencionais, onde Nf = 2 e Nc = 1, a matriz C1f tem V5.9, da CadSoft.
duas restrições, mas o posto(C1f ) = 1. A posição considerada O módulo de controle principal é baseado no processador
para o ponto P faz os eixos horizontais das rodas serem LPC2148, com um core ARM7 de 60Mhz, responsável pelo
concorrentes para o CIR(centro instantâneo de rotação), assim controle dos motores e comunicação com os módulos inerciais,
temos que `f 1 =`f 2 , βf 1 =βf 2 =0 e αf 1 =αf 2 , o que resulta com cujas informações são utilizadas pelo estimador de caminhos,
base nas considerações de, [17] em: em conjunto com a odometria das rodas para estimação de
  caminhos seguros. São utilizados sensores auxiliares para
cos(α1 ) sin(α1 ) 0
C1 (βc ) = C1 f = (9) navegação: um sensor HMC5843 (magneto-resistivo) com-
cos(α1 + π) sin(α1 + π) 0
binado com ADXL345 (acelerômetro), um giroscópio duplo
Se sua configuração é inalterada, temos formalmente na IDG-650 (eixo X e Y) e um IDZ-650 (eixo Z), que incluem
literatura, [15], [16] e [17], o seu grau de mobilidade δm toda a eletrônica necessária para uma aplicação funcional,
definido por δm = dimN [C1∗ (βc )] = 3 - posto(C1∗ (βc )). além de um chip de memória OTP para calibração. Toda a
Cada estrutura não singular de um robô móvel sobre ro- comunicação é realizada via I2C.
das é designada utilizando-se uma denominação da forma
”Robô tipo (δm , δs )”, [17]. Com base nas equações antes
VI. S UBSISTEMA DE ACOMPANHAMENTO VISUAL
mencionadas, o protótipo do robô é do tipo (2,0).
A Figura 5 ilustra o SAVAR. A cada quadro Fk (t) ou
B. Controle conjunto de quadros de imagem capturada é realizado no pré-
processamento, sua segmentação e fracionamento em zonas
Em [17] uma dedução usando o modelo Lagrangiano é distintas. Uma ou mais zonas são utilizadas para detecção de
apresentado. Neste modelo a dinâmica considera apenas uma obstáculos, outras na identificação de um marco confiável e as
realimentação global para o controle dinâmico. Disto advém demais no acompanhamento visual de um alvo móvel. Cada
vários inconvenientes como o alto custo computacional, a uma destas zonas é examinada com o emprego de algoritmos
complexidade da análise e a alta sensibilidade as incertezas distintos. Após a aplicação dos algoritmos de detecção de
dos parâmetros do modelo. Sensores inerciais requeridos para
uso nos modelos dinâmicos podem ser caros e imprecisos.
Para o robo foi adotado o controle a partir de uma ótica
cinemática, [15] e [16], muito comum na bibliografia. Por
outro lado a ótica da cinemática é mais simples e sua es-
tabilidade global é garantida, se o controle de baixo nı́vel
(realimentação dinâmica) for muito mais rápido do que o
controle de nı́vel médio (realimentação cinemática). A entrada
para o controle do robô é a referência de acompanhamento
gerada pelo estimador de trajetórias de alto nı́vel.

C. Eletrônica embarcada
A utilização de uma câmera de rede, tem como principal
diferença e vantagem, o fato de que uma saı́da de vı́deo em
formato digital é fornecida e pode ser conectada diretamente
a um switch Ethernet ou roteador, possibilitando o acesso
a imagem através de uma rede IP. Todos os parâmetros de
configuração da imagem podem ser facilmente controlados
Fig. 5. Diagrama em blocos - Subsistema de acompanhamento visual
por métodos HTTP do tipo POS/GET sendo possı́vel mover
nas direções vertical (Tilt) e horizontal (Pan), tornando mais
fácil ajustar o ângulo de visão. O SAVAR utiliza o modelo caracterı́sticas, são utilizados estimadores de rastreamento
Axis214 PTZ (Axis Communications), que possui o recurso visual do alvo e de caminhos seguros ao deslocamento do robô.
de zoom, muito útil para se obter informações detalhadas Com base nessas estimativas, são realizados o rastreamento
do alvo. Essa informações é uma das questões-chave para o visual e aplicado um interpolador de pontos mediais (nós) no
rastreamento visual, pois proporciona um melhor resultado no interior das áreas livres de obstáculos. Parte da informação do
processamento da imagem pelo detector de caracterı́sticas. estimador visual é utilizada na atualização do estimador de
O projeto de hardware usa módulos padrão da indústria Wi- caminho. Segue-se a aplicação de leis de controle especı́ficas
Fi IEEE 802.11a/b/g. para implementação de conectividade a cada processo. Por fim, as diretivas de comandos são
sem fio com a Ethernet/Internet. Estes módulos, MatchPort sincronizadas e enviadas aos controladores de movimentos
b/g e XPort (Lantronix , R Inc. ) , são do tipo servidor Serial- da câmera e do robô. Para cada novo quadro capturado ou
Ethernet. A placa para interface com os módulos e o sistema conjunto de quadros este processo é repetido.
A realimentação do sistema é realizada pela rede, com base padronizados ethernet/serial. Um robô móvel diferencial ex-
nas informações enviadas do controlador do robô (velocidade perimental foi desenvolvido para uso pelo sistema e um algo-
e odometria) e de um parâmetro de erro fixo ε, introduzido ritmo preliminar de acompanhamento visual, baseado somente
no estimador visual. Este parâmetro é imposto, por não ser na cor, foi testado com sucesso.
possı́vel obter a realimentação diretamente do controlador Entre os trabalhos futuros estão a validação do modelo
da câmera (arquitetura proprietária) e de erros intrı́nsecos e a implementação do SAVAR, onde múltiplos algoritmos
ao modelo do robô. Todos os processos de controle são serão executados, habilitando o robô ao acompanhamento e
referenciados ao plano da imagem. navegação em ambientes semi-estruturados.

A. Visão computacional - Resultados preliminares AGRADECIMENTOS


Para testes iniciais de desempenho do software de controle Este trabalho está sendo realizado como parte de requisito
e acompanhamento visual, foi realizado uma varredura dos parcial para obtenção do tı́tulo de Mestre em Engenharia de
pixels de imagem obtida pela câmera, através de um algoritmo Defesa, no curso de Engenharia de Defesa do Instituto Militar
classificador de cores, utilizado no projeto da equipe de de Engenharia. O autor agradece ao Sr. Gilberto Figueiredo
futebol de robôs do IME. Os pixels vizinhos que possuem Machado, da ITEG - Afiação e Ferramentaria, pela usinagem
a mesma classificação, foram considerados um único objeto das partes mecânicas do robô.
e desta forma foi possı́vel calcular o centroide do objeto
de acompanhamento, baseado nos seus pixels extremos. Uma R EFER ÊNCIAS
calibração de cores se fez necessário para o classificador. Obti- [1] Seth Hutchinson, Greg Hager e Peter Corke, A Tutorial on Visual Servo
das as coordenadas do centroide, comandos POST/GET, foram Control, IEEE Transactions on Robotics and Automation, 1996.
[2] C. Harris and M. Stephens, A Combined Corner and Edge Detector,
enviados ao servidor da câmera. O processo é repetido a cada Proceedings of the 4th Alvey Vision Conference, 1988.
quadro da imagem, obtendo-se assim um acompanhamento do [3] Jianbo Shi and Carlo Tomasi, Good Features to Track, editor, 1994.
objeto. [4] Lowe, David G., Distinctive Image Features from Scale-Invariant Key-
points. Int. J. Comput. Vision, 2004.
A Figura 6 apresenta a tela principal do programa de cont- [5] Mikolajczyk, Krystian and Schmid, Cordelia, A Performance Evaluation
role do robô do SAVAR. Ele foi desenvolvido em C#, através of Local Descriptors, IEEE Trans. Pattern Anal. Mach. Intell., 2005.
do ambiente de desenvolvimento Microsoft Visual C# e com [6] Cheung, Sen-Ching S. and Kamath, Chandrika, Robust background
subtraction with foreground validation for urban traffic video, EURASIP
uso de bibliotecas DirectX. O protocolo de controle da câmera J. Appl. Signal Process, 2005.
é baseado no VAPIX (proprietário da Axis Communications). [7] Jong-Il Yoon and Kyoung-Kwan Ahn, Face Tracking System using Em-
bedded Computer for Robot System, SICE-ICASE, 2006. International
Joint Conference, 2006.
[8] Chi-Yi Tsai and Kai-Tai Song, Robust visual tracking control of mobile
robots based on an error model in image plane, Mechatronics and
Automation, 2005 IEEE International Conference, 2005.
[9] Chi-Yi Tsai and Kai-Tai Song, Visual tracking control of a mobile robot
using a new model in image plane, Advanced Robotics, 2005. ICAR
’05. Proceedings., 12th International Conference on, 2005.
[10] Tsai, Chi-Yi and Song, Kai-Tai and Dutoit, Xavier and Van Brussel,
Hendrik and Nuttin, Marnix, Robust visual tracking control system of a
mobile robot based on a dual-Jacobian visual interaction model, Robot.
Auton. Syst., 2009.
[11] Felser, M., Real-Time Ethernet - Industry Prospective, Proceedings of
the IEEE, 2005.
[12] , Dinh, T. and Qian Yu and Medioni, G., Real time tracking using an
active pan-tilt-zoom network camera, Intelligent Robots and Systems,
2009. IROS 2009. IEEE/RSJ International Conference on, 2009.
[13] Samaranayake, L. and Alahakoon, S. and Walgama, K., Speed controller
strategies for distributed motion control via ethernet, Intelligent Control.
2003 IEEE International Symposium on, 2003.
[14] , Yuan Li and Haizhou Ai and Yamashita, T. and Shihong Lao and
Kawade, M., Tracking in Low Frame Rate Video: A Cascade Particle
Fig. 6. Software preliminar do SAVAR Filter with Discriminative Observers of Different Lifespans, Computer
Vision and Pattern Recognition, 2007. CVPR ’07. IEEE Conference on,
2007.
[15] , de Wit, Carlos Canudas and Bastin, Georges and Siciliano, B., Theory
of Robot Control, Springer-Verlag New York, Inc., 1996.
VII. C ONCLUS ÕES [16] , Siegwart, Roland and Nourbakhsh, I. R., Introduction to Autonomous
Mobile Robots, Bradford Company, 2004.
Neste trabalho, apresentamos um conceito de um sistema [17] , Campion, G. and Bastin, G. and Dandrea-Novel, B., Structural prop-
de acompanhamento visual e módulo de controle para robôs erties and classification of kinematic and dynamic models of wheeled
móveis sobre rodas, com realimentação da planta sobre uma mobile robots, Robotics and Automation, IEEE Transactions on, 1996.
rede Ethernet sem fio WiFi. Uma unidade de controle para
o robô foi testada e programas escritos para suas funções
básicas, mostrando-se completamente funcional. Ela pode se
comunicar com êxito via WiFi em RS232, recebendo co-
mandos e enviando dados dos sensores a partir de módulos

You might also like