layout | title | subtitle |
---|---|---|
page |
Vertbot |
Projeto open-source para o desenvolvimento de um robô diferencial |
{% assign date_format = site.date_format | default: "%B %-d, %Y" %} {%- capture site_tags -%} {%- for tag in site.tags -%} {% if tag contains 'vertbot' %} {{- tag | first -}}{%- unless forloop.last -%},{%- endunless -%} {% endif %} {%- endfor -%} {%- endcapture -%} {%- assign tags_list = site_tags | split:',' | sort -%}
{{- tag -}}-posts ({{site.tags[tag].size}}) {%- endfor -%}
Vertbot é um robô diferencial open-source, que está sendo elaborado a partir do kit de desenvolvimento Jetson Nano, fabricado pela NVIDIA, além de múltiplos sensores e uma estrutura produzida por impressão 3D. Seu nome foi pensado pelo fato da fabricante do kit Jetson Nano utilizar tons de verde em sua marca e por decisão da equipe o termo Vert (verde em Francês) foi adotado como nome do modelo.
O projeto tem como objetivo encontrar uma esfera em um ambiente indoor de forma autônoma, utilizando sensores ópticos, sensores laser e sensores ultrassônicos, e deve ao mesmo tempo executar manobras de desvio de obstáculo. A execução dessa atividade teve início dia 10 de maio e está planejada para ser encerrada dia 20 de agosto.
As atividades citadas tem como razão exercer na prática as funções de navegação autônoma para a execução de tarefas pré-determinadas atreladas a tags pré-estabelecidas, que serão reconhecidas e lidas por componentes de visão computacional. Também serão executadas tarefas relacionadas a gestão de projeto a fim de estimular e desenvolver aprendizado da parte de documentação e organização por parte do planejamento.
Para possibilitar uma navegação autônoma é necessário que o robô seja capaz de reconhecer o ambiente onde ele irá atuar. Portanto, um conjunto de sensores foram selecionados para captar informações dos arredores para que o robô tome suas decisões para suas ações. Os sensores escolhidos foram os listados a seguir.
<style> .vertical-center { margin: 0; position: absolute; top: 50%; -ms-transform: translateY(-50%); transform: translateY(-50%); } </style>O modelo de sensor escolhido para identificar obstáculos na trajetória do robô e calcular a distância desse obstáculo até o mesmo é o Sonar HC-SR04, que é um sensor ultrassônico com uma faixa de funcionamento entre 2 cm e 4 metros.Seu princípio de funcionamento é baseado na emissão e recepção de ondas sonoras.
O dispositivo escolhido para permitir a localização e mapeamento simultâneo (SLAM) do robô é o 360 Laser Distance Sensor LDS-01, que é um LiDAR capaz de medir a distância do robô para objetos em uma cobertura de 360 graus.
Para realizar a identificação de marcos fiduciais, também conhecidos como TAG's, e também para detectar a esfera, que é missão do robô, será utilizada uma câmera de alta resolução, a Raspberry Pi Camera Module V2.
Para auxiliar no processo de localização por odometria e detecção de obstáculos é utilizada a câmera estéreo Mynt Eye S1030. Além do seu campo de visão, o componente dispõe de uma IMU, possibilitando a realização da odometria.
Além dos sensores, foram selecionados também componentes para a realização da parte de processamento, apresentados a seguir.
Como unidade central de processamento, por onde passará todo fluxo de informação, será utilizado o computador de pequeno porte Jetson Nano Developer Kit. O sistema operacional que será utilizado na Jetson Nano é o Ubuntu 20.04 e o software que auxilia no processamento e gerenciamento de informação é o Robot Operating System, versão Noetic.
Os sensores HC-SR04, o Current Sensor 1122 e o Voltage Sensor 1135 são sensores com saída analógica de 0 V a 5V, sendo que a o sinal de entrada máximo suportado pela portas analógicas da Jetson Nano são de 3,3 V. Diante disso, foi escolhida como unidade de processamento auxiliar o Arduino Nano
Alguns componentes foram escolhidos para compor a parte elétrica/eletrônica para atuar na parte tanto de alimentação como de gerênciamento de enérgia.
Para realizar a gestão e monitoramento da carga das baterias que irão alimentar o sistema robótico é utilizado o sensor de tensão 1135 da marca Phidgets que é capaz de medir tensões DC na faixa de -30 V até 30 V.
O sensor de corrente, também utilizado para gerir e monitorar a carga da bateria, é o Current Sensor 1122, da marca Phidgets, capaz de medir correntes de 75 mA até 30 A em módulo.
Para comportar as duas baterias recarregáveis de íon de lítio do modelo 18650 de 4,2 V, que irão alimentar o sistema, é utilizado o Battery Shield 18650 V8.
Por fim, para a movimentação do robô foram selecionados um par de motores seguido de um shield para gerencia-los.
Para a realização do processo de simulação, será utilizado o sistema ROS (Robot Operating System) na versão Noetic para Ubuntu 20.04. O ROS é uma plataforma open-source que conta com uma vasta biblioteca de software framework para desenvolvimento de projetos na área da robótica, além de ser capaz de funcionar em computadores de diversas configurações.
{: style="float: right; padding-left: 50px;"}
Os trabalhos já iniciados na parte de simulação já conta com um workspace e um modelo desenvolvido para rodar no ambiente do Gazebo, que é o programa de simulação que trabalha em conjunto com o ROS.
- Categoria: Robótica móvel
- Prazo: 4 meses
- Data de início: 10/05/2021
- Data de término: 20/08/2021
- Repositório URL:
- Sponsor: Senai CIMATEC
- Recursos materiais: --
- Apresentação URL:
- Report URL:
- Artigos relacionados:
- NVIDIA, Jetbot. Acesso em: 17 de Maio de 2021.