• Nowy
Waveshare 26801 - widok poglądowy
search
  • Waveshare 26801 - widok poglądowy
  • Waveshare 26801 - widok pod kątem
  • Waveshare 26801 -widok od lewego boku
  • 26801-widok od prawego boku
  • Waveshare 26801 - widok od przodu
  • Waveshare 26801 - widok od tyłu
  • 26801-widok od dołu z lidarem
  • Waveshare 26801 - widok od dołu
ID: 1192381
2 280,70 zł
Brutto

1 854,23 zł Netto

Zaawansowany zestaw autonomicznego robota AI z architekturą dwukontrolerową, oparty na Jetson Nano, przeznaczony do pracy z ROS, mapowania LIDAR, przetwarzania obrazu oraz inteligentnej interakcji głosowej. Waveshare JetRacer ROS AI Kit B (EU)

24h
Dostępny
Dostępna ilość: 1
Kamami jest oficjalnym dystrybutorem ekranów, akcesoriów oraz modułów marki Waveshare.

Opis

JetRacer Professional Version ROS AI Kit B to profesjonalny zestaw robota mobilnego zaprojektowany do nauki, badań oraz weryfikacji algorytmów sztucznej inteligencji i robotyki. Zestaw spełnia wymagania projektów badawczych w obszarach takich jak mapowanie LIDAR, autonomiczna nawigacja, autonomiczna jazda, przetwarzanie obrazu, rozpoznawanie obiektów, rozpoznawanie twarzy oraz inteligentna komunikacja głosowa. Platforma jest w pełni kompatybilna z otwartym projektem NVIDIA JetRacer, a jednocześnie została znacząco rozbudowana sprzętowo w celu uzyskania wyższej wydajności i większych możliwości.

Produkt jest oficjalnym rozwiązaniem partnerskim NVIDIA.

System wizyjny i przetwarzanie obrazu

System wizyjny i przetwarzanie obrazu

Zestaw wyposażony jest w kamerę IMX219-160 o rozdzielczości 3280 × 2464 px i szerokim polu widzenia 160°. Kamera została zaprojektowana do zastosowań z biblioteką OpenCV i algorytmami AI. Umożliwia realizację takich funkcji jak:

  • śledzenie obiektów,
  • rozpoznawanie twarzy,
  • detekcja ruchu,
  • rozpoznawanie kolorów,
  • śledzenie linii, analiza konturów,
  • kalibracja obrazu,
  • aplikacje rozszerzonej rzeczywistości.

LIDAR i mapowanie przestrzeni

Robot wyposażony jest w RPLIDAR A1, umożliwiający 360-stopniowe skanowanie otoczenia. Dane z LIDAR-u wykorzystywane są do:

  • tworzenia map otoczenia,
  • lokalizacji robota,
  • planowania trasy,
  • omijania przeszkód.

System wspiera algorytmy SLAM z wykorzystaniem danych z enkoderów, IMU i LIDAR-u, w tym Gmapping, Hector, Karto oraz Cartographer, a także nawigację opartą o AMCL i move_base.

LIDAR i mapowanie przestrzeni
Architektura dwukontrolerowa

Architektura dwukontrolerowa

  • Główny kontroler – Jetson Nano Dev Kit

Odpowiada za przetwarzanie obrazu, algorytmy AI, obsługę systemu ROS, mapowanie, nawigację, przetwarzanie mowy oraz zadania wymagające dużej mocy obliczeniowej. W wersji Kit B zastosowano Waveshare Jetson Nano Dev Kit z modułem Jetson Nano w wersji eMMC, bardziej odpowiednim do zastosowań produkcyjnych.

  • Kontroler pomocniczy – Raspberry Pi RP2040

Dwurdzeniowy mikrokontroler o wysokich właściwościach czasu rzeczywistego, odpowiedzialny za sterowanie ruchem, obsługę silników, enkoderów, zbieranie danych z czujników oraz precyzyjną kontrolę pracy robota. Komunikacja pomiędzy kontrolerami odbywa się przez USB, co zapewnia wyższą prędkość transmisji niż UART.

Nawigacja autonomiczna i planowanie trasy

Po wskazaniu celu robot samodzielnie planuje trasę, omija przeszkody i aktualizuje mapę otoczenia w czasie rzeczywistym.

Robot obsługuje:

  • nawigację do pojedynczego punktu,
  • nawigację patrolową między wieloma punktami,
  • mapowanie podczas jazdy.
Nawigacja autonomiczna i planowanie trasy
System audio i interakcja głosowa

System audio i interakcja głosowa

Zestaw posiada dwa mikrofony MEMS oraz głośnik, oparte na układzie USB Audio. Umożliwia to:

  • transmisję głosu w czasie rzeczywistym,
  • syntezę mowy,
  • detekcję mowy,
  • rozpoznawanie mowy,
  • dwukierunkową komunikację głosową człowiek–robot.

Robot może „słuchać”, „rozumieć” i „odpowiadać” głosem, co umożliwia tworzenie projektów z zakresu inteligentnej interakcji.

Czujniki i stabilizacja

Zintegrowany 9-osiowy czujnik IMU współpracuje z enkoderami kół i filtrem Kalmana (EKF), zapewniając dokładne określenie orientacji robota i stabilną nawigację.

JetRacer wykorzystuje strukturę skrętu typu Ackermanna, łącząc:

  • skręt kół przednich za pomocą serwa,
  • napęd różnicowy kół tylnych.

Zastosowano wysokiej mocy silniki DC z metalową przekładnią i enkoderami AB-fazowymi, umożliwiające:

  • precyzyjną kontrolę prędkości (PID),
  • obliczanie odometrii,
  • cichą i stabilną pracę.
Czujniki i stabilizacja
Zasilanie i bezpieczeństwo

Zasilanie i bezpieczeństwo

Zintegrowany układ zasilania z ładowaniem wyrównawczym oraz zabezpieczeniami przed przeładowaniem, nadmiernym rozładowaniem, przeciążeniem, zwarciem i odwrotną polaryzacją, z pomiarem napięcia i prądu oraz podglądem parametrów w czasie rzeczywistym na wyświetlaczu OLED.

Odpowiada za przetwarzanie obrazu, algorytmy AI, obsługę systemu ROS, mapowanie, nawigację, przetwarzanie mowy oraz zadania wymagające dużej mocy obliczeniowej. W wersji Kit B zastosowano Waveshare Jetson Nano Dev Kit z modułem Jetson Nano w wersji eMMC, bardziej odpowiednim do zastosowań produkcyjnych.

                                                                                                                           Budowa płyty sterującej - przednia strona

                                                                     

                                                                                                                           Budowa płyty sterującej - tylna strona

                                                                   p1192381-JetRacer-ROS-AI-Kit-details-57%20%281%29.jpg

Właściwości

  • Typ urządzenia: Mobilny robot autonomiczny
  • Platforma obliczeniowa: NVIDIA Jetson Nano Dev Kit
  • Rola platformy obliczeniowej: Przetwarzanie obrazu, dźwięku, algorytmów AI oraz systemu ROS
  • Kontroler robota: Dedykowana płyta sterująca robota z mikrokontrolerem RP2040
  • Architektura systemu: Dwupoziomowa (komputer wysokiego poziomu + kontroler niskiego poziomu)
  • Środowisko programowe: ROS (Robot Operating System)
  • Obsługa algorytmów: SLAM, mapowanie, nawigacja autonomiczna, wizja komputerowa, przetwarzanie dźwięku
  • System nawigacji: LiDAR
  • Czujnik LiDAR: RPLIDAR A1
  • Funkcje LiDAR: Skanowanie otoczenia 2D, mapowanie, lokalizacja, omijanie przeszkód
  • System wizyjny: Kamera IMX219
  • Rozdzielczość kamery: 8 MPx
  • Pole widzenia kamery: 160°
  • Zastosowanie kamery: Akwizycja obrazu, rozpoznawanie obiektów, analiza sceny, autonomiczna jazda
  • System audio: Mikrofony MEMS i głośnik wbudowane w robota
  • Funkcje audio: Rejestracja dźwięku, transmisja głosu, synteza mowy, rozpoznawanie mowy
  • Przetwarzanie dźwięku: Programowe, realizowane na platformie Jetson Nano
  • Czujniki ruchu: IMU (9-osiowy)
  • Napęd: Ackermann-like (skręt kół przednich, napęd różnicowy kół tylnych)
  • Silniki: Silniki DC z metalową przekładnią i enkoderami
  • Sterowanie napędem: Sterownik silników na płycie sterującej robota
  • Zasilanie: Akumulatorowe
  • Typ akumulatorów: Ogniwa Li-Ion 18650 (brak w zestawie)
  • Łączność: WiFi 2,4 GHz / 5 GHz, Bluetooth
  • Interfejsy komunikacyjne: USB, Ethernet, GPIO, UART
  • Konstrukcja: Modułowa, przystosowana do rozbudowy
  • Przeznaczenie: Robotyka mobilna, systemy autonomiczne, edukacja, badania, AI

W zestawie

  • 1x Robot mobilny JetRacer Professional Version ROS AI Kit B
  • 1x Waveshare Jetson Nano Dev Kit
  • 1x Podwozie JetRacer ROS z napędem
  • 1x Płyta rozszerzeń JetRacer ROS
  • 1x Czujnik LiDAR RPLIDAR A1
  • 1x Kamera IMX219 (8 MPx, 160°)
  • 1x Moduł WiFi AC8265 z antenami
  • 2x Silnik DC z enkoderem
  • 1x Serwo MG996R
  • 4x Koło 65 mm
  • 1x Wentylator chłodzący
  • 1x Bezprzewodowy kontroler (gamepad)
  • 1x Ładowarka akumulatorów 12,6 V 2 A
  • 1x Zestaw okablowania połączeniowego
  • 1x Zestaw elementów montażowych i narzędzi
1192381

Producent BTC Korporacja sp. z o. o. Lwowska 5 05-120 Legionowo Polska sprzedaz@kamami.pl 22 767 36 20

Osoba odpowiedzialna BTC Korporacja sp. z o. o. Lwowska 5 05-120 Legionowo Polska sprzedaz@kamami.pl 22 767 36 20

Produkty z tej samej kategorii (16)