Dlaczego ludzie używają kamery zamiast czujnika laserowego do nawigacji robota?
11
Pracuję nad lokalizacją robotów i nawigacją w środowisku miejskim. Chcę użyć aparatu. Ale jestem trochę zdezorientowany danymi LRF lub innymi danymi lasera.
Dalmierz laserowy 3D lub LIDAR, taki jak ten w Google Car, jest znacznie droższy niż aparat. Innym powodem jest to, że chociaż w przypadku LIDAR-a odległość każdego piksela jest dostępna, generowane dane do przetworzenia są ogromne. Musisz szybciej przesyłać i przetwarzać dane, co pojawia się ponownie wraz ze wzrostem kosztów. Wreszcie aparaty zwykle mają dłuższą żywotność, więc wymaga mniej konserwacji.
Stosunkowo tanie aparaty fotograficzne i widzenie komputerowe dają całkiem dobre wyniki.
Przykłady:
Wykrywanie obiektów (zauważ, że walizka ciągnięta przez osobę nie jest podświetlona na czerwono).
Koszt jest absolutnie odpowiedzią. Wysokiej jakości skanery laserowe rozpoczynają się (dla użytkownika końcowego) na ogół około 10 000 USD. Kamery wysokiej jakości stanowią około jednej dziesiątej kosztów.
Chuck
1
Jakiego rodzaju LIDAR masz na myśli? Użyłem takiego, który zwrócił około 1000 punktów na skan (na płaszczyźnie 2D), ale typowa współczesna kamera zwraca miliony pikseli, co stanowi znacznie więcej danych.
user253751
2
@immibis - Velodyne VLP-16 robi około 300 000 punktów na sekundę na 16 płaszczyznach, a SICK LMS511 robi około 50 000 punktów na sekundę na 1 płaszczyźnie. VLP-16 ma pole widzenia 360 stopni i ma około 8k, LMS511 ma pole widzenia 190 stopni i ma około 10k, ale jest wzmocniony do zastosowań przemysłowych. Są to pomiary odległości , a nie zdjęcia. Kamery mogą oczywiście zwrócić wyższą rozdzielczość, ale generalnie potrzeba tak dużej siły ognia, aby robić stereo itp., Że ramki są próbkowane w dół do bardzo niskiej rozdzielczości B&W lub częstotliwość odświeżania jest bardzo niska.
Chuck
1
Zatem 300 000 punktów na sekundę, w porównaniu z 50 milionami pikseli na sekundę. Aparat ma jeszcze więcej danych do przesłania. Oczywiście w obu przypadkach możesz odrzucić dane / próbkowanie w dół, jeśli nie możesz przetworzyć wszystkich danych wystarczająco szybko.
user253751
4
Oprócz tych punktów w odpowiedzi Bence'a kamery mogą:
Oblicz wiele złożonych funkcji, które powodują bardzo solidne dopasowanie ramek i rozpoznawanie obiektów
0,5∘0,025∘
Niższe zużycie energii
Czujnik pasywny (nie wymaga „czystego” sygnału lasera)
W zależności od lasera mogą istnieć prawne ograniczenia dotyczące tego, gdzie można go używać. Bieganie po mieście rzucające promienie laserowe może wymagać specjalnego pozwolenia / licencji.
Jasne, w zależności od lasera . Ale nie mówimy tutaj o broni statku kosmicznego. Na przykład nie potrzebujesz pozwolenia ani licencji, aby korzystać ze skanera kodów kreskowych.
David Richerby,
Większość komercyjnych LRF (Velodyne, Hokuyo) używa laserów klasy 1 i są one całkowicie bezpieczne. Google, Uber itp. Już testują swoje prototypy na zewnątrz z zainstalowanymi takimi LRF-ami. Naprawdę nie sądzę, aby ich dział prawny był zalany skargami oburzonych rodziców.
HighVoltage,
2
Jak inni już odpowiedzieli. Aparaty fotograficzne są zazwyczaj są znacznie tańsze, niż L ASER R Ange F inders.
Mówiąc o kamerze, masz na myśli kamery 2D, prawda? Istnieje kilka kamer 3D, takich jak rodzina kamer ifm O3D3xx . Aparat może nie mieć dokładności skanera laserowego, ale zapewnia dane o głębokości 3D przy rozsądnych częstotliwościach klatek w cenie ~ 1k
Możesz sprawdzić ten link, w którym wcześniej odpowiedziałem na nieco podobne pytanie. (zalety i wady każdego)
w środowisku miejskim
Jeśli chodzi o samochody autonomiczne, takie jak Google, istnieje wiele czynników i ograniczeń (bezpieczeństwo, koszty itp.).
Jeśli jesteś zainteresowany badaniami i nauką, sugeruję, abyś używał dowolnej dostępnej platformy sprzętowej.
Pamiętać:
Samochód z bardzo drogim LIDARem nie będzie łatwo sprzedany.
Samochód poruszający się automatycznie wokół ludzi, może zabić w przypadku pomyłki. Rozważania są zatem inne niż tylko opracowywanie algorytmów dla potrzeb badań i uczenia się.
Nie sądzę, że ludzie naprawdę „chcą” korzystać tylko z kamer. Gdyby każdy badacz mógł sobie pozwolić na LiDAR, wszyscy włożyliby LiDAR na roboty dla środowiska zewnętrznego.
Kamery są dość tanie, a jedynym ograniczeniem zasięgu jest rozdzielczość w pikselach / superpikselach, którą można przetwarzać w algorytmie / oprogramowaniu.
Większość badaczy (w tym ja) używa strukturalnych kamer świetlnych (chociaż nie działają one na zewnątrz, więc przełączamy się na kamery RGB na tych czujnikach, gdy robot znajduje się na zewnątrz). Rozwiązaniem tego lekkiego problemu jest to, że używamy również kamer stereofonicznych (widzenie stereo / głębokość wielu widoków, co jest drogie obliczeniowo) do z grubsza określania głębokości, w oparciu o możliwości przetwarzania kontrolera / procesora. Innym rozwiązaniem, które jeszcze osobiście zbadałem, jest użycie wielu Kinect / Asus Xtions itp., W których uzyskuje się potwierdzenie głębi, a także wielu kamer RGB na zewnątrz.
LiDAR są zazwyczaj bardzo drogie (w tysiącach $$ za naprawdę dobre). Chociaż może się to zmienić w przyszłości, niektóre firmy będą oferować 250 dolarów „LiDAR”, takich jak Sweep .
Ponadto LRF / LiDAR mają ograniczony zasięg i rozdzielczość (tj. Poza pewną odległością nie mogą jednoznacznie rozpoznać głębokości, a zatem zwracają wartości 0 (nie jestem pewien, co do LiDAR, ale kamery głębinowe mają maksimum (powyżej którego) jako a także minimalny zasięg (poniżej którego) nie dają ci głębi).
Dodam kolejny powód, dla którego szczerze mówiąc, miałem nadzieję, że ktoś inny przyniesie. Bo dlaczego przede wszystkim tworzymy roboty? Bezemocyjne maszyny do naszej brudnej roboty?
Myślę, że fakt, iż robot może polegać wyłącznie na „wizji”, tak jak my, ssaki, czyni ich bardziej podobnymi do nas. Więc dla mnie lasery i sonary oszukują. Tym, na czym IMHO powinniśmy się skupić zamiast oszukiwania, jest tworzenie lepszych aparatów z wyższą liczbą klatek na sekundę, wyższym zakresem dynamicznym i mniejszą liczbą artefaktów oraz pisanie oprogramowania, które może uzyskać od nich potrzebne dane. (Lub mówiąc w kategoriach po 2012 r., Szkolimy nasze sieci, aby uzyskać od nich potrzebne dane).
Oprócz tych punktów w odpowiedzi Bence'a kamery mogą:
źródło
W zależności od lasera mogą istnieć prawne ograniczenia dotyczące tego, gdzie można go używać. Bieganie po mieście rzucające promienie laserowe może wymagać specjalnego pozwolenia / licencji.
źródło
Jak inni już odpowiedzieli. Aparaty fotograficzne są zazwyczaj są znacznie tańsze, niż L ASER R Ange F inders.
Mówiąc o kamerze, masz na myśli kamery 2D, prawda? Istnieje kilka kamer 3D, takich jak rodzina kamer ifm O3D3xx . Aparat może nie mieć dokładności skanera laserowego, ale zapewnia dane o głębokości 3D przy rozsądnych częstotliwościach klatek w cenie ~ 1k
źródło
Czy są jakieś zalety korzystania z LIDAR dla SLAM w porównaniu ze standardową kamerą RGB?
Możesz sprawdzić ten link, w którym wcześniej odpowiedziałem na nieco podobne pytanie. (zalety i wady każdego)
Jeśli chodzi o samochody autonomiczne, takie jak Google, istnieje wiele czynników i ograniczeń (bezpieczeństwo, koszty itp.).
Jeśli jesteś zainteresowany badaniami i nauką, sugeruję, abyś używał dowolnej dostępnej platformy sprzętowej.
Pamiętać:
źródło
Nie sądzę, że ludzie naprawdę „chcą” korzystać tylko z kamer. Gdyby każdy badacz mógł sobie pozwolić na LiDAR, wszyscy włożyliby LiDAR na roboty dla środowiska zewnętrznego.
Kamery są dość tanie, a jedynym ograniczeniem zasięgu jest rozdzielczość w pikselach / superpikselach, którą można przetwarzać w algorytmie / oprogramowaniu.
Większość badaczy (w tym ja) używa strukturalnych kamer świetlnych (chociaż nie działają one na zewnątrz, więc przełączamy się na kamery RGB na tych czujnikach, gdy robot znajduje się na zewnątrz). Rozwiązaniem tego lekkiego problemu jest to, że używamy również kamer stereofonicznych (widzenie stereo / głębokość wielu widoków, co jest drogie obliczeniowo) do z grubsza określania głębokości, w oparciu o możliwości przetwarzania kontrolera / procesora. Innym rozwiązaniem, które jeszcze osobiście zbadałem, jest użycie wielu Kinect / Asus Xtions itp., W których uzyskuje się potwierdzenie głębi, a także wielu kamer RGB na zewnątrz.
LiDAR są zazwyczaj bardzo drogie (w tysiącach $$ za naprawdę dobre). Chociaż może się to zmienić w przyszłości, niektóre firmy będą oferować 250 dolarów „LiDAR”, takich jak Sweep .
Ponadto LRF / LiDAR mają ograniczony zasięg i rozdzielczość (tj. Poza pewną odległością nie mogą jednoznacznie rozpoznać głębokości, a zatem zwracają wartości 0 (nie jestem pewien, co do LiDAR, ale kamery głębinowe mają maksimum (powyżej którego) jako a także minimalny zasięg (poniżej którego) nie dają ci głębi).
Mam nadzieję że to pomoże.
źródło
Dodam kolejny powód, dla którego szczerze mówiąc, miałem nadzieję, że ktoś inny przyniesie. Bo dlaczego przede wszystkim tworzymy roboty? Bezemocyjne maszyny do naszej brudnej roboty?
Myślę, że fakt, iż robot może polegać wyłącznie na „wizji”, tak jak my, ssaki, czyni ich bardziej podobnymi do nas. Więc dla mnie lasery i sonary oszukują. Tym, na czym IMHO powinniśmy się skupić zamiast oszukiwania, jest tworzenie lepszych aparatów z wyższą liczbą klatek na sekundę, wyższym zakresem dynamicznym i mniejszą liczbą artefaktów oraz pisanie oprogramowania, które może uzyskać od nich potrzebne dane. (Lub mówiąc w kategoriach po 2012 r., Szkolimy nasze sieci, aby uzyskać od nich potrzebne dane).
źródło