Warum verwenden Menschen Kamera anstelle von Lasersensor für die Roboternavigation?
11
Ich arbeite an der Lokalisierung und Navigation von Robotern in städtischen Umgebungen. Ich möchte Kamera verwenden. Aber ich bin ein bisschen verwirrt über LRF-Daten oder andere Laserdaten.
Warum wollen Leute Kamera benutzen?
Warum nicht LRF oder andere Laserdaten?
Kann mir bitte jemand zugunsten der Kamera erklären?
Ein 3D-Laser-Entfernungsmesser oder LIDAR wie der im Google Car ist weitaus teurer als eine Kamera. Der andere Grund ist, dass im Fall eines LIDAR zwar der Abstand jedes Pixels verfügbar ist, die zu verarbeitenden generierten Daten jedoch enorm sind. Sie müssen Daten schneller übertragen und verarbeiten, was sich in steigenden Kosten wieder niederschlägt. Schließlich haben Kameras normalerweise eine längere Lebensdauer, sodass weniger Wartung erforderlich ist.
Mit relativ billigen Kameras und Computer Vision können ziemlich gute Ergebnisse erzielt werden.
Beispiele:
Objekterkennung (Beachten Sie, dass der von einer Person gezogene Koffer nicht rot hervorgehoben ist).
Kosten sind absolut die Antwort. Qualitativ hochwertige Laserscanner starten (für den Endbenutzer) in der Regel bei 10.000 US-Dollar. Qualitätskameras machen etwa ein Zehntel der Kosten aus.
Chuck
1
An was für einen LIDAR denkst du? Ich habe eine verwendet, die ungefähr 1000 Punkte pro Scan (in einer 2D-Ebene) zurückgibt, aber eine typische moderne Kamera gibt Millionen von Pixeln zurück, was viel mehr Daten sind.
user253751
2
@immibis - Der Velodyne VLP-16 erreicht in 16 Ebenen etwa 300.000 Punkte pro Sekunde und der SICK LMS511 in einer Ebene etwa 50.000 Punkte pro Sekunde. VLP-16 hat ein 360-Grad-Sichtfeld und ist ungefähr 8k groß, das LMS511 hat ein 190-Grad-Sichtfeld und ist ungefähr 10k groß, ist jedoch für den industriellen Einsatz robust. Dies sind Entfernungsmessungen , keine Bilder. Kameras können natürlich eine höhere Auflösung zurückgeben, aber im Allgemeinen ist für Stereo usw. eine so hohe Feuerkraft erforderlich, dass die Bilder auf Schwarzweiß mit sehr niedriger Auflösung heruntergesampelt werden oder die Bildwiederholfrequenz sehr niedrig ist.
Chuck
1
Also 300.000 Punkte pro Sekunde im Vergleich zu 50 Millionen Pixeln pro Sekunde. Die Kamera hat noch mehr Daten zu übertragen. In beiden Fällen können Sie natürlich Daten / Downsample verwerfen, wenn Sie nicht alles schnell genug verarbeiten können.
user253751
4
Zusätzlich zu diesen Punkten in Bences Antwort können Kameras:
Berechnen Sie viele komplexe Features, die zu einer sehr robusten Übereinstimmung zwischen Frames und Objekterkennung führen
0,5∘0,025∘
Geringerer Stromverbrauch
Passiver Sensor (erfordert kein "sauberes" Signal eines Lasers)
Abhängig vom Laser kann es rechtliche Einschränkungen geben, wo Sie ihn verwenden können. Um in der Stadt herumzulaufen und Laserstrahlen herumzuwerfen, ist möglicherweise eine spezielle Erlaubnis / Lizenz erforderlich.
Klar, je nach Laser . Aber wir sprechen hier nicht über Raumschiffwaffen. Sie benötigen beispielsweise keine Erlaubnis oder Lizenz, um einen Barcode-Scanner zu verwenden.
David Richerby
Die meisten kommerziellen LRFs (Velodyne, Hokuyo) verwenden Laser der Klasse 1 und sind absolut sicher. Google, Uber usw. testen ihre Prototypen bereits im Freien mit solchen installierten LRFs. Ich glaube wirklich nicht, dass ihre Rechtsabteilung mit Beschwerden von empörten Eltern
überfüllt ist
2
Wie andere schon geantwortet. Kameras sind in der Regel viel billiger als L aser R ange F. inder.
Wenn Sie über Kamera sprechen, meinen Sie damit die 2D-Kameras, nicht wahr? Es gibt einige 3D-Kameras wie die ifm O3D3xx- Kamerafamilie. Diese Kameras haben möglicherweise nicht die Genauigkeit eines Laserscanners, liefern jedoch 3D-Tiefendaten in angemessenen Bildraten zu einem Preis von ~ 1k
Sie können diesen Link überprüfen, wo ich zuvor eine etwas ähnliche Frage beantwortet habe. (Vor- und Nachteile von jedem)
in städtischen Umgebungen
Wenn Sie sich auf autonome Autos wie die von Google beziehen, gibt es viele Überlegungen und Einschränkungen (Sicherheit, Kosten usw.).
Wenn Sie an Forschung und Lernen interessiert sind, empfehle ich Ihnen, jede verfügbare Hardwareplattform zu verwenden.
Merken Sie sich:
Ein Auto mit einem extrem teuren LIDAR lässt sich nicht leicht verkaufen.
Ein Auto, das sich autonom um Menschen bewegt, kann im Falle eines Fehlers töten. Daher unterscheiden sich die Überlegungen von der Entwicklung von Algorithmen zum Zwecke der Forschung und des Lernens.
Ich glaube nicht, dass die Leute wirklich nur Kameras "wollen". Wenn sich jeder Forscher die LiDARs leisten könnte, würden sie alle LiDARs auf ihre Roboter für die Außenumgebung setzen.
Kameras sind ziemlich billig und die einzige Einschränkung der Reichweite ist die Pixel- / Superpixel-Auflösung, die Sie in Ihrem Algorithmus / Ihrer Software verarbeiten können.
Die meisten Forscher (einschließlich mir) verwenden Kameras mit strukturiertem Licht (obwohl sie nicht im Freien funktionieren, wechseln wir bei diesen Sensoren zu RGB-Kameras, wenn sich der Roboter im Freien befindet). Eine Lösung für dieses Lichtproblem besteht darin, dass wir auch Stereokameras (Stereovision / Multi-View-Tiefe, was rechenintensiv ist) verwenden, um die Tiefe basierend auf den Verarbeitungsfähigkeiten des Controllers / der CPU grob zu bestimmen. Eine andere Lösung, die ich noch nicht persönlich untersucht habe, ist die Verwendung mehrerer Kinects / Asus Xtions usw., bei denen Sie eine Tiefenbestätigung sowie mehrere RGB-Kameras für den Außenbereich erhalten.
LiDARs sind normalerweise sehr teuer (in Tausenden von Dollar für wirklich gute). Obwohl sich dies in Zukunft ändern könnte, da einige Unternehmen 250 US-Dollar "LiDARs" wie Sweep herausbringen .
Außerdem haben LRFs / LiDARs eine begrenzte Reichweite und Auflösung (dh über einen bestimmten Abstand hinaus können sie die Tiefe nicht eindeutig auflösen und geben daher 0 Werte zurück (ich bin mir bei LiDARs nicht sicher, aber Tiefenkameras haben ein Maximum (über dem) als sowie Mindestreichweite (unterhalb derer) geben sie Ihnen keine Tiefe).
Ich werde noch einen weiteren Grund hinzufügen, von dem ich ehrlich gesagt gehofft hatte, dass jemand anderes ihn ansprechen würde. Denn warum stellen wir überhaupt Roboter her? Emotionslose Maschinen für unsere Drecksarbeit?
Ich denke, dass die Tatsache, dass sich ein Roboter wie wir Säugetiere nur auf "Vision" verlassen kann, sie uns ähnlicher macht. Für mich betrügen Laser und Sonare. IMHO sollten wir uns darauf konzentrieren, anstatt zu schummeln, bessere Kameras mit höherer Bildrate, höherem Dynamikbereich und weniger Artefakten herzustellen und Software zu schreiben, die die erforderlichen Daten von ihnen erhalten kann. (Oder trainieren Sie unsere Netzwerke nach 2012, um die benötigten Daten von ihnen zu erhalten.)
Zusätzlich zu diesen Punkten in Bences Antwort können Kameras:
quelle
Abhängig vom Laser kann es rechtliche Einschränkungen geben, wo Sie ihn verwenden können. Um in der Stadt herumzulaufen und Laserstrahlen herumzuwerfen, ist möglicherweise eine spezielle Erlaubnis / Lizenz erforderlich.
quelle
Wie andere schon geantwortet. Kameras sind in der Regel viel billiger als L aser R ange F. inder.
Wenn Sie über Kamera sprechen, meinen Sie damit die 2D-Kameras, nicht wahr? Es gibt einige 3D-Kameras wie die ifm O3D3xx- Kamerafamilie. Diese Kameras haben möglicherweise nicht die Genauigkeit eines Laserscanners, liefern jedoch 3D-Tiefendaten in angemessenen Bildraten zu einem Preis von ~ 1k
quelle
Gibt es irgendwelche Vorteile bei der Verwendung eines LIDAR für SLAM gegenüber einer Standard-RGB-Kamera?
Sie können diesen Link überprüfen, wo ich zuvor eine etwas ähnliche Frage beantwortet habe. (Vor- und Nachteile von jedem)
Wenn Sie sich auf autonome Autos wie die von Google beziehen, gibt es viele Überlegungen und Einschränkungen (Sicherheit, Kosten usw.).
Wenn Sie an Forschung und Lernen interessiert sind, empfehle ich Ihnen, jede verfügbare Hardwareplattform zu verwenden.
Merken Sie sich:
quelle
Ich glaube nicht, dass die Leute wirklich nur Kameras "wollen". Wenn sich jeder Forscher die LiDARs leisten könnte, würden sie alle LiDARs auf ihre Roboter für die Außenumgebung setzen.
Kameras sind ziemlich billig und die einzige Einschränkung der Reichweite ist die Pixel- / Superpixel-Auflösung, die Sie in Ihrem Algorithmus / Ihrer Software verarbeiten können.
Die meisten Forscher (einschließlich mir) verwenden Kameras mit strukturiertem Licht (obwohl sie nicht im Freien funktionieren, wechseln wir bei diesen Sensoren zu RGB-Kameras, wenn sich der Roboter im Freien befindet). Eine Lösung für dieses Lichtproblem besteht darin, dass wir auch Stereokameras (Stereovision / Multi-View-Tiefe, was rechenintensiv ist) verwenden, um die Tiefe basierend auf den Verarbeitungsfähigkeiten des Controllers / der CPU grob zu bestimmen. Eine andere Lösung, die ich noch nicht persönlich untersucht habe, ist die Verwendung mehrerer Kinects / Asus Xtions usw., bei denen Sie eine Tiefenbestätigung sowie mehrere RGB-Kameras für den Außenbereich erhalten.
LiDARs sind normalerweise sehr teuer (in Tausenden von Dollar für wirklich gute). Obwohl sich dies in Zukunft ändern könnte, da einige Unternehmen 250 US-Dollar "LiDARs" wie Sweep herausbringen .
Außerdem haben LRFs / LiDARs eine begrenzte Reichweite und Auflösung (dh über einen bestimmten Abstand hinaus können sie die Tiefe nicht eindeutig auflösen und geben daher 0 Werte zurück (ich bin mir bei LiDARs nicht sicher, aber Tiefenkameras haben ein Maximum (über dem) als sowie Mindestreichweite (unterhalb derer) geben sie Ihnen keine Tiefe).
Hoffe das hilft.
quelle
Ich werde noch einen weiteren Grund hinzufügen, von dem ich ehrlich gesagt gehofft hatte, dass jemand anderes ihn ansprechen würde. Denn warum stellen wir überhaupt Roboter her? Emotionslose Maschinen für unsere Drecksarbeit?
Ich denke, dass die Tatsache, dass sich ein Roboter wie wir Säugetiere nur auf "Vision" verlassen kann, sie uns ähnlicher macht. Für mich betrügen Laser und Sonare. IMHO sollten wir uns darauf konzentrieren, anstatt zu schummeln, bessere Kameras mit höherer Bildrate, höherem Dynamikbereich und weniger Artefakten herzustellen und Software zu schreiben, die die erforderlichen Daten von ihnen erhalten kann. (Oder trainieren Sie unsere Netzwerke nach 2012, um die benötigten Daten von ihnen zu erhalten.)
quelle