Multisensorfusion zur semantisch gestützten Navigation eines autonomen Assistenzroboters

Please use this identifier to cite or link to this item:
https://osnadocs.ub.uni-osnabrueck.de/handle/urn:nbn:de:gbv:700-2009070611
Open Access logo originally created by the Public Library of Science (PLoS)
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorProf. Dr. Joachim Hertzberg
dc.creatorStiene, Stefan
dc.date.accessioned2010-01-30T14:54:38Z
dc.date.available2010-01-30T14:54:38Z
dc.date.issued2009-07-01T08:26:24Z
dc.date.submitted2009-07-01T08:26:24Z
dc.identifier.urihttps://osnadocs.ub.uni-osnabrueck.de/handle/urn:nbn:de:gbv:700-2009070611-
dc.description.abstractEin alltagstauglicher autonomer Assistenzroboter in einem gemeinsamenArbeitsumfeld mit dem Menschen erfordert, dass der Roboter sämtliche Hindernisse in seiner Umgebung wahrnimmt und diesen sicher ausweicht. Stand der Technik ist jedoch, dass meist nur 2D-Sensordaten zur Navigation herangezogen werden. Oder es werden3D-Verfahren verwendet, die ausschließlich mit einer speziellen Sensorkonfiguration arbeiten. Diese Arbeit untersucht im Rahmen des LiSA-Projekts wie 3D-Sensordaten effizient und flexibel zur sicheren Navigation eines autonomenAssistenzsystems eingesetzt werden können. Dazu wird in dieser Arbeit mit der Virtual Range Scans (VRS)-Methode ein Verfahren zurHindernisvermeidung entwickelt, das beliebige Konfigurationen von Abstandssensoren in den Hindernisvermeidungsprozess integriert. Das Verfahren nutztklassische Verfahren zur 2D-Hindernisvermeidung, um 3D-Hindernisvermeidung zu realisieren. Dadurch wird das VRS-Verfahren unabhängig von der Hindernisvermeidungsstrategie und kann flexibel bestehende Verfahren wiederverwenden. Neben der Hindernisvermeidung wird gezeigt, wie die reichereUmgebungsinformation, die in 3D-Sensordaten vorhanden ist, zur robusteren Selbstlokalisierung des Roboters genutzt werden kann. Hier wird eineffizientes Verfahren vorgestellt, das Abstandssensordaten mit 3D-Umgebungsmodellen vergleicht. Ferner wird ein Verfahren vorgestellt, das Semantikim Umfeld des Roboters verankert und sie zur Navigation des Roboters nutzt.ger
dc.language.isoger
dc.subject3D-Hindernisvermeidung
dc.subjectVirtual Range Scans
dc.subjectautonome mobile Roboter
dc.subjectLiSA
dc.subject.ddc620 - Ingenieurwissenschaftenger
dc.titleMultisensorfusion zur semantisch gestützten Navigation eines autonomen Assistenzrobotersger
dc.typeDissertation oder Habilitation [doctoralThesis]-
thesis.locationOsnabrück-
thesis.institutionUniversität-
thesis.typeDissertation [thesis.doctoral]-
thesis.date2009-06-11T12:00:00Z-
elib.elibid913-
elib.marc.edtjost-
elib.dct.accessRightsa-
elib.dct.created2009-06-29T15:37:38Z-
elib.dct.modified2009-07-01T08:26:24Z-
dc.contributor.refereeDr. Norbert Elkmann
dc.contributor.refereeProf. Dr. Werner Brockmann
dc.subject.dnb28 - Informatik, Datenverarbeitungger
vCard.ORGFB6ger
Appears in Collections:FB06 - E-Dissertationen

Files in This Item:
File Description SizeFormat 
E-Diss913_thesis.pdfPräsentationsformat8,94 MBAdobe PDF
E-Diss913_thesis.pdf
Thumbnail
View/Open


Items in osnaDocs repository are protected by copyright, with all rights reserved, unless otherwise indicated. rightsstatements.org