Two Efficient Visual Methods for Segment Self-localization
نویسندگان
چکیده
منابع مشابه
Visual Localization Methods for Mars
Mars rover sample return missions will require rover localization on scales ranging from under a meter near landers and sample caches, to 10's of meters for local exploration, to 100's of meters for long range exploration. A variety of technologies may contribute to rover localization, but at present there is no concretely deened localization architecture that covers all of these scales. This p...
متن کاملislanding detection methods for microgrids
امروزه استفاده از منابع انرژی پراکنده کاربرد وسیعی یافته است . اگر چه این منابع بسیاری از مشکلات شبکه را حل می کنند اما زیاد شدن آنها مسائل فراوانی برای سیستم قدرت به همراه دارد . استفاده از میکروشبکه راه حلی است که علاوه بر استفاده از مزایای منابع انرژی پراکنده برخی از مشکلات ایجاد شده توسط آنها را نیز منتفی می کند . همچنین میکروشبکه ها کیفیت برق و قابلیت اطمینان تامین انرژی مشترکان را افزایش ...
15 صفحه اولVisual Self-Localization with Tiny Images
Self-localization of mobile robots is often performed visually, whereby the resolution of the images influences a lot the computation time. In this paper, we examine how a reduction of the image resolution affects localization accuracy. We downscale the images, preserving their aspect ratio, up to a tiny resolution of 15×11 and 20×15 pixels. Our results are based on extensive tests on different...
متن کاملSelf-localization Using Visual Experience Across Domains
— In this study, we aim to solve the single-view robot self-localization problem by using visual experience across domains. Although the bag-of-words method constitutes a popular approach to single-view localization, it fails badly when it's visual vocabulary is learned and tested in different domains. Further, we are interested in using a cross-domain setting, in which the visual vocabulary is...
متن کاملذخیره در منابع من
با ذخیره ی این منبع در منابع من، دسترسی به آن را برای استفاده های بعدی آسان تر کنید
ژورنال
عنوان ژورنال: SN Computer Science
سال: 2021
ISSN: 2662-995X,2661-8907
DOI: 10.1007/s42979-021-00492-0