{"id":12835,"date":"2021-03-07T23:45:13","date_gmt":"2021-03-07T22:45:13","guid":{"rendered":"https:\/\/blog.mi.hdm-stuttgart.de\/?p=12835"},"modified":"2023-06-18T18:05:27","modified_gmt":"2023-06-18T16:05:27","slug":"sensor-fusion","status":"publish","type":"post","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2021\/03\/07\/sensor-fusion\/","title":{"rendered":"Sensor Fusion"},"content":{"rendered":"\n<p>Geschrieben von Konstantin Rosenberg<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Einleitung<\/h2>\n\n\n\n<p>Stell dir vor du f\u00e4hrst in deinem autonom Fahrenden Auto die Stra\u00dfe entlang. Pl\u00f6tzlich erscheint, hinter einem parkenden Auto, ein Fu\u00dfg\u00e4nger und tritt direkt vor dir auf die Fahrbahn. Du erschrickst, doch das Auto kommt elegant vor dem unachtsamen Spazierg\u00e4nger zu stehen. W\u00e4hrend du dir gerade nicht einmal sicher bist was passiert ist, hat dein selbstfahrendes Auto einen Unfall verhindert. Aber was genau ist hier eigentlich passiert?<\/p>\n\n\n\n<figure class=\"wp-block-image size-large is-resized\"><a href=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image.png\"><img loading=\"lazy\" decoding=\"async\" data-attachment-id=\"12836\" data-permalink=\"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2021\/03\/07\/sensor-fusion\/image-43\/\" data-orig-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image.png\" data-orig-size=\"997,426\" data-comments-opened=\"1\" data-image-meta=\"{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}\" data-image-title=\"image\" data-image-description=\"\" data-image-caption=\"\" data-large-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image.png\" src=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image.png\" alt=\"\" class=\"wp-image-12836\" width=\"560\" height=\"238\" srcset=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image.png 997w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-300x128.png 300w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-768x328.png 768w\" sizes=\"auto, (max-width: 560px) 100vw, 560px\" \/><\/a><\/figure>\n\n\n\n<p>Im 21. Jahrhundert gibt es autonome Autos und Drohnen liefern Pakete direkt vor deine Haust\u00fcr. Dabei haben Drohnen und autonom fahrende Autos eine Sache gemeinsam. Sie beide sind mit vielen verschiedenen Sensoren ausgestattet, um ihre Umgebung wahrzunehmen und auf Ereignisse zu reagieren. Gerade beim autonomen Fahren sind hohe Zuverl\u00e4ssigkeits- und Sicherheitsanforderungen an die Systeme gestellt, da schlie\u00dflich Leben von den richtigen Entscheidungen des Systems abh\u00e4ngen. Um richtige Entscheidungen zu gew\u00e4hrleisten ist es unabdingbar, dass ein System m\u00f6glichst pr\u00e4zise, zuverl\u00e4ssige Daten erh\u00e4lt. Es ergibt sich demnach die Frage, wie die Aufnahme und Verarbeitung von Sensorinformationen dahingehend verbessert werden kann, sodass der Entscheidungsprozess eines autonomen Systems ein akzeptables und zuverl\u00e4ssiges Niveau erh\u00e4lt. Eine der Antworten auf diese Frage lautet: \u201eSensor Fusion\u201c.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Datenverarbeitung in autonomen Systemen<\/h2>\n\n\n\n<p>Um Sensor Fusion zu verstehen betrachten wir zun\u00e4chst die Datenverarbeitung in einem Autonomen System. Autonome Systeme verwenden Sensorik, um ihre Umwelt wahrzunehmen und entsprechend der Umst\u00e4nde zu agieren. Im Beispiel aus der Einleitung bemerkte das autonome Auto den Fu\u00dfg\u00e4nger und leitete deshalb einen Bremsvorgang ein. Dieser hier beschriebene Vorgang aus Wahrnehmung und Handeln l\u00e4sst sich f\u00fcr ein System in die folgenden Schritte unterteilen.<\/p>\n\n\n\n<ol class=\"wp-block-list\"><li>Informationen aufnehmen<\/li><li>Informationen interpretieren<\/li><li>Aktion planen<\/li><li>Aktion ausf\u00fchren<\/li><\/ol>\n\n\n\n<figure class=\"wp-block-image size-large\"><a href=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-1.png\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"442\" data-attachment-id=\"12837\" data-permalink=\"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2021\/03\/07\/sensor-fusion\/image-1-4\/\" data-orig-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-1.png\" data-orig-size=\"1289,556\" data-comments-opened=\"1\" data-image-meta=\"{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}\" data-image-title=\"image-1\" data-image-description=\"\" data-image-caption=\"\" data-large-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-1-1024x442.png\" src=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-1-1024x442.png\" alt=\"\" class=\"wp-image-12837\" srcset=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-1-1024x442.png 1024w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-1-300x129.png 300w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-1-768x331.png 768w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-1.png 1289w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/a><\/figure>\n\n\n\n<p>Damit autonome Autos ihre Umgebung wahrnehmen k\u00f6nnen, werden in deren Systeme Sensoren integriert. Wenn man so will sind die Sensoren die Augen und Ohren des Systems, denn ohne diese w\u00fcrde das System nicht verstehen was gerade um es herum passiert. Sensoren kommen in den unterschiedlichsten Farben und Formen vor, je nachdem welchen Zweck sie erf\u00fcllen. Es gibt Kamerasensoren f\u00fcr das erheben von Bildinformationen, Infrarotsensoren f\u00fcr Abstandsmessungen, Gyroskopische Sensoren um die Lage im Raum festzustellen etc. Im Falle eines autonomen Fahrzeugs werden Kamerasensoren und zus\u00e4tzliche Sensoren f\u00fcr die Abstandserkennung benutzt und somit der Wahrnehmung der Verkehrslage dienen.<br>Die \u00fcber  Sensorik  aufgenommenen Informationen m\u00fcssen anschlie\u00dfend noch vom System ausgewertet und interpretiert werden. Dazu versucht das System die gesammelten Umgebungsinformationen zu verstehen. Das autonome Auto fragt sich also beispielsweise: Was sehe ich hier? Ist ein Mensch zu erkennen oder doch nur der Schatten eines Baumes? Oder ist es wohlm\u00f6glich ein anderes Auto?<br>Wurden die Informationen dann interpretiert, reagiert das System entsprechend und f\u00fchrt eine Handlung aus. Werden die aufgenommenen Sensorinformationen, wie im Falle unseres Beispiels, als Fu\u00dfg\u00e4nger interpretiert, bremst das Auto ab.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Sensor Fusion<\/h2>\n\n\n\n<p>Nun da wir den Ablauf in einem autonomen System genauer verstehen, k\u00f6nnen wir Sensor Fusion als Teil dieses Ablaufs betrachten.<\/p>\n\n\n\n<p>Eigentlich verh\u00e4lt es sich mit Sensor Fusion wie mit unseren Sinneseindr\u00fccken. Wir h\u00f6ren, sehen und f\u00fchlen verschiedene Reize, welche wie aus unserer Umwelt aufnehmen. Das Gehirn wiederum verarbeitet diese Informationen zu einem gesamtheitlichen Eindruck. Genau so funktioniert auch Sensor Fusion. In einem System werden nicht nur die Daten eines einzelnen Sensors f\u00fcr den Interpretationsschritt verwendet, sondern gleich mehrere. Dadurch verbessert sich der gesamtheitliche Eindruck \u00fcber die Umgebung. Sensor Fusion ist demnach ein Teil des Aufnahme- und Interpretationsschritts in einem autonomen System, da mehrere Sensorinformationen aufgenommen und auch gemeinsam verarbeitet werden.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><a href=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-2.png\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"541\" data-attachment-id=\"12838\" data-permalink=\"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2021\/03\/07\/sensor-fusion\/image-2-5\/\" data-orig-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-2.png\" data-orig-size=\"1290,682\" data-comments-opened=\"1\" data-image-meta=\"{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}\" data-image-title=\"image-2\" data-image-description=\"\" data-image-caption=\"\" data-large-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-2-1024x541.png\" src=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-2-1024x541.png\" alt=\"\" class=\"wp-image-12838\" srcset=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-2-1024x541.png 1024w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-2-300x159.png 300w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-2-768x406.png 768w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-2.png 1290w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/a><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\">Vorteile von Sensor Fusion<\/h3>\n\n\n\n<p>Die Aufnahme und Verarbeitung mehrerer Sensorinformationen bietet gleich mehrere Vorteile wie:<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Genauere Daten<\/h4>\n\n\n\n<p>Mithilfe von Sensor Fusion kann die Genauigkeit und Qualit\u00e4t der, \u00fcber Sensorik erfassten Informationen, verbessert werde. Da die von Sensoren aufgenommenen Informationen nie 100% korrekt sind, sondern Ungenauigkeiten und St\u00f6rsignale enthalten, wird Sensor Fusion eingesetzt, um diese Inkorrektheiten abzuschw\u00e4chen. Werden mehrere Sensoren der gleichen Art verwendet ist es m\u00f6glich die fehlerhaften Informationen herauszufiltern, indem die aufgenommenen Informationen miteinander verrechnet werden. Dazu kann der Durchschnitt der beiden Sensorinformationen ermittelt werden, um den Noise zu herauszurechnen. Genauso wie bei den menschlichen Augen der blinde Fleck durch das zweite Auge erg\u00e4nzt und das Blickfeld vervollst\u00e4ndigt wird, werden bei Sensor Fusion mehrere Sensoren verwendet, um Ungenauigkeiten oder Fehlende Informationen durch weitere Sensoren zu beseitigen.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Verl\u00e4sslichere Daten<\/h4>\n\n\n\n<p>Ein weiter Vorteil von Sensor Fusion ist eine erh\u00f6hte Verl\u00e4sslichkeit der Sensorinformationen. Werden mehrere unterschiedliche Sensoren f\u00fcr die Erf\u00fcllung einer Aufgabe verwendet, k\u00f6nnen die Sensordaten gegeneinander abgeglichen werden, um die Plausibilit\u00e4t der Daten zu \u00fcberpr\u00fcfen. Fallen Sensoren aus, oder liefern aus diversen Gr\u00fcnden komplett falsche Informationen, stehen immer noch die Daten anderer Sensoren f\u00fcr die Erf\u00fcllung einer Aufgabe zur Verf\u00fcgung.<br>Fallen bei einem autonomen Auto die Sensoren f\u00fcr die Geschwindigkeitsermittlung aus, besitzt das System noch weitere Sensoren, wie beispielsweise das GPS, um die Geschwindigkeit festzustellen. Zwar kann die Genauigkeit der der Daten darunter leiden, aber die Information der Geschwindigkeit geht nicht komplett verloren.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Zus\u00e4tzliche Zustandsinformationen<\/h4>\n\n\n\n<p>Durch Sensor-Fusion ergeben sich au\u00dferdem viele neue M\u00f6glichkeiten, um zus\u00e4tzliche Informationen \u00fcber die Systemumgebung zu erhalten. Werden z.B. zwei Sensoren f\u00fcr die Erhebung von Bildinformationen verwendet, kann dadurch zus\u00e4tzlich die Entfernung zu den erkannten Objekten berechnet werden. Genau wie unser Gehirn mithilfe der Bildinformationen von zwei Augen dazu f\u00e4hig ist die Entfernung zu den Objekten zu berechnen.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Sensor Fusion Algorithmen<\/h3>\n\n\n\n<p>Wir haben nun einen \u00dcberblick \u00fcber Sensor Fusion und dar\u00fcber welche Vorteile das Verwenden mehrerer Sensorinformationen f\u00fcr den Entscheidungsprozess eines autonomen Systems haben kann. Im Weiteren schauen wir uns an wie Sensorinformationen aus verschiedenen Quellen am besten interpretiert werden k\u00f6nnen. Daf\u00fcr betrachten wir die allgemeine Vorgehensweise von Sensor Fusion Algorithmen, deren Ziel es ist den physischen Zustands eines System oder Objekts abzusch\u00e4tzen.<br>Im Prinzip kombinieren Sensor Fusion Algorithmen Dinge die \u00fcber einen Vorgang bekannt sind mit den Daten die von Sensoren erfasst werden. Konkret sind in den Sensor Fusion Algorithmen dazu physikalische Gleichungsmodelle als Ausgangspunkt verwendet. Diese Gleichungsmodelle hei\u00dfen \u201eMotion model\u201c und sind in ein sogenanntes \u201eprediction model\u201c integriert. Prediction models sind Gleichungen die der Vorhersage von Systemzust\u00e4nden dienen. Mithilfe des prediction model werden also anhand von bekannten physikalischen Gleichungen Vorhersagen \u00fcber den zuk\u00fcnftigen Zustand eines Systems gemacht. Diese Vorhersage kann dann mithilfe eines sog. \u201eupdate model\u201c um die tats\u00e4chlich, von Sensoren gemessenen Daten, korrigiert werden. Das Ergebnis beinhaltet damit eine Mischung aus Vorhersage und tats\u00e4chlich gemessenen Werten. Falsche Messwerte werden also schon durch das Prinzip dieses Vorhersagevorgangs abgeschw\u00e4cht, da sich das System nicht komplett auf Sensorinformationen verl\u00e4sst. Au\u00dferdem wird die Plausibilit\u00e4t von Sensorinformationen \u00fcberpr\u00fcfbar, weil eine Vorhersage den Rahmen f\u00fcr m\u00f6gliche Werte vorgibt und Messfehler dadurch erkannt werden k\u00f6nnen. Klingt alles etwas kompliziert, schauen wir uns das doch einmal in einem Beispiel an.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Beispiel Lokalisation<\/h3>\n\n\n\n<p>Stellen wir uns wir fahren \u00fcber eine Landstra\u00dfe und m\u00f6chten nun die Position unseres Autos anhand von Sensorinformationen bestimmen. Registriert der Geschwindigkeitssensor eines Fahrzeugs z.B die Geschwindigkeit von 10m\/s, so kann die Annahme getroffen werden, dass sich das Fahrzeug nach einer Sekunde 10 Meter weiter vorne befindet, falls sich die Richtung des Fahrzeugs nicht \u00e4ndert. Nun wird die vorhergesagte Position mit den Sensorinformationen verglichen und verrechnet. Es ergibt sich die vom System registrierte neue Position des Fahrzeugs. Die festgestellt Position und alle weiteren Zustandsinformationen(Geschwindigkeit usw.) werden anschlie\u00dfend als Ausgang f\u00fcr die n\u00e4chste Vorhersage verwendet und der Vorgang beginnt von neuem.<\/p>\n\n\n\n<p>Hier einmal die Positionsbestimmung durch Sensorfusion Bildlich dargestellt:<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><a href=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-3.png\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"645\" data-attachment-id=\"12839\" data-permalink=\"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2021\/03\/07\/sensor-fusion\/image-3-5\/\" data-orig-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-3.png\" data-orig-size=\"1095,690\" data-comments-opened=\"1\" data-image-meta=\"{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}\" data-image-title=\"image-3\" data-image-description=\"\" data-image-caption=\"\" data-large-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-3-1024x645.png\" src=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-3-1024x645.png\" alt=\"\" class=\"wp-image-12839\" srcset=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-3-1024x645.png 1024w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-3-300x189.png 300w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-3-768x484.png 768w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-3.png 1095w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/a><figcaption>Vorhersage der zuk\u00fcnftigen Position anhand des prediction model<\/figcaption><\/figure>\n\n\n\n<p>Die Gelbe Linie beschreibt die Vorhersage der Position anhand der aktuellen Position und dem Zustand unseres System. Diese Informationen werden durch das prediction model verarbeitet und es kommt zu einer Vorhersage . Der Systemzustand beinhaltet Informationen wie z.B Geschwindigkeit, Position, Karten Daten usw. die als Grundlage f\u00fcr die Vorhergesagt Position dienen. Wie ihr seht ist die Vorhersage nicht perfekt sondern etwas neben der Stra\u00dfe. Es wird auch keine vollst\u00e4ndige Korrektheit erwartet, denn die Vorhersage wird jetzt noch durch Sensorinformationen erg\u00e4nzt.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><a href=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-5.png\"><img loading=\"lazy\" decoding=\"async\" width=\"624\" height=\"400\" data-attachment-id=\"12843\" data-permalink=\"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2021\/03\/07\/sensor-fusion\/image-5-3\/\" data-orig-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-5.png\" data-orig-size=\"624,400\" data-comments-opened=\"1\" data-image-meta=\"{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}\" data-image-title=\"image-5\" data-image-description=\"\" data-image-caption=\"\" data-large-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-5.png\" src=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-5.png\" alt=\"\" class=\"wp-image-12843\" srcset=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-5.png 624w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-5-300x192.png 300w\" sizes=\"auto, (max-width: 624px) 100vw, 624px\" \/><\/a><figcaption>\u00dcber die Sensorik des Systems festgestellte Position<\/figcaption><\/figure>\n\n\n\n<p>Die rote Linie beschreibt die festgestellte Position anhand von Sensordaten. Unser System hat zwischen den Messungen eventuell die Geschwindigkeit oder Richtung ge\u00e4ndert, deshalb bekommen wir ein etwas anderes Ergebnis als das prediction model. Aber auch hier ist die Position nicht richtig, da die Sensoren nicht perfekt funktionieren sondern St\u00f6rsignale beinhalten und eventuell falsche Informationen aufnehmen. Deshalb werden im Folgenden schritt die Vorhersage und die gemessenen Sensordaten zu einer finale Lokalisation verrechnet.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><a href=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-4.png\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"659\" data-attachment-id=\"12841\" data-permalink=\"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2021\/03\/07\/sensor-fusion\/image-4-4\/\" data-orig-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-4.png\" data-orig-size=\"1093,703\" data-comments-opened=\"1\" data-image-meta=\"{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}\" data-image-title=\"image-4\" data-image-description=\"\" data-image-caption=\"\" data-large-file=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-4-1024x659.png\" src=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-4-1024x659.png\" alt=\"\" class=\"wp-image-12841\" srcset=\"https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-4-1024x659.png 1024w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-4-300x193.png 300w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-4-768x494.png 768w, https:\/\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/03\/image-4.png 1093w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/a><figcaption>Berechnung des Systemzustands aus Sensordaten und Vorhersage<\/figcaption><\/figure>\n\n\n\n<p>Die Lila Kurve stellt Lokalisation anhand der Vorhersage und der Sensorinformationen dar. Die Berechnung der Position f\u00e4llt zwischen die Gelbe und die rote Linie und im optimal Fall m\u00f6glichst nah an die tats\u00e4chliche Position des Fahrzeugs.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Kalman Filter<\/h3>\n\n\n\n<p>Einer der bekanntesten Sensor Fusion Algorithmen ist wohl der Kalman Filter. Vor allem bietet sich diese Technologie f\u00fcr die Vorhersage anhand mehrerer Sensorinformationen mit hohem Rauschanteil an. Der Kalman Filter geht dabei von einer Gau\u00dfverteilten Welt aus und ist optimal f\u00fcr Lineare Problemstellungen. Somit eignet er sich f\u00fcr Aufgaben wie Lokalisation. Oft wird der Kalman Filter mit Sensor Fusion gleichgesetzt obwohl es auch andere M\u00f6glichkeiten f\u00fcr die Verrechnung von Sensorinformationen wie z.B. neuronale Netze gibt.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Wie geht\u2019s weiter?<\/h3>\n\n\n\n<p>Wir haben in diesem Blogeintrag das grundlegende Prinzip hinter Sensor Fusion betrachtet. Sensor Fusion bietet viele Vorteile f\u00fcr autonome Systeme durch die Kombination von Sensorinformationen sind Umgebungseinsch\u00e4tzungen pr\u00e4ziser und zuverl\u00e4ssiger . Es gibt viele m\u00f6gliche Anwendungsf\u00e4lle f\u00fcr Sensor Fusion wie Lokalisation, Hinderniserkennung, Abstandserkennung usw. In Zukunft werden viel autonome Systeme Sensor Fusion verwenden, um intelligentere, sicherere und zuverl\u00e4ssigere Entscheidungen zu berechnen. Es lohnt sich also das Thema auch weiterhin zu verfolgen.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Referenzen:<\/h3>\n\n\n\n<ol class=\"wp-block-list\"><li>https:\/\/algorithmsbook.com\/#<\/li><li>https:\/\/www.researchgate.net\/publication\/332997416_Multi-Sensor_Data_Fusion_Algorithm_Based_on_Trust_Degree_and_Improved_Genetics<\/li><li>https:\/\/www.udacity.com\/blog\/2020\/08\/sensor-fusion-algorithms-explained.html<\/li><li>https:\/\/towardsdatascience.com\/wtf-is-sensor-fusion-part-2-the-good-old-kalman-filter-3642f321440<\/li><li>https:\/\/www.sciencedirect.com\/science\/article\/abs\/pii\/S1367578802000457<\/li><li>https:\/\/www.researchgate.net\/profile\/Wilfried-Elmenreich\/publication\/267771481_An_Introduction_to_Sensor_Fusion\/links\/55d2e45908ae0a3417222dd9\/An-Introduction-to-Sensor-Fusion.pdf<\/li><\/ol>\n","protected":false},"excerpt":{"rendered":"<p>Geschrieben von Konstantin Rosenberg Einleitung Stell dir vor du f\u00e4hrst in deinem autonom Fahrenden Auto die Stra\u00dfe entlang. Pl\u00f6tzlich erscheint, hinter einem parkenden Auto, ein Fu\u00dfg\u00e4nger und tritt direkt vor dir auf die Fahrbahn. Du erschrickst, doch das Auto kommt elegant vor dem unachtsamen Spazierg\u00e4nger zu stehen. W\u00e4hrend du dir gerade nicht einmal sicher bist [&hellip;]<\/p>\n","protected":false},"author":1020,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[1,652,21,651],"tags":[],"ppma_author":[842],"class_list":["post-12835","post","type-post","status-publish","format-standard","hentry","category-allgemein","category-artificial-intelligence","category-system-architecture","category-system-designs"],"aioseo_notices":[],"jetpack_featured_media_url":"","jetpack-related-posts":[{"id":24929,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2023\/08\/07\/how-to-post-erstellen\/","url_meta":{"origin":12835,"position":0},"title":"How To: Post erstellen","author":"Nadine Weber","date":"7. August 2023","format":false,"excerpt":"Du bist Studierende*r an der Hochschule der Medien Stuttgart und m\u00f6chtest in diesem Blog einen Post ver\u00f6ffentlichen? Hier ist eine Anleitung f\u00fcr dich.","rel":"","context":"In &quot;Teaching and Learning&quot;","block_context":{"text":"Teaching and Learning","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/teaching-and-learning\/"},"img":{"alt_text":"Blog als Buchstaben-Satz. Foto von Miguel \u00c1. Padri\u00f1\u00e1n","src":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/08\/pexels-blog_pic-scaled.jpg?resize=350%2C200&ssl=1","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/08\/pexels-blog_pic-scaled.jpg?resize=350%2C200&ssl=1 1x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/08\/pexels-blog_pic-scaled.jpg?resize=525%2C300&ssl=1 1.5x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/08\/pexels-blog_pic-scaled.jpg?resize=700%2C400&ssl=1 2x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/08\/pexels-blog_pic-scaled.jpg?resize=1050%2C600&ssl=1 3x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/08\/pexels-blog_pic-scaled.jpg?resize=1400%2C800&ssl=1 4x"},"classes":[]},{"id":25162,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2023\/07\/31\/gesichter-der-tauschung-wie-deepfakes-unsere-identitat-bedrohen\/","url_meta":{"origin":12835,"position":1},"title":"Gesichter der T\u00e4uschung &#8211; Wie Deepfakes unsere Identit\u00e4t bedrohen","author":"Susanne Wei\u00df","date":"31. July 2023","format":false,"excerpt":"Stell dir vor: Deine Tochter ruft dich an - die Stimme klingt zumindest wie deine Tochter, die Schauspielerin Margot Robbie im neuen Barbie-Film tr\u00e4gt statt ihrem dein Gesicht und pl\u00f6tzlich taucht im Internet ein Video auf, das dich bei einer Straftat zeigt - du bist jedoch unschuldig und das Video\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Website_banner_blog_deepfake_800x450-%E2%80%93-6-1024x576-panorama.png?resize=350%2C200&ssl=1","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Website_banner_blog_deepfake_800x450-%E2%80%93-6-1024x576-panorama.png?resize=350%2C200&ssl=1 1x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Website_banner_blog_deepfake_800x450-%E2%80%93-6-1024x576-panorama.png?resize=525%2C300&ssl=1 1.5x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/07\/Website_banner_blog_deepfake_800x450-%E2%80%93-6-1024x576-panorama.png?resize=700%2C400&ssl=1 2x"},"classes":[]},{"id":21753,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2021\/09\/26\/the-way-of-system-thinking\/","url_meta":{"origin":12835,"position":2},"title":"The Way of System Thinking &#8211; Was Systemdenken ausmacht","author":"Julia Grimm","date":"26. September 2021","format":false,"excerpt":"Ein Artikel von Jessica Hofmann und Julia Grimm In unserem Leben, egal ob im Privaten oder Beruf, m\u00fcssen wir Entscheidungen treffen. Diese Entscheidungen haben so gut wie immer eine Konsequenz. Bei allt\u00e4glichen Entscheidungen ist uns das oft nicht bewusst. Erst bei gro\u00dfen und schweren Entscheidungen sind wir Menschen uns dar\u00fcber\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/09\/systems-thinking.jpg?resize=350%2C200&ssl=1","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/09\/systems-thinking.jpg?resize=350%2C200&ssl=1 1x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/09\/systems-thinking.jpg?resize=525%2C300&ssl=1 1.5x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2021\/09\/systems-thinking.jpg?resize=700%2C400&ssl=1 2x"},"classes":[]},{"id":26683,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2025\/02\/07\/secure-systems-podcast-zero-trust\/","url_meta":{"origin":12835,"position":3},"title":"Secure Systems Podcast &#8211; Zero Trust","author":"Andreas Gantner","date":"7. February 2025","format":false,"excerpt":"Mit Audio von Boryslaw_Kozielski Geh\u00f6ren Sie zu den Menschen, die die Kamera ihres Laptops abdecken? Sicherheit geht vor. Absolutes Vertrauen kann man nicht haben. Aber wenn es um die Sicherheit in Unternehmen oder auch im Gesundheitswesen geht, ist dann doch jedes Ger\u00e4t, das man ins Firmennetzwerk bringt, gleich sicher und\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"","width":0,"height":0},"classes":[]},{"id":24516,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2023\/03\/09\/wie-ticketmaster-taylor-swift-verargerte-und-was-software-developer-daraus-lernen-konnen\/","url_meta":{"origin":12835,"position":4},"title":"Wie Ticketmaster Taylor Swift ver\u00e4rgerte und was Software Developer daraus lernen k\u00f6nnen","author":"Marilena Brink","date":"9. March 2023","format":false,"excerpt":"Verkaufsstarts f\u00fcr gro\u00dfe Ereignisse wie Konzerte oder Sportveranstaltungen sind immer mit Spannung erwartete Ereignisse. Doch wenn es bei diesen Verkaufsstarts zu Problemen kommt, kann dies f\u00fcr Veranstalter und Kunden gleicherma\u00dfen \u00e4rgerlich sein. Ein bekanntes Beispiel hierf\u00fcr ist das Debakel von Ticketmaster bei dem Verkauf von Taylor Swift Tickets f\u00fcr ihre\u2026","rel":"","context":"In &quot;Scalable Systems&quot;","block_context":{"text":"Scalable Systems","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/scalable-systems\/"},"img":{"alt_text":"","src":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/03\/image-12.png?resize=350%2C200&ssl=1","width":350,"height":200,"srcset":"https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/03\/image-12.png?resize=350%2C200&ssl=1 1x, https:\/\/i0.wp.com\/blog.mi.hdm-stuttgart.de\/wp-content\/uploads\/2023\/03\/image-12.png?resize=525%2C300&ssl=1 1.5x"},"classes":[]},{"id":24997,"url":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/2023\/07\/24\/digitaler-nachlass-was-bleibt-zuruck-wenn-wir-gehen\/","url_meta":{"origin":12835,"position":5},"title":"Digitaler Nachlass &#8211; Was bleibt zur\u00fcck, wenn wir gehen?","author":"Mike Buchhammer","date":"24. July 2023","format":false,"excerpt":"Die Digitalisierung hat unser Leben in den letzten Jahren stark gepr\u00e4gt. Allein in Deutschland sind bereits 87% aller Menschen ab zehn Jahren online [1]. Wir teilen unser Leben auf sozialen Netzwerken, nutzen Online-Banking und speichern unsere wertvollen Erinnerungen in der Cloud. Doch was geschieht mit all unseren digitalen G\u00fctern, sobald\u2026","rel":"","context":"In &quot;Allgemein&quot;","block_context":{"text":"Allgemein","link":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/category\/allgemein\/"},"img":{"alt_text":"","src":"","width":0,"height":0},"classes":[]}],"jetpack_sharing_enabled":true,"authors":[{"term_id":842,"user_id":1020,"is_guest":0,"slug":"kr057","display_name":"Konstantin Rosenberg","avatar_url":"https:\/\/secure.gravatar.com\/avatar\/c8cefee7eb759ef239eb4e899402fcf946d021778ccd8ee2fa0d162b0fba90fb?s=96&d=mm&r=g","0":null,"1":"","2":"","3":"","4":"","5":"","6":"","7":"","8":""}],"_links":{"self":[{"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/posts\/12835","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/users\/1020"}],"replies":[{"embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/comments?post=12835"}],"version-history":[{"count":12,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/posts\/12835\/revisions"}],"predecessor-version":[{"id":12853,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/posts\/12835\/revisions\/12853"}],"wp:attachment":[{"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/media?parent=12835"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/categories?post=12835"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/tags?post=12835"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/blog.mi.hdm-stuttgart.de\/index.php\/wp-json\/wp\/v2\/ppma_author?post=12835"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}