PatentDe  


Dokumentenidentifikation DE102007023037A1 22.11.2007
Titel Objekterkennungsvorrichtung
Anmelder Fuji Jukogyo K.K., Tokio/Tokyo, JP
Erfinder Sekiguchi, Hiroyuki, Tokyo, JP
Vertreter Vossius & Partner, 81675 München
DE-Anmeldedatum 16.05.2007
DE-Aktenzeichen 102007023037
Offenlegungstag 22.11.2007
Veröffentlichungstag im Patentblatt 22.11.2007
IPC-Hauptklasse G06K 9/62(2006.01)A, F, I, 20070801, B, H, DE
Zusammenfassung Eine Existenzwahrscheinlichkeit eines Bildobjekts wird basierend auf einem durch eine Stereokamera (2) aufgenommenen Bild durch einen Bildobjekt-Existenzwahrscheinlichkeitsberechnungsabschnitt (11) berechnet, eine Existenzwahrscheinlichkeit eines Millimeterwellenobjekts wird basierend auf einem Ausgangssignal eines Millimeterwellenradars (3) durch einen Millimeterwellenobjekt-Existenzwahrscheinlichkeitsberechnungsabschnitt (12) berechnet, und eine Existenzwahrscheinlichkeit eines Laserobjekts wird basierend auf einem Ausgangssignal eines Laserradars (4) durch einen Laserobjekt-Existenzwahrscheinlichkeitsberechnungsabschnitt (13) berechnet. Außerdem werden die jeweiligen Existenzwahrscheinlichkeiten des Bildobjekts, des Millimeterwellenobjekts und des Laserobjekts basierend auf Erkennungsraten der jeweiligen Erkennungssensoren durch einen Existenzwahrscheinlichkeitskorrekturabschnitt (14) korrigiert und die Existenzwahrscheinlichkeiten nach der Korrektur als Fusions-Existenzwahrscheinlichkeit durch einen Fusions-Existenzwahrscheinlichkeitsberechnungsabschnitt (15) fusioniert, wodurch eine Steuerung zum Vermeiden eines Kontakts mit einem Hindernis oder zum Ausgeben eines Alarms oder einer Warnung oder eine ähnliche Steuerung zu einem optimalen Zeitpunkt zuverlässig ausgeführt werden kann.

Beschreibung[de]

Die vorliegende Erfindung betrifft eine Objekterkennungsvorrichtung zum Erkennen eines Objekts in derUmgebung eines eigenen Fahrzeugs basierend auf Signalen von mehreren Sensoren zum Erfassen des Objekts in der Umgebung des eigenen Fahrzeugs.

Auf die Offenbarung der japanischen Patentanmeldung Nr. 2006-140755, eingereicht am 19. Mai 2006 einschließlich der Beschreibung, der Zeichnungen und der Zusammenfassung wird hierin in ihrer Gesamtheit durch Verweis Bezug genommen.

In den vergangenen Jahren ist für ein Fahrzeug, wie beispielsweise ein Automobil oder ein ähnliches Fahrzeug, eine Technik zum Erkennen eines in einer Fahrtrichtung des eigenen Fahrzeugs vorhandenen Objekts, einschließlich eines dreidimensionalen Objekts, durch Erfassen einer Fahrzeugaußenumgebung durch eine Kamera, ein Millimeterwellenradar, ein Laserradar oder eine ähnliche Einrichtung entwickelt worden, die auf eine Fahrzeugsteuerung, wie beispielsweise eine Kollisionsvermeidungssteuerung oder eine ähnliche Steuerung, angewendet wird.

Obwohl gemäß einer derartigen Technik zum Erkennen eines Objekts im Allgemeinen Erkennungssensoren verwendet werden, die durch eine Kamera, ein Millimeterwellenradar, ein Laserradar und ähnliche Einrichtungen implementiert werden, führen die Erkennungssensoren zu einem Problem dahingehend, dass in ihrer Erfassungsgenauigkeit in einer Fahrtumgebung eine Streuung auftritt. Daher wird in jüngster Zeit ein als Sensorfusion bezeichnetes Verfahren vorgeschlagen, gemäß dem mehrere aus einer Kamera, einem Millimeterwellenradar, einem Laserradar und ähnlichen Einrichtungen gebildeten Sensoren auf einem Fahrzeug montiert werden und ein in Vorausrichtung befindliches Objekt durch Kombinieren oder Fusionieren von durch die jeweiligen Sensoren erhaltenen Ausgangssignalen erkannt wird.

Beispielsweise wird in der JP-A-2005-165421 (Patentdokument 1) eine Technik beschrieben, gemäß der basierend auf durch eine Bilderkennungsvorrichtung, die ein Millimeterwellenradar und eine Kamera aufweist, erfassten Daten Wahrscheinlichkeitsverteilungen berechnet werden, die die Genauigkeit der jeweiligen Daten darstellen, wobei die jeweiligen Daten durch Berechnen eines Produkts aus mehreren der Wahrscheinlichkeitsverteilungen bezüglich des gleichen Datenwertes fusioniert werden und ein Typ eines sich in Vorausrichtung befindlichen Objekts basierend auf einem Datenwert mit der höchsten Wahrscheinlichkeit untersucht wird.

Gemäß der im Patentdokument 1 beschriebenen Technik kann auch in dem Fall, dass eine Wahrscheinlichkeitsverteilung, die basierend auf durch eine Erkennungseinrichtung für einen vorausliegenden Bereich erfassten Daten berechnet wird, eine verminderte Wahrscheinlichkeit darstellt, wenn eine Wahrscheinlichkeitsverteilung, die basierend auf durch eine andere Erkennungseinrichtung für einen vorausliegenden Bereich erfassten Daten berechnet wird, eine hohe Wahrscheinlichkeit darstellt, der Typ des in Vorausrichtung befindlichen Objekts unter Verwendung eines Datenwertes mit der hohen Wahrscheinlichkeit erkannt werden.

Wenn ein Objekt lediglich anhand einer Höhe einer Wahrscheinlichkeitsverteilung bestimmt wird, wie dies im Patentdokument 1 beschrieben ist, kann es jedoch vorkommen, dass aufgrund einer unsicheren oder unzuverlässigen Charakteristik eines Sensors zum Erfassen einer Umgebungssituation, eines durch eine Steuerungsvorrichtung verursachten Einflusses auf eine Fahrzeugstabilisierung, usw. eine Situation auftritt, gemäß der ein Aktivierungszeitpunkt für eine Kollisionsvermeidungssteuerung, eine Alarmsteuerung, usw. zum Vermeiden eines Kontakts (Kollision) zwischen dem Objekt und dem eigenen Fahrzeug übermäßig früh oder übermäßig verzögert auftritt, so dass möglicherweise kein geeigneter Steuerungsaktivierungszeitpunkt erzeugt wird.

Die vorliegende Erfindung wurde hinsichtlich der vorstehend beschriebenen Situation entwickelt, und es ist Aufgabe der vorliegenden Erfindung, eine Objekterkennungsvorrichtung bereitzustellen, die dazu geeignet ist, eine Kollisionsvermeidungssteuerung, eine Alarmsteuerung oder eine ähnliche Steuerung zum Vermeiden eines Kontakts (Kollision) mit einem Objekt basierend auf einem Objekterkennungsergebnis zu einem geeigneten Zeitpunkt auszuführen, wobei eine unsichere Charakteristik eines Sensors zum Erfassen einer Umgebungssituation, ein durch eine Steuerungsvorrichtung verursachter Einfluss auf eine Fahrzeugstabilisierung, eine Fahrtumgebung, usw. berücksichtigt werden. Diese Aufgabe wird durch die Merkmale der Patentansprüche gelöst.

Die erfindungsgemäße Objekterkennungsvorrichtung kann eine Steuerung basierend auf einem Objekterkennungsergebnis zu einem geeigneten Zeitpunkt ausführen, wobei eine unsichere Charakteristik eines Sensors zum Erfassen einer Umgebungssituation, ein durch eine Steuerungsvorrichtung verursachter Einfluss auf eine Fahrzeugstabilisierung, eine Fahrtumgebung, usw. berücksichtigt werden.

Nachstehend werden Ausführungsformen der Erfindung unter Bezug auf die beigefügten Zeichnungen beschrieben; es zeigen:

1 ein Blockdiagramm einer ersten Ausführungsform einer erfindungsgemäßen Objekterkennungsvorrichtung;

2 ein Ablaufdiagramm einer in der ersten Ausführungsform vorgesehenen Fusions-Existenzwahrscheinlichkeitsberechnungsverarbeitung;

3 ein Ablaufdiagramm einer in der ersten Ausführungsform vorgesehenen Existenzwahrscheinlichkeitsberechnungsverarbeitung für ein durch einen Erkennungssensor erfasstes Objekt;

4 eine Erläuterungsansicht zum Darstellen eines Übergangs einer statistischen Position eines ein Bestimmungsobjekt darstellenden Objekts;

5 ein Diagramm zum Erläutern einer Existenzwahrscheinlichkeit; und

6 ein Blockdiagramm einer zweiten Ausführungsform eines erfindungsgemäßen Objekterkennungsabschnitts.

Die 1 bis 5 betreffen eine erste Ausführungsform der Erfindung, wobei 1 ein Blockdiagramm einer Objekterkennungsvorrichtung, 2 ein Ablaufdiagramm einer Fusions-Existenzwahrscheinlichkeitsberechnungsverarbeitung, 3 ein Ablaufdiagramm einer Existenzwahrscheinlichkeitsberechnungsverarbeitung für ein durch einen Erkennungssensor erfasstes Objekt, 4 ein Erläuterungsdiagramm zum Darstellen eines Übergangs einer statistischen Position eines ein Bestimmungsobjekt darstellenden Objekts und 5 ein Diagramm zum Erläutern einer Existenzwahrscheinlichkeit darstellen.

In 1 bezeichnet Bezugszeichen 1 eine an einem Fahrzeug, z.B. einem Automobil oder einem ähnlichen Fahrzeug, montierte Objekterkennungsvorrichtung zum Erkennen eines Objekts, z.B. eines dreidimensionalen Objekts, durch Verarbeiten eines Signals von einem Erkennungssensor zum Erfassen einer Außenumgebungssituation, der ein Objekterkennungsergebnis an eine nicht dargestellte Fahrzeugsteuerungsvorrichtung ausgibt, um zu veranlassen, dass die Fahrzeugsteuerungsvorrichtung eine Alarmsteuerung oder eine Kollisionsvermeidungssteuerung oder eine ähnliche Steuerung zum Vermeiden eines Kontakts (Kollision) zwischen dem Objekt und dem eigenen Fahrzeug ausführt. Bezüglich der vorliegenden Ausführungsform wird ein Beispiel erläutert, in dem drei Typen von Erkennungssensoren mit verschiedenen Erfassungscharakteristiken, d.h. eine Stereokamera 2, ein Millimeterwellenradar 3 und ein Laserradar 4, auf einem Fahrzeug montiert sind, wobei ein Objekt hochgradig präzise erkannt wird, indem Existenzwahrscheinlichkeiten des basierend auf Ausgangssignalen der jeweiligen Erkennungssensoren erkannten Objekts fusioniert oder kombiniert werden.

Die Objekterkennungsvorrichtung 1 weist auf: einen Stereobildverarbeitungsabschnitt 5 zum Verarbeiten eines Stereobildsignals von der Stereokamera 2, einen Millimeterwellensignalverarbeitungsabschnitt 6 zum Verarbeiten eines Signals vom Millimeterwellenradar 3 und einen Lasersignalverarbeitungsabschnitt 7 zum Verarbeiten eines Signals vom Laserradar 4, wobei ein Objekt basierend auf dem Stereobildsignal, dem Millimeterwellensignal und dem Lasersignal durch die jeweiligen Verarbeitungsabschnitte 5 bis 7 extrahiert wird. Information über das durch die Verarbeitungsabschnitte 5 bis 7 extrahierte Objekt wird an einen Objekterkennungsabschnitt 10 übertragen, und das Objekt wird basierend auf einer Fusions-Existenzwahrscheinlichkeit erkannt, gemäß der das Objekt basierend auf den Signalen von den jeweiligen Erkennungssensoren fusioniert wird.

Die Stereokamera 2 wird durch Anordnen eines aus einer linken und einer rechten Kamera (CCD-Kameras oder CMOS-Kameras) bestehenden Kamerapaars gebildet, die mittels fester Bildaufnahmeelemente in einem vorgegebenen Abstand angeordnet sind, um Stereobilder einer Szenerie einer Fahrzeugaußenumgebung von verschiedenen Beobachtungspunkten aufzunehmen. Die Stereokamera 2 ist beispielsweise an einer Oberseite eines Raumspiegels im Inneren eines Fahrgastraums befestigt, um ein Stereobild der Fahrzeugaußenumgebung an den Stereobildverarbeitungsabschnitt 5 auszugeben.

Der Stereobildverarbeitungsabschnitt 5 extrahiert ein Objekt, wie beispielsweise ein Fahrzeug, einen Fußgänger, usw. durch Erzeugen von Abstandsdaten durch ein Triangulationsprinzip von einem Versatzmaß einer Position des erfassten Objekts (nachstehend als 'Bildobjekt' bezeichnet) basierend auf dem durch die Stereokamera 2 aufgenommenen Stereobild und Vergleichen der Daten durch eine bekannte Gruppierungsverarbeitung oder mit einem vorgespeicherten Objekt basierend auf den Abstandsdaten. Außerdem wird als ein charakteristischer Wert (charakteristischer Bildwert) zum Spezifizieren des Bildobjekts beispielsweise ein Abstandskoordinatenwert in einer Vorwärts-Rückwärtsrichtung einer Fahrzeugkarosserie, ein Positionskoordinatenwert in einer Fahrzeugbreitenrichtung, eine Relativgeschwindigkeit (eine zeitliche Änderung der Abstandskoordinate), usw. bezogen auf das eigene Fahrzeug als Ursprung berechnet.

Außerdem ist das Millimeterwellenradar 3 im Wesentlichen in der Mitte der Fahrzeugbreitenrichtung an einem vorderen Endabschnitt des Fahrzeugs befestigt, um mehrere Millimeterwellenteilstrahlen radial zu emittieren. D.h. es ist schwierig, die vom Millimeterwellenradar 3 emittierte Millimeterwelle im Vergleich zum Laserlicht des Laserradars 4 schmal zu machen, so dass das Objekt durch radiales Emittieren der mehreren Millimeterwellenteilstrahlen und Empfangen von reflektierten Wellen vom Objekt erfasst wird.

Der Millimeterwellensignalverarbeitungsabschnitt 6 berechnet einen charakteristischen Wert (charakteristischen Millimeterwellenwert) zum Spezifizieren des Objekts (nachstehend als 'Millimeterwellenobjekt' bezeichnet) basierend auf einem Erfassungssignal vom Millimeterwellenradar 3. Beispielsweise wird der Abstandskoordinatenwert in der Vorwärts-Rückwärtsrichtung der Fahrzeugkarosserie basierend auf einer Zeitdauer von der Übertragung bis zum Empfang der Millimeterwelle durch das Millimeterwellenradar 3 berechnet, und der Positionskoordinatenwert in der Fahrzeugbreitenrichtung wird basierend auf einer Übertragungsrichtung desjenigen Teilstrahls unter den mehreren Teilstrahlen berechnet, dessen reflektierte Welle empfangen wird. Außerdem wird die Relativgeschwindigkeit von einer Änderung des Abstandskoordinatenwertes basierend auf einem Dopplerprinzip berechnet.

Das Laserradar 4 kann dagegen schmales bzw. gerichtetes Laserlicht emittieren und strahlt einen Laserimpuls ab, wobei Laserlicht mit einer schmalen Breite über einen vorgegebenen Sichtwinkel gescannt wird, und empfängt vom Objekt reflektiertes Licht. Das Laserradar 4 ist beispielsweise im Wesentlichen an der gleichen Position befestigt wie das Millimeterwellenradar 3 und strahlt Laserimpulse ab, während Laserlicht mit der schmalen Breite bezüglich des Fahrzeugs nach vorne in der Fahrzeugbreitenrichtung (oder in der Fahrzeugbreitenrichtung und in einer Höhenrichtung) über einen vorgegebenen Sichtwinkel gescannt wird.

Der Lasersignalverarbeitungsabschnitt 7 berechnet einen charakteristischen Wert (charakteristischen Laserwert) zum Spezifizieren des Objekts (nachstehend als 'Laserobjekt' bezeichnet) basierend auf einem Erfassungssignal vom Laserradar 4. Beispielsweise wird als charakteristischer Laserwert der Abstandskoordinatenwert in der vorwärts-Rückwärtsrichtung der Fahrzeugkarosserie basierend auf einer Zeitdauer von der Übertragung bis zum Empfang des Laserlichts durch das Laserradar 4 berechnet, wird der Positionskoordinatenwert in der Fahrzeugbreitenrichtung basierend auf einer Übertragungsrichtung des Laserlichts, wenn reflektiertes Licht empfangen wird, berechnet, und wird die Relativgeschwindigkeit basierend auf einer zeitlichen Änderung des Abstandskoordinatenwertes berechnet.

Außerdem wird ein Koordinatensystem, das die jeweiligen charakteristischen Werte des durch die Verarbeitungsabschnitte 5 bis 7 erfassten Objekts darstellt, in Überereinstimmung mit einem Koordinatensystem festgelegt, das ein Referenzsystem darstellt (z.B. mit einem Koordinatensystem zum Erkennen des Bildobjekts).

Daten des durch die jeweiligen Verarbeitungsabschnitte 5 bis 7 extrahierten Objekts werden an den Objekterkennungsabschnitt 10 übertragen. Der Objekterkennungsabschnitt 10 weist einen Bildobjekt-Existenzwahrscheinlichkeitsberechnungsabschnitt 11 zum Berechnen einer Existenzwahrscheinlichkeit eines basierend auf dem Bild erfassten Bildobjekts, einen Millimeterwellenobjekt-Existenzwahrscheinlichkeitsberechnungsabschnitt 12 zum Berechnen einer Existenzwahrscheinlichkeit eines basierend auf der Millimeterwelle erfassten Millimeterwellenobjekts und einen Laserobjekt-Existenzwahrscheinlichkeitsberechnungsabschnitt 13 zum Berechnen einer Existenzwahrscheinlichkeit eines basierend auf dem Laserlicht erfassten Laserobjekts auf, wodurch die Existenzwahrscheinlichkeiten für die jeweiligen individuellen Erkennungssensoren berechnet werden.

Außerdem werden, wie später beschrieben wird, in der vorliegenden Ausführungsform die jeweiligen Existenzwahrscheinlichkeiten für das Bildobjekt, das Millimeterwellenobjekt und das Laserobjekt grundsätzlich unter Verwendung eines ähnlichen Algorithmus berechnet.

Außerdem weist der Objekterkennungsabschnitt 10 einen Existenzwahrscheinlichkeitskorrekturabschnitt 14 und einen Fusions-Existenzwahrscheinlichkeitsberechnungsabschnitt 15 auf. Der Existenzwahrscheinlichkeitskorrekturabschnitt 14 korrigiert die Existenzwahrscheinlichkeiten der jeweiligen Erkennungssensoren basierend auf den Charakteristiken der jeweiligen Erkennungssensoren und überträgt die korrigierten Existenzwahrscheinlichkeiten an den Fusions-Existenzwahrscheinlichkeitsberechnungsabschnitt 15. Der Fusions-Existenzwahrscheinlichkeitsberechnungsabschnitt 15 berechnet eine Fusions-Existenzwahrscheinlichkeit als ein Ergebnis der Objekterkennung durch Fusionieren oder Kombinieren der vom Existenzwahrscheinlichkeitskorrekturabschnitt 14 übertragenen jeweiligen korrigierten Existenzwahrscheinlichkeiten.

D.h., die Verarbeitung zum Berechnen der Existenzwahrscheinlichkeiten der jeweiligen Erkennungssensoren, Korrigieren der jeweiligen Existenzwahrscheinlichkeiten und Berechnen der Fusions-Existenzwahrscheinlichkeit werden gemäß den Ablaufdiagrammen der 2 und 3 ausgeführt. Die Verarbeitungen werden nachstehend unter Bezug auf die Ablaufdiagramme der 2 und 3 beschrieben.

Das Ablaufdiagramm von 2 zeigt eine Fusions-Existenzwahrscheinlichkeitsberechnungsverarbeitung, wobei in Schritt S1 zunächst das durch die Stereokamera 2 aufgenommene Stereobild als eine Funktion des Stereobildeverarbeitungsabschnitts 5 gelesen wird, um das Bildobjekt zu extrahieren, und die charakteristischen Werte der Positionskoordinate, der Relativgeschwindigkeit, usw. berechnet werden. Anschließend schreitet die Verarbeitung zu Schritt S2 fort, wo die Existenzwahrscheinlichkeit Pis des Bildobjekts berechnet wird.

Im folgenden Schritt S3 wird als eine Funktion des Millimeterwellensignalverarbeitungsabschnitts 6 das durch das Millimeterwellenradar 3 erfasste Millimeterwellensignal gelesen, um die Positionskoordinate, die Relativgeschwindigkeit, usw. des Millimeterwellenobjekts zu berechnen, und in Schritt S4 wird die Existenzwahrscheinlichkeit Pms des Millimeterwellenobjekts berechnet.

Daraufhin schreitet die Verarbeitung zu Schritt S5 fort, wo als eine Funktion des Lasersignalverarbeitungsabschnitts 7 das Lasersignal vom Laserradar 4 gelesen wird und die Positionskoordinate, die Relativgeschwindigkeit, usw. des Laserobjekts vom gelesenen Lasersignal berechnet werden. Daraufhin wird in Schritt S6 die Existenzwahrscheinlichkeit Pls des Laserobjekts berechnet.

Daraufhin schreitet die Verarbeitung zu Schritt S7 fort, wo als eine Funktion des Existenzwahrscheinlichkeitskorrekturabschnitts 14 die jeweiligen Existenzwahrscheinlichkeiten Pis, Pms, Pls des Bildobjekts, des Millimeterwellenobjekts und des Laserobjekts basierend auf Charakteristiken der jeweiligen Erkennungssensoren korrigiert werden. Durch die Korrektur wird ein auf einem Experiment oder einer Simulation, die basierend auf theoretischen Erkennungswerten der Sensoren ausgeführt wird, basierender optimaler Korrekturwert gesetzt, wobei die Erkennungsraten der jeweiligen Erkennungssensoren in Abhängigkeit von den inhärenten Erfassungscharakteristiken der Sensoren anzeigenden Parametern bestimmt werden, z.B. in Abhängigkeit von Ausfallraten, die die Rate anzeigen, mit der das Objekt vorübergehend nicht erfassbar ist, einer korrekten Erkennungsrate, die die Rate anzeigt, mit der das Objekt korrekt erfassbar ist, einer Fehlererkennungsrate, die eine fehlerhafte Erfassung des Objekts anzeigt, usw.

Außerdem werden, wie durch die nachstehenden Gleichungen (1) bis (3) dargestellt ist, die basierend auf Signalen von der Stereokamera 2, dem Millimeterwellenradar 3 und dem Laserradar 4 berechneten Existenzwahrscheinlichkeiten Pis, Pms bzw. Pls unter Verwendung einer Erkennungsrate Ki der Stereokamera 2, einer Erkennungsrate Km des Millimeterwellenradars 3 und einer Erkennungsrate K1 des Laserradars 4 korrigiert, um korrigierte Existenzwahrscheinlichkeiten Pi, Pm und Pl zu erhalten. Pi = Pis × Ki(1) Pm = Pms × Km(2) Pl = Pls × K1(3)

Daraufhin schreitet die Verarbeitung zu Schritt S8 fort, wo als eine Funktion des Fusions-Existenzwahrscheinlichkeitsberechnungsabschnitts 15 gemäß der nachstehenden Gleichung (4) die Existenzwahrscheinlichkeit Pi der Stereokamera 2, die Existenzwahrscheinlichkeit Pm des Millimeterwellenradars und die Existenzwahrscheinlichkeit Pl des Laserradars 4 kombiniert oder fusioniert werden, um eine Sensorfusion auszuführen und eine Fusions-Existenzwahrscheinlichkeit P des Objekts zu erhalten. P = 1 – (1 – Pi)×(1 – Pm)×(1 – Pl)(4)

Die durch die vorstehend beschriebenen Verarbeitungen berechnete Fusions-Existenzwahrscheinlichkeit P wird gemäß ihrer Größe auf eine Verarbeitung zum Beibehalten des aktuellen Zustand, eine Gefahrinformationsdarstellungverarbeitung, eine Alarmsteuerung, eine automatische Bremssteuerung, usw. angewendet. In diesem Fall wird die Fusions-Existenzwahrscheinlichkeit P gemäß Gleichung (4) basierend auf einem Multiplikationswert berechnet, der durch Multiplizieren einer Nicht-Existenzwahrscheinlichkeit (1 – Pi) des Bildobjekts, einer Nicht-Existenzwahrscheinlichkeit (1 – Pm) des Millimeterwellenobjekts und einer Nicht-Existenzwahrscheinlichkeit (1 – Pl) des Laserobjekts erhalten wird, wobei, wenn ein Sensor vorhanden ist, der das Objekt nicht erkennt, wenn beispielsweise das Bild verloren geht, die Existenzwahrscheinlichkeiten des Millimeterwellenradars und des Laserradars gesetzt werden.

Daher kann der Aktivierungszeitpunkt für eine Steuerung zum Vermeiden eines Kontakts mit einem Hindernis oder für eine Alarmsteuerung früher gesetzt werden, wenn die Existenzwahrscheinlichkeit hoch ist, und verzögert werden, wenn die Existenzwahrscheinlichkeit niedrig ist, so dass eine Steuerung stabil und zu einem optimalen Zeitpunkt ausgeführt werden kann. Außerdem kann eine fehlerhafte Steuerung bezüglich eines Hindernisses mit einer niedrigen Erfassungszuverlässigkeit vermieden werden.

Außerdem kann die Fusions-Existenzwahrscheinlichkeit P anstatt durch Gleichung (4) unter Berücksichtigung von Zuverlässigkeiten der jeweiligen Erkennungssensoren berechnet werden. D.h., wenn eine Zuverlässigkeit des Millimeterwellenradars 3 durch &agr;, eine Zuverlässigkeit des Laserradars 4 durch &bgr;&bgr; und eine Zuverlässigkeit der Stereokamera 2 durch &ggr; bezeichnet werden, wird die Fusions-Existenzwahrscheinlichkeit P durch die nachstehende Gleichung (5) berechnet P = (Pm × &agr;) + (Pl × &bgr;) + (Pi × &ggr;)(5)

In Gleichung (5) gilt &agr; + &bgr; + &ggr; = 1, wobei die Zuverlässigkeiten &agr;, &bgr;, &ggr; der jeweiligen Erkennungssensoren auf Verhältnisse, wie beispielsweise &agr;:&bgr;:&ggr; = 5:3:2 gesetzt werden, indem vorausgesetzt wird, dass die Zuverlässigkeiten in der Folge der Millimeterwelle, des Lasers und des Bildes zunehmen.

Gemäß der durch Gleichung (5) erhaltenen Fusions-Existenzwahrscheinlichkeit kann, wenn irgendeiner der aus der Stereokamera 2, dem Millimeterwellenradar 3 und dem Laserradar 4 bestehenden Sensoren auf einen Nichterfassungszustand eingestellt ist, die Existenzwahrscheinlichkeit des entsprechenden Sensors für das Objekt auf 0 gesetzt werden, wobei der Aktivierungszeitpunkt der Steuerung ähnlicherweise früher gesetzt werden kann, wenn die Existenzwahrscheinlichkeit hoch ist, und verzögert werden kann, wenn die Existenzwahrscheinlichkeit niedrig ist, so dass die Steuerung stabil und zu einem optimalen Zeitpunkt ausgeführt und eine fehlerhafte Steuerung für ein Hindernis mit einer niedrigen Erfassungszuverlässigkeit vermieden werden kann.

Nachstehend werden Verarbeitungen zum Berechnen der Existenzwahrscheinlichkeiten für ein durch die jeweiligen Erkennungssensoren erfasstes Objekt erläutert. Gemäß dieser Ausführungsform werden die Existenzwahrscheinlichkeiten für das Bildobjekt, das Millimeterwellenobjekt und das Laserobjekt grundsätzlich unter Verwendung eines ähnlichen Algorithmus berechnet. Gemäß einem Algorithmus zum Berechnen der Existenzwahrscheinlichkeit wird im Allgemeinen eine Verarbeitung unter Verwendung einer Wahrscheinlichkeitsverteilung unter Berücksichtigung des Verhaltes eines ein Bestimmungsobjekt darstellenden Objekts ausgeführt, wobei in diesem Fall die Verarbeitungen zum Berechnen der Existenzwahrscheinlichkeiten für ein durch die jeweiligen Erkennungssensoren erfasstes Objekt durch eine in 3 dargestellte Verarbeitung zum Berechnen einer Existenzwahrscheinlichkeit ausgeführt werden und die Existenzwahrscheinlichkeiten Pis, Pms, Pls für das durch die jeweiligen Erkennungssensoren erfasste Objekt durch eine Existenzwahrscheinlichkeit R dargestellt wird.

In der Verarbeitung zum Berechnen der Existenzwahrscheinlichkeit wird zunächst in Schritt S101 für die Verarbeitung erforderliche Information (z.B. Bildinformation, Fahrzeuggeschwindigkeit V0 des eigenen Fahrzeugs, usw.) gelesen. Dann schreitet die Verarbeitung zu Schritt S102 fort, wo ein ein Bestimmungsobjekt darstellendes Objekt (z.B. ein sich auf einem Bewegungsweg des eigenen Fahrzeugs befindendes, nähestes Objekt) extrahiert und jeweilige Daten für einen Abstand x zum Objekt, eine Geschwindigkeit Vx des Objekts in der Vorwärts-Rückwärtsrichtung (ein Differenzialwert des Abstands x + Geschwindigkeit V0 des eigenen Fahrzeugs), eine Beschleunigung ax des Objekts in der Vorwärts-Rückwärtsrichtung (ein Differenzialwert der Geschwindigkeit Vx in der Vorwärts-Rückwärtsrichtung), usw. erfasst werden.

Daraufhin schreitet die Verarbeitung zu Schritt 103 fort, wo eine aktuelle Beschleunigung ax(0) in der Vorwärts-Rückwärtsrichtung, eine aktuelle Geschwindigkeit Vx(0) in der Vorwärts-Rückwärtsrichtung und eine Ist-Position x(0) in der Vorwärts-Rückwärtsrichtung durch eine statistische Verarbeitung gemäß den nachstehenden Gleichungen (7) bis (9) berechnet werden, wobei vorausgesetzt wird, dass die jeweiligen Daten durch eine Normalverteilung bereitgestellt werden, wobei eine Achse (die x-Achse) die Vorwärts-Rückwärtsrichtung des Fahrzeugs darstellt und die Verteilung bei einem wahren Wert (in der vorliegenden Ausführungsform einem Mittelwert) zentriert ist, der auf jeweiligen Daten für den Abstand x zum das Bestimmungsobjekt darstellenden Objekt, der Geschwindigkeit Vx in der Vorwärts-Rückwärtsrichtung (Differenzialwert des Abstands x + Geschwindigkeit V0 des eigenen Fahrzeugs) bzw. der Beschleunigung ax in der Vorwärts-Rückwärtsrichtung (Differenzialwert der Geschwindigkeit Vx in der Vorwärts-Rückwärtsrichtung), usw. basiert.

Außerdem gilt in der folgenden Normalverteilung – ∞ < x < ∞, und eine Streuung der Normalverteilung ist ein positiver Wert. Außerdem werden in der statistischen Verarbeitung für die Beschleunigung in der Vorwärts-Rückwärtsrichtung die Geschwindigkeit in der Vorwärts-Rückwärtsrichtung und die Position in der Vorwärts-Rückwärtsrichtung, eine Wahrscheinlichkeitsdichtefunktion r gemäß Gleichung (6) unter Verwendung eines Mittelwertes &mgr; und einer Streuung &sgr;2 der Normalverteilung angewendet. r = (1/ ((2·&pgr;)1/2·&sgr;))·exp(–(x – &mgr;)2/(2·&sgr;2))(6)

D.h., die aktuelle Beschleunigung ax(0) in der Vorwärts-Rückwärtsrichtung wird, wie in der nachstehenden Gleichung (7) dargestellt ist, durch ax(ax(0)a, &sgr;ax(0)2) als eine Normalverteilung mit einem Mittelwert ax(0)a der aktuellen Beschleunigung in der Vorwärts-Rückwärtsrichtung und einer Streuung &sgr;ax(0)2 verarbeitet, die durch eine Abweichung &sgr;ax(0) der aktuellen Beschleunigung in der Vorwärts-Rückwärtsrichtung dargestellt wird. ax(0) = ax(ax(0)a, &sgr;ax(0)2) = (1/((2·&pgr;)1/2·&sgr;ax(0) ))·exp(–(x – ax(0)a)2/(2·&sgr;ax(0)2))(7)

Außerdem wird die aktuelle Geschwindigkeit Vx(0) in der Vorwärts-Rückwärtsrichtung, wie in der nachstehenden Gleichung (8) dargestellt ist, durch Vx(Vx(0)a, &sgr;vx(0)2) als eine Normalverteilung mit einem Mittelwert Vx(0)a der aktuellen Geschwindigkeit in der Vorwärts-Rückwärtsrichtung und einer Streuung &sgr;vx(0)2 verarbeitet, die durch eine Abweichung &sgr;vx(0) der aktuellen Geschwindigkeit in der Vorwärts-Rückwärtsrichtung dargestellt wird. Vx(0) = Vx(Vx(0)a, &sgr;vx(0)2) = (1/((2·&pgr;)1/2·&sgr;vx(0)))·exp(–(x – Vx(0)a)2/(2·&sgr;vx(0)2))(8)

Außerdem wird die Ist-Position ax(0) in der Vorwärts-Rückwärtsrichtung, wie in der nachstehenden Gleichung (9) dargestellt ist, durch x(x(0)a, &sgr;x(0)2) als eine Normalverteilung mit einem Mittelwert x(0)a der Ist-Position in der Vorwärts-Rückwärtsrichtung und einer Streuung &sgr;x(0)2 verarbeitet, die durch eine Abweichung &sgr;x(0) der Ist-Position in der Vorwärts-Rückwärtsrichtung dargestellt wird. x(0) = x(x(0)a, &sgr;x(0)2) = (1/((2·&pgr;)1/2·&sgr;x(0)))·exp(–(x – x(0)a)2/(2·&sgr;x(0)2))(9)

Die vorstehend beschriebenen jeweiligen Streuungen &sgr;ax(0)2, &sgr;vx(0)2, &sgr;x(0)2 sind Werte, die durch den Erkennungssensor oder das Erkennungsobjekt bestimmt sind, wobei die Geschwindigkeitsgenauigkeit bei einer Erkennung durch das Millimeterwellenradar 3 oder das Laserradar 4 im Vergleich zu einer Erkennung durch die Stereokamera 2 hoch ist, so dass die Streuung für diese auf einen kleinen Wert gesetzt werden kann.

Daraufhin schreitet die Verarbeitung zu Schritt S104 fort, wo eine Beschleunigung ax(&Dgr;t) in der Vorwärts-Rückwärtsrichtung, eine Geschwindigkeit Vx(&Dgr;t) in der Vorwärts-Rückwärtsrichtung und eine Position x(&Dgr;t) in der Vorwärts-Rückwärtsrichtung nach &Dgr;t Sekunden (z.B. nach 0,5 s) basierend auf der aktuellen Beschleunigung ax(0) des das Bestimmungsobjekt darstellenden Objekts in der Vorwärts-Rückwärtsrichtung, der aktuellen Geschwindigkeit Vx(0) in der Vorwärts-Rückwärtsrichtung und der Ist-Position x(0) in der Vorwärts-Rückwärtsrichtung durch eine statistische Verarbeitung gemäß den nachstehenden Gleichungen (10) bis (12) berechnet werden.

D.h., die Beschleunigung ax(&Dgr;t) nach &Dgr;t s wird durch ax(ax(&Dgr;t)a, &sgr;ax(&Dgr;t)2) als Normalverteilung mit einem Mittelwert ax(&Dgr;t)a der Beschleunigung in der Vorwärts-Rückwärtsrichtung nach &Dgr;t s und einer Streuung &sgr;ax(&Dgr;t)2 verarbeitet, die durch eine Streuung &sgr;ax(&Dgr;t) der Beschleunigung in der Vorwärts-Rückwärtsrichtung dargestellt wird. Außerdem wird die Berechnung gemäß der vorliegenden Ausführungsform unter Voraussetzung einer gleichmäßigen Beschleunigungsbewegung ausgeführt. ax(&Dgr;t) = ax(ax(&Dgr;t)a, &sgr;ax(&Dgr;t)2) = ax(ax(&Dgr;t)a, &sgr;ax(0)2)(10)

Außerdem wird die Geschwindigkeit vx(&Dgr;t) in der Vorwärts-Rückwärtsrichtung nach &Dgr;t s durch Vx(Vx(&Dgr;t)a, &sgr;vx(&Dgr;t)2) als Normalverteilung mit einem Mittelwert Vx(&Dgr;t)a der Geschwindigkeit in der Vorwärts-Rückwärtsrichtung nach &Dgr;t s und einer Streuung &sgr;vx(&Dgr;t)2 verarbeitet, die durch eine Streuung &sgr;vx(&Dgr;t) der Geschwindigkeit in der Vorwärts-Rückwärtsrichtung dargestellt wird. Die nachstehende Gleichung (11) wird unter Verwendung der aktuellen Beschleunigung ax(0) in der Vorwärts-Rückwärtsrichtung und der aktuellen Geschwindigkeit Vx(0) in der Vorwärts-Rückwärtsrichtung verarbeitet. Vx(&Dgr;t) = Vx(Vx(&Dgr;t)a, &sgr;vx(&Dgr;t)2) = Vx(Vx(0)a, &sgr;vx(0)2) + ax(ax(0)a, &sgr;ax(0)2)·&Dgr;t = Vx(Vx(0)a + ax(0)a·&Dgr;t, (&sgr;vx(0) + &sgr;ax(0)·&Dgr;t)2)(11)

Außerdem wird die Position x(&Dgr;t) in der Vorwärts-Rückwärtsrichtung nach &Dgr;t s durch x(x(&Dgr;t)a, &sgr;x(&Dgr;t)2) als Normalverteilung mit einem Mittelwert x(&Dgr;t)a der Position in der Vorwärts-Rückwärtsrichtung nach &Dgr;t s und einer Streuung &sgr;x(&Dgr;t)2 verarbeitet, die durch eine Streuung &sgr;x(&Dgr;t) der Position in der Vorwärts-Rückwärtsrichtung nach &Dgr;t s dargestellt wird. Die Berechnung wird unter Verwendung der aktuellen Beschleunigung ax(0) in der Vorwärts-Rückwärtsrichtung, der aktuellen Geschwindigkeit Vx(0) in der Vorwärts-Rückwärtsrichtung und der aktuellen Position x(0) in der Vorwärts-Rückwärtsrichtung gemäß der nachstehenden Gleichung (12) ausgeführt. x(&Dgr;t) = x(x(&Dgr;t)a, &sgr;x(&Dgr;t)2) = x(x(0)a, &sgr;x(0)2) + Vx(Vx(0)a, &sgr;vx(0)2)·&Dgr;t + (1/2)·ax(ax(0)a, &sgr;ax(0)2)·&Dgr;t2= x(x(0)a + Vx(0)a·&Dgr;t + (1/2)·ax(0)a·&Dgr;t2, (&sgr;x(0) + &sgr;vx(0)·&Dgr;t + (1/2)·&sgr;ax(0)·&Dgr;t2)2)(12)

Daraufhin schreitet die Verarbeitung zu Schritt S105 fort, wo gemäß der nachstehenden Gleichung (13) eine Existenzwahrscheinlichkeit R(&Dgr;t) für das Objekt nach &Dgr;t s basierend auf der Position x(&Dgr;t) des das Bestimmungsobjekt darstellenden Objekts in der Vorwärts-Rückwärtsrichtung nach &Dgr;t s berechnet wird. R(&Dgr;t) = ∫(x(x(&Dgr;t)a, &sgr;x(&Dgr;t)2))dx(13) (wobei der Integrationsbereich –∞ < x < 0 beträgt).

D.h., wenn die Ist-Position x(0) des das Bestimmungsobjekt darstellenden Objekts in der Vorwärts-Rückwärtsrichtung durch die Normalverteilung dargestellt wird, wird vorausgesagt, dass eine Position x(&Dgr;t/2) in der Vorwärts-Rückwärtsrichtung nach &Dgr;t/2 s und die Position x(&Dgr;t) in der Vorwärts-Rückwärtsrichtung nach &Dgr;t s durch die in 4 dargestellten Positionen gegeben sind. Daher wird die Wahrscheinlichkeitsdichtefunktion der Normalverteilung bezüglich der Position in der Vorwärts-Rückwärtsrichtung als Risikofunktion rx zum Bewerten eines Risikos eingeführt, und die Normalfunktion wird integriert, indem die Position des eigenen Fahrzeugs auf der x-Achse als Position 0 vorausgesetzt wird, wie in 5 dargestellt ist (Integrationsbereich: –∞ < x < 0), und die Fläche (Wert der Risikofunktion rx nach t s) wird als Existenzwahrscheinlichkeit R(&Dgr;t) berechnet.

Außerdem ist die Position x(&Dgr;t) des das Bestimmungsobjekt darstellenden Objekts nach &Dgr;t s eine Funktion der Normalverteilung, so dass das Integrationsergebnis im Bereich –∞ < x < ∞ den Wert 1, 0 hat.

Dadurch kann eine Risikoverteilung, die die Gefahr eines Kontakts (Kollision) des eigenen Fahrzeugs mit dem Objekt oder eine ähnliche Gefahr darstellt, kontinuierlich bestimmt werden, so dass eine auf Information mit einer geringen Zuverlässigkeit basierende fehlerhafte Steuerung verhindert und die Sicherheit bezüglich einer Kollisionsvermeidung verbessert werden kann.

Nachstehend wird eine zweite Ausführungsform der vorliegenden Erfindung beschrieben. 6 zeigt ein Blockdiagramm einer zweiten Ausführungsform eines erfindungsgemäßen Objekterkennungsabschnitts.

Gemäß der zweiten Ausführungsform wird eine Gewichtung der Existenzwahrscheinlichkeit des Objekts gemäß einem vom Erkennungssensor unabhängigen Faktor variabel gemacht, wobei als ein derartiger Faktor ein Stabilitätsgrad des eigenen Fahrzeugs, z.B. ein mit der Fahrzeugstabilität in Beziehung stehender Parameter, ein durch eine Fahrzeugstabilitätssteuerungsvorrichtung verursachter Einfluss auf die Fahrzeugstabilität, oder eine Fahrtumgebung des Fahrzeugs in Betracht kommt.

Der mit der Fahrzeugstabilität in Beziehung stehende Parameter weist eine Seitenbeschleunigung, ein Giermoment oder eine Schlupfrate eines Fahrzeugs, usw. auf.

Außerdem weist die Fahrzeugstabilitätssteuerungsvorrichtung eine ABS- (Antiblockiersystem) Steuerungsvorrichtung oder eine VDC-Vorrichtung (Fahrzeugdynamiksteuerungsvorrichtung) oder eine ähnliche Vorrichtung auf.

Die zweite Ausführungsform ist auch auf einen Fall anwendbar, in dem mindestens ein unter der Stereokamera 2, dem Millimeterwellenradar 3 und dem Laserradar ausgewählter Sensor als Erkennungssensor vorgesehen ist, wie in 6 dargestellt ist, wobei die erste Ausführungsform des Objekterkennungsabschnitts 10 durch einen Objekterkennungsabschnitt 10A mit einem Existenzwahrscheinlichkeitsberechnungsabschnitt 16 und einem Fusions-Existenzwahrscheinlichkeitsberechnungsabschnitt 17 gebildet wird. In diesem Fall stellt eine durch den Existenzwahrscheinlichkeitsberechnungsabschnitt 16 berechnete Existenzwahrscheinlichkeit Ps die Existenzwahrscheinlichkeit Pis des Bildobjekts, die Existenzwahrscheinlichkeit Pms des Millimeterwellenobjekts bzw. die Existenzwahrscheinlichkeit Pls des Laserobjekts dar. Ein Algorithmus zum Berechnen der Existenzwahrscheinlichkeit Ps ist dem in der ersten Ausführungsform verwendeten Algorithmus ähnlich.

Durch den Fusions-Existenzwahrscheinlichkeitsberechnungsabschnitt 17 wird unter Berücksichtigung eines durch eine Fahrzeugstabilitätssteuerungsvorrichtung verursachten Einflusses auf eine Fahrzeugstabilisierung eine Fusions-Existenzwahrscheinlichkeit P unter Verwendung eines Bewertungswertes &agr;1 berechnet, der den Einfluss einer Fahrzeugstabilitätssteuerungsvorrichtung, z.B. einer ABS- (Antiblockiersystem) Vorrichtung oder einer VDC-Vorrichtung (Fahrzeugdynamiksteuerungsvorrichtung), usw. auf die Fahrzeugstabilisierung vorausbestimmt.

Beispielsweise wird der Bewertungswert in der ABS-Vorrichtung auf &agr;1 = 0,1 und in der VDC-Vorrichtung auf &agr;1 = 0,2 gesetzt, wobei, wie in Gleichung (14) dargestellt ist, die Existenzwahrscheinlichkeit Ps durch den Bewertungswert &agr;1 gewichtet und damit variabel gemacht und als Fusions-Existenzwahrscheinlichkeit P berechnet wird. P = Ps × (1 – &agr;1)(14)

Dadurch kann, wenn eine Stabilisierung eines Fahrzeugverhaltens durch die ABS-Vorrichtung oder die VDS-Vorrichtung erwartet werden kann, der Aktivierungszeitpunkt für eine Kollisionsvermeidungssteuerung oder eine Alarmsteuerung gemäß der Existenzwahrscheinlichkeit Ps verzögert gesetzt werden, so dass eine übermäßige Störung eines Fahrers durch Vermeiden einer unnötigen Steuerung verhindert werden kann.

Andererseits wird, wenn die Fusions-Existenzwahrscheinlichkeit P unter Berücksichtigung einer Fahrtumgebung des Fahrzeugs berechnet wird, eine nachstehend dargestellte Erfassungscharakteristik eines Erkennungssensors berücksichtigt. Beispielsweise werden die Erfassungscharakteristiken für die Erfassung des durch die Stereokamera 2, das Millimeterwellenradar 3 und das Laserradar 4 erfassten Objekts bezüglich der Fahrtumgebung folgendermaßen dargestellt. Hierbei bezeichnen ⦾, O, &Dgr; und × Erfassungsgenauigkeiten, wobei ⦾ ausgezeichnet, O eher gut, &Dgr; eher schlecht und × schlecht bezeichnen.

Wie vorstehend beschrieben wurde, ist es schwierig, die vom Millimeterwellenradar 3 emittierte Millimeterwelle im Vergleich zu Laserlicht schmal zu machen, so dass die Auflösung der Seitenposition niedriger ist als beim Laserradar 4 und die Erfassungsgenauigkeit bezüglich der Breite des Objekts gering ist, das Objekt kann allerdings ohne Einfluss durch das Wetter erfasst werden.

Andererseits kann das vom Laserradar 4 emittierte Laserlicht schmal gemacht werden und die Fahrzeugbreitenrichtung kontinuierlich abtasten, so dass eine ausgezeichnete Auflösung der Seitenposition erzielt und die Seitenposition somit hochgradig exakt erfasst werden kann, das Laserlicht wird allerdings durch Regentropfen gebrochen oder reflektiert, so dass das Laserlicht durch das Wetter leichter beeinflussbar ist als die Millimeterwelle.

Die Stereokamera 2 erkennt das Objekt durch Lichtkontrast, so dass eine ausgezeichnete Auflösung der Seitenposition und der Form erhalten werden, die Auflösung wird jedoch in einer Fahrtumgebung, in der der Kontrast durch Lichtverhältnisse, Regenfall, Schneefall, usw. schwer erkennbar ist, tendenziell niedrig.

Daher wird beispielsweise, wenn die Stereokamera 2 als Erkennungssensor verwendet wird, die Umgebung durch Erkennen des Bildes oder basierend auf der Aktivierung eines Scheibenwischers vorausbestimmt, und der Bewertungswert wird variabel derart gesetzt, dass der Bewertungswert in einer Fahrtumgebung mit Regen/Nebel &agr;2 = 0,1 beträgt, in einer Fahrtumgebung mit Schneefall &agr;2 = 0,2 beträgt, und der Bewertungswert in einer Fahrtumgebung mit Regen/Nebel und Schneefall &agr;2 = 0,1 + 0,2 = 0,3 beträgt.

Das gleiche gilt für die Verwendung des Millimeterwellenradars 3 oder des Laserradars 4, wobei der Bewertungswert &agr;2 gemäß der Fahrtumgebung variabel gesetzt wird. Außerdem wird, wie durch die nachstehende Gleichung (15) dargestellt ist, die Existenzwahrscheinlichkeit Ps mit dem Bewertungswert &agr;2 gewichtet und somit variabel gemacht und als Fusions-Existenzwahrscheinlichkeit P gesetzt. P = Ps × (1 + &agr;2)(15)

Dadurch können in einer Situation, in der das Fahrzeug tendenziell instabil wird, der Aktivierungszeitpunkt der der Steuerung früher gesetzt, die Steuerungszuverlässigkeit durch den geeigneten Steuerungszeitpunkt verbessert und eine geeignete Stabilisierung des Fahrzeugs erreicht werden.


Anspruch[de]
Objekterkennungsvorrichtung zum Erkennen eines Objekts in der Umgebung des eigenen Fahrzeugs durch mehrere Sensoren, mit:

einer Existenzwahrscheinlichkeitsberechnungseinheit, die dazu geeignet ist, jeweilige Existenzwahrscheinlichkeiten des Objekts für jeden der Sensoren basierend auf einer Normalverteilung zu berechnen, die um einen Ausgangswert jedes Sensors zentriert ist;

einer Existenzwahrscheinlichkeitskorrektureinheit, die dazu geeignet ist, jeweilige korrigierte Existenzwahrscheinlichkeiten durch Korrigieren der jeweiligen Existenzwahrscheinlichkeit mit einer Erkennungsrate jedes Sensors zu berechnen; und

einer Fusions-Existenzwahrscheinlichkeitsberechnungseinheit, die dazu geeignet ist, eine Fusions-Existenzwahrscheinlichkeit des Objekts durch Fusionieren der jeweiligen korrigierten Existenzwahrscheinlichkeiten zu berechnen.
Objekterkennungsvorrichtung nach Anspruch 1, wobei die Fusions-Existenzwahrscheinlichkeit basierend auf einem Multiplikationswert berechnet wird, der durch Multiplizieren jeweiliger Nicht-Existenzwahrscheinlichkeit des Objekts berechnet wird, die basierend auf den jeweiligen korrigierten Existenzwahrscheinlichkeiten berechnet werden. Objekterkennungsvorrichtung nach Anspruch 1 oder 2, wobei die Fusions-Existenzwahrscheinlichkeit basierend auf einem Multiplikationswert berechnet wird, der durch Multiplizieren einer Zuverlässigkeit jedes der Sensoren mit der jeweiligen korrigierten Existenzwahrscheinlichkeit berechnet wird. Objekterkennungsvorrichtung zum Erkennen eines Objekts in der Umgebung des eigenen Fahrzeugs basierend auf mehreren Sensoren; mit:

einer Existenzwahrscheinlichkeitberechnungseinheit, die dazu geeignet ist, jeweilige Existenzwahrscheinlichkeiten des Objekts bezüglich jedes der Sensoren basierend auf einer Normalverteilung zu berechnen, die um einen Ausgangswert jedes Sensors zentriert ist;

einer Existenzwahrscheinlichkeitskorrektureinheit, die dazu geeignet ist, eine korrigierte Existenzwahrscheinlichkeit durch Korrigieren der jeweiligen Existenzwahrscheinlichkeiten gemäß einer Stabilität des eigenen Fahrzeugs zu berechnen; und

einer Fusions-Existenzwahrscheinlichkeitsberechnungseinheit, die dazu geeignet ist, eine Fusions-Existenzwahrscheinlichkeit des Objekts durch Fusionieren der jeweiligen korrigierten Existenzwahrscheinlichkeiten zu berechnen.
Objekterkennungsvorrichtung nach Anspruch 4, ferner mit.

einer Fahrzeugstabilitätssteuerungsvorrichtung zum Stabilisieren von Fahrtzuständen des eigenen Fahrzeugs; wobei

die Existenzwahrscheinlichkeitskorrektureinheit die jeweiligen Existenzwahrscheinlichkeiten basierend auf einer Charakteristik der Fahrzeugstabilitätssteuerungsvorrichtung korrigiert.
Objekterkennungsvorrichtung nach Anspruch 5, wobei die Fahrzeugstabilitätssteuerungsvorrichtung mindestens ein Antiblockiersystem und/oder eine Fahrzeugdynamiksteuerung ist. Objekterkennungsvorrichtung zum Erkennen eines Objekts in der Umgebung des eigenen Fahrzeugs basierend auf mehreren Sensoren; mit:

einer Existenzwahrscheinlichkeitberechnungseinheit, die dazu geeignet ist, jeweilige Existenzwahrscheinlichkeiten des Objekts bezüglich jedes der Sensoren basierend auf einer Normalverteilung zu berechnen, die um einen Ausgangswert jedes Sensors zentriert ist;

einer Existenzwahrscheinlichkeitkorrektureinheit, die dazu geeignet ist, jeweilige korrigierte Existenzwahrscheinlichkeit durch Korrigieren der jeweiligen Existenzwahrscheinlichkeiten mit den jeweiligen Charakteristiken der Sensoren zu korrigieren, die gemäß einer Fahrtumgebung des eigenen Fahrzeugs gesetzt werden; und

einer Fusions-Existenzwahrscheinlichkeitsberechnungseinheit, die dazu geeignet ist, eine Fusions-Existenzwahrscheinlichkeit des Objekts durch Fusionieren der jeweiligen korrigierten Existenzwahrscheinlichkeit zu berechnen.
Objekterkennungsvorrichtung nach einem der Ansprüche 1 bis 7, wobei die Existenzwahrscheinlichkeit als Wahrscheinlichkeitsverteilung nach einer vorgegebenen Zeitdauer berechnet wird, die anhand einer aktuellen Bewegung und einer Position des Objekts vorausbestimmt wird.






IPC
A Täglicher Lebensbedarf
B Arbeitsverfahren; Transportieren
C Chemie; Hüttenwesen
D Textilien; Papier
E Bauwesen; Erdbohren; Bergbau
F Maschinenbau; Beleuchtung; Heizung; Waffen; Sprengen
G Physik
H Elektrotechnik

Anmelder
Datum

Patentrecherche

Patent Zeichnungen (PDF)

Copyright © 2008 Patent-De Alle Rechte vorbehalten. eMail: info@patent-de.com