PatentDe  


Dokumentenidentifikation DE102006027120A1 13.12.2007
Titel Bildverarbeitungsverfahren, Videoüberwachungssystem sowie Computerprogramm
Anmelder Robert Bosch GmbH, 70469 Stuttgart, DE
Erfinder Jaeger, Thomas, 24214 Gettorf, DE;
Merkel, Marcel, 31135 Hildesheim, DE
DE-Anmeldedatum 12.06.2006
DE-Aktenzeichen 102006027120
Offenlegungstag 13.12.2007
Veröffentlichungstag im Patentblatt 13.12.2007
IPC-Hauptklasse G06K 9/62(2006.01)A, F, I, 20060612, B, H, DE
IPC-Nebenklasse G06T 7/60(2006.01)A, L, I, 20060612, B, H, DE   
Zusammenfassung Viodeoüberwachungssysteme werden bei einer Vielzahl von Anwendungen, z. B. bei der Überwachung von öffentlichen Plätzen, Verkehrskreuzungen, aber auch in Gebäuden, wie z. B. Museen, Schulen, Universitäten, Gefängnissen, Fabriken, eingesetzt. Dabei umfassen die Videoüberwachungssysteme meist eine Vielzahl von Überwachungskameras, deren Beobachtungsfeld auf relevante Bereiche gerichtet sind, und eine zentrale Auswertestelle, in der das aufgenommene Videomaterial zusammengeführt wird. In dieser Auswertestelle wird das Videomaterial optional gespeichert oder ausgewertet. Zur Auswertung wird dabei oftmals Überwachungspersonal eingesetzt, um die eingehenden Bildersequenzen online oder in Echtzeit zu überwachen. Allerdings ist es bekannt, dass die Aufmerksamkeit des Überwachungspersonals nach einiger Zeit aufgrund von Erschöpfung nachzulassen droht.
Es wird ein Bildverarbeitungsverfahren zur Erkennung und Verarbeitung von Sichthindernissen 7, 8 in einer Überwachungsszene 6 in einer Bildersequenz vorgeschlagen, wobei mehrere Zustandsdatensätze eines Überwachungsobjekts erfasst werden, die jeweils eine Objektposition x, y und eine an der Objektposition gemessene Größe h des Überwachungsobjekts in einem Bild der Bildersequenz umfassen, wobei durch Vergleich der gemessenen Größe h des Überwachungsobjekts mit einer modellierten perspektivischen Größe des Überwachungsobjekts an der gleichen Objektposition x, y auf eines der Sichthindernisse 7, 8 geschlossen wird.

Beschreibung[de]
Stand der Technik

Die Erfindung betrifft ein Bildverarbeitungsverfahren zur Erkennung und Verarbeitung von Sichthindernissen in einer Überwachungsszene in einer Bildersequenz, wobei mehrere Zustandsdatensätze eines Überwachungsobjekts erfasst werden, die jeweils eine Objektposition und eine an der Objektposition gemessenen Größe des Überwachungsobjekts in einem Bild der Bildersequenz umfassen, sowie ein Videoüberwachungssystem zur Durchführung des Bildverarbeitungsverfahrens und ein Computerprogramm mit Programmcode-Mitteln zur Durchführung des Bildverarbeitungsverfahrens.

Videoüberwachungssysteme werden bei einer Vielzahl von Anwendungen, z.B. bei der Überwachung von öffentlichen Plätzen, Verkehrskreuzungen, aber auch in Gebäuden, wie z.B. Museen, Schulen, Universitäten, Gefängnissen, Fabriken eingesetzt. Dabei umfassen die Videoüberwachungssysteme meist eine Vielzahl von Überwachungskameras, deren Beobachtungsfeld auf relevante Bereiche gerichtet sind, und eine zentrale Auswertestelle, in der das aufgenommene Videomaterial zusammengeführt wird. In dieser Auswertestelle wird das Videomaterial optional gespeichert oder ausgewertet. Zur Auswertung wird dabei oftmals Überwachungspersonal eingesetzt, um die eingehenden Bildersequenzen online oder in Echtzeit zu überwachen. Allerdings ist es bekannt, dass die Aufmerksamkeit des Überwachungspersonals nach einiger Zeit aufgrund von Erschöpfung nachzulassen droht.

Aus diesem Grund werden bei heute üblichen Videoüberwachungssystemen auch Bildverarbeitungsalgorithmen eingesetzt, um die umfangreichen Mengen an Videomaterial, welches durch Überwachungskameras aufgenommen wird, automatisiert auszuwerten. Häufig werden dazu bewegte Objekte von dem im wesentlichen statischen Szenenhintergrund getrennt, über die Zeit verfolgt und z.B. bei relevanten Bewegungen Alarme ausgelöst. Der erste – auch Objektsegmentierung genannte – Schritt wird durchgeführt, indem Bildunterschiede zwischen einem aktuellen Kamerabild und einem so genannten Szenenreferenzbild oder Szenenmodell, welches den statischen Szenenhintergrund modelliert, auswertet.

Sowohl bei der Objektsegmentierung als auch bei der daran anschließenden sogenannten Objektverfolgung (Tracking) treten eine Vielzahl von Einzelprobleme auf, die beispielsweise in dem Artikel von K. Toyama, J. Krumm, B. Brumitt, B. Meyers: „Wallflower: Principles and Practice of Background Maintanence" ICCV, Korfu, Griechenland übersichtsartig aufgeführt sind. Die genanten Probleme betreffen beispielsweise das Verschieben von Hintergrundobjekten, die Änderung der Beleuchtung, quasistationäre Hintergründe, wie z.B. bewegte Bäume, Camouflage, fehlendes Trainingsmaterial, Schattenwurf etc.

Offenbarung der Erfindung

Erfindungsgemäß wird ein Bildverarbeitungsverfahren zur Erkennung und Verarbeitung von Sichthindernissen mit den Merkmalen des Anspruchs 1, ein Videoüberwachungssystem mit den Merkmalen des Anspruchs 11 sowie ein Computerprogramm mit den Merkmalen des Anspruchs 13 vorgeschlagen. Bevorzugte oder vorteilhafte Ausführungen sind durch die Unteransprüche, die nachfolgende Beschreibung und die angehängten Figuren offenbart.

Das erfindungsgemäße Verfahren ist zur Erkennung und zur Verarbeitung von Sichthindernissen in einer Bildersequenz einer Überwachungsszene ausgebildet. Dabei wird ein Verfahren der Bildverarbeitung angewandt, welches bevorzugt auf der digitalen Bildverarbeitung beruht.

Unter Sichthindernissen sind bevorzugt solche Objekte in einer Überwachungsszene zu verstehen, die insbesondere aufgrund ihres stationären oder quasi-stationären Verhaltens dem statischen Bildhintergrund beziehungsweise dem Szenenmodell zuzuordnen sind und/oder ein Überwachungsobjekt bei manchen Objektpositionen des Überwachungsobjekts in der Überwachungsszene zumindest teilweise verdecken.

Die Sichthindernisse führen dazu, dass sich während einer Objektverfolgung die im Bild gemessene Größe des Überwachungsobjekts sprungartig ändert und somit die Objektverfolgung deutlich erschwert wird. Dieser Fall liegt beispielsweise vor, wenn es sich bei der Überwachungsszene nicht um eine freie Fläche, sondern um einen Bereich mit halbhohen Hindernissen handelt, wie zum Beispiel niedrigen Mauern, parkende Autos, Tische, Schränkchen etc, da die sich in der Überwachungsszene bewegenden Überwachungsobjekte hinter diesen Sichthindernissen nur partiell sichtbar sind.

Durch Erkennung und Verarbeitung derartiger Sichthindernisse wird die Möglichkeit eröffnet, Wissen aufzubauen, an welchen Stellen Überwachungsobjekte nur partiell sichtbar zu erwarten sind. Unter Nutzung dieses zusätzlichen Wissen kann die Objektverfolgung (Tracking) deutlich verbessert und/oder vereinfacht werden.

Zur Umsetzung des Verfahrens werden mehrere Zustandsdatensätze eines Überwachungsobjekts erfasst. Die Zustandsdatensätze umfassen jeweils eine Objektposition und eine an der Objektposition gemessene Größe des Überwachungsobjekts in einem Bild der Bildersequenz. Die Objektposition wird bevorzugt in Bildkoordinaten, also beispielsweise Pixelkoordinaten, und die gemessene Größe ebenfalls in Pixelgröße oder dazu äquivalenten und/oder proportionalen Einheiten gemessen. Die gemessene Größe des Überwachungsobjekts entspricht somit insbesondere der Höhe der Abbildung des Überwachungsobjekts in dem Bild der Bildersequenz. Insbesondere werden Zustandsdatensätze des Überwachungsobjekts verwendet, die auf Basis einer Objektverfolgung dieses Überwachungsobjekts ermittelt wurden.

Bevorzugt werden Zustandsdatensätze eines Überwachungsobjekts einer Klasse verwendet, deren mittlere oder übliche Größe bekannt ist, zum Beispiel betrifft eine Klasse Personen. Alternativ oder ergänzend werden Zustandsdatensätze von mehreren verschiedenen Überwachungsobjekten erfasst, welche zu einer Klasse gehören, die eine gemeinsame mittlere oder übliche Größe aufweisen. Beispielsweise werden nur Personen, insbesondere erwachsene Personen als Überwachungsobjekte erfasst.

Erfindungsgemäß wird durch einen Vergleich der gemessenen Größe des Überwachungsobjekts mit einer modellierten perspektivischen Größe des Überwachungsobjekts an der gleichen Objektposition auf ein Sichthindernis geschlossen.

Der Erfindung liegt dabei die Überlegung zugrunde, dass sich die gemessene Größe des Überwachungsobjekts abhängig von der Objektposition in dem Bild der Bildersequenz nur begründet ändert. Zum einen erfolgt eine Änderung aufgrund von perspektivischen Effekten. So ist ein Überwachungsobjekt, dessen Objektposition im Vordergrund einer Überwachungsszene angeordnet ist, in dem Bild der Bildersequenz größer als das gleiche Überwachungsobjekt, dessen Objektposition im Hintergrund der Überwachungsszene liegt. Dieser allgemein bekannte Zusammenhang ist trivial und unabhängig von etwaigen Sichthindernissen. Ein weiterer Grund für eine Änderung der gemessenen Größe des Überwachungsobjekts liegt darin, dass das Überwachungsobjekt durch ein Sichthindernis partiell verdeckt, beziehungsweise nur partiell sichtbar ist. Wird nun in einem ersten Schritt ein Modell für das perspektivische Verhalten des Überwachungsobjekts in Abhängigkeit von dessen Objektposition in den Bildern der Bildersequenz einer Überwachungsszene modelliert, so kann in einem zweiten Schritt durch einen Vergleich der gemessenen Größe des Überwachungsobjekts mit der modellierten perspektivischen Größe des Überwachungsobjekts jeweils an der gleichen Objektposition auf ein Sichthindernis geschlossen werden, insbesondere indem ein Sichthindernis erkannt wird, wenn die gemessene Größe kleiner als die modellierte perspektivische Größe des Überwachungsobjekts ist.

Bei einer zweckmäßigen Realisierung des Verfahrens werden als Objektpositionen die X-Y-Koordinaten der Objektfußpunkte und/oder als gemessene Größe die Höhe des Überwachungsobjekts im Bild verwendet. Die Höhe des Überwachungsobjekts korrespondiert bevorzugt mit der physikalischen Höhe des Überwachungsobjekts in der Überwachungsszene, also z.B. mit der Körpergröße einer Person. Eine mögliche Umsetzung besteht darin, dass die Überwachungsobjekte datentechnisch durch ein Rechteck in dem Bild der Bildersequenz angenähert werden, als Objektfußpunkt der Mittelpunkt der Unterkante des des angenäherten Rechtecks und als gemessene Größe die Rechteckhöhe verwendet wird.

Bei einer bevorzugten Weiterbildung des Verfahrens werden die und/oder andere erfasste Zustandsdatensätze zur Erzeugung des Modells für die perspektivische Größe des Überwachungsobjekts in Abhängigkeit von der Objektposition in den Bildern der Bildersequenz verwendet. Anders formuliert wird ein Modell erstellt, in dem für jede oder nahezu jede Objektposition in den Bildern der Bildersequenz eine modellierte perspektivische Größe bereitgestellt wird. Alternativ wird in dem Modell nur ein Abbildungsfaktor für jede Objektposition in den Bildern der Bildersequenz modelliert. Durch Verwendung gemessener Zustandsdatensätze ist die Erstellung des Modells ohne großen Kalibrierungsaufwand, insbesondere in Form einer Selbst- oder Eigenkalibrierung, möglich. Alternativ zu dieser oder einer anderen Ausbildung einer Selbstkalibrierung des Bildverarbeitungsverfahren ist es auch umsetzbar, dass das Modell für die perspektivische Größe oder Abbildungsfaktor manuell eingegeben wird.

Bei einer bevorzugten Ausführungsform des Bildverarbeitungsverfahren erfolgt die Erzeugung des Modells durch Approximation einer Hauptgeraden und/oder einer Hauptebene an die gemessenen Größe in Abhängigkeit der jeweiligen Objektpositionen.

Eine mögliche praktische Realisierung ist dabei, die gemessenen Größen in Abhängigkeit der Objektposition als Histogramm aufzutragen und die Hauptgrade beziehungsweise die Hauptebene an die gemessenen Größen anzunähern. Zweckmäßigerweise werden bei der Approximation nur Zustandsdatensätze von unverdeckten Überwachungsobjekten berücksichtigt. Die vorliegenden Zustandsdatensätze werden insbesondere klassifiziert und zwar in Zustandsdatensätze mit Objektpositionen, an denen das Überwachungsobjekt unverdeckt ist und in Zustandsdatensätze mit Objektpositionen, an denen das Überwachungsobjekt partiell durch ein Sichthindernis abgedeckt ist. Die Klassifikation erfolgt bevorzugt indem eine Hauptgerade und/oder ein Hauptebene für Zustandsdatensätze identifiziert wird, bei denen sich die Überwachungsobjekte in einer Objektposition befinden, in der sie in voller Größe und somit unverdeckt sichtbar sind.

Bei einer Weiterbildung des Verfahrens werden Zustandsdatensätze, die neben der approximierten Hauptgerade und/oder Hauptebene liegen, als Zustandsdatensätze mit durch Sichthindernisse zumindest teilweise verdeckten Überwachungsobjekten interpretiert. Insbesondere bilden die Zustandsdatensätze von teilverdeckten Überwachungsobjekten Nebengeraden oder -ansammlungen, die aus den Zustandsdatensätzen bestehen, bei denen die gemessene Größe der Überwachungsobjekte kleiner ist als die in der Hauptgeraden an der gleichen Objektposition aufgetragene Größe.

Zweckmäßigerweise ist vorgesehen, dass unter Verwendung einer Mehrzahl von Zustandsdatensätzen von teilverdeckten Überwachungsobjekten auf ein Sichthindernis geschlossen wird, wobei bevorzugt die Gesamtheit der vorliegenden Zustandsdatensätze einer Klasse von Überwachungsobjekten auf das Vorliegen einer Ansammlung von Zustandsdatensätzen von teilverdeckten Überwachungsobjekten untersucht wird. Insbesondere entspricht einer oder jeder identifizierten Nebengeraden einem Sichthindernis in der Überwachungsszene.

In einer vorteilhaften Weiterbildung werden die Sichthindernisse zur Erzeugung eines Szenenmodells der Überwachungsszene verwendet. Hierzu wird beispielsweise aus jeder identifizieren Nebengeraden und/oder -ansammlung auf ein Sichthinderis in der entsprechenden Position in der Überwachungsszene geschlossen.

Neben einer Erzeugung des Modells für die perspektivische Größe kann der Vergleich zwischen der gemessenen Größe des Überwachungsobjekts mit einer modellierten perspektivischen Größe des Überwachungsobjekts auch zur Aktualisierung oder zur Verifizierung des Szenenmodells verwendet werden. Auf diese Weise ist sichergestellt, dass bei einer Positionsveränderung eines Sichthindernisses das Szenenmodell entsprechend angepasst wird.

Bevorzugt werden die gefundenen Sichthindernisse und/oder das erzeugte Szenenmodell bei einer Objektverfolgung berücksichtigt. In Kenntnis der Sichthindernisse beziehungsweise des Szenenmodells ist eine Größenänderung des Überwachungsobjekts aufgrund Abschattung durch ein Sichthindernis vorhersagbar.

Bei einer zweckmäßigen Ausbildung zur Nutzung von Informationen über Sichthindernisse oder des Szenenmodells wird bei der Objektverfolgung eine Größenfilterung eingesetzt, die die gemessene Größe der Überwachungsobjekte unter Berücksichtigung der Sichthindernisse und/oder der Szenenmodells größenkompensiert.

Zusammengefasst bestehen die Vorteile des erfindungsgemäßen Verfahrens insbesondere darin, dass nach einer Trainingszeit statische oder quasi-statische Verdeckungen in Überwachungsszenen erkannt und dahinter nur partiell sichtbare Überwachungsobjekte entsprechend ihrer tatsächlichen, aber nicht sichtbaren Größe behandelt werden.

Insbesondere detektiert die vorgeschlagene Erfindung automatisch vorhandene Hindernisse in der Szene, wobei bevorzugt auf eine vorherige manuelle Eingabe von Informationen verzichtet werden kann. Durch das Wissen, an welchen Stellen in der Überwachungsszene Objekte nur partiell sichtbar sind, lässt sich die Objektverfolgung einfach verbessern. Bei einer praktischen Ausführung wird eine Größenfilterung der zu detektierenden Überwachungsobjekte dahingehend angepasst, dass partiell sichtbare Objekte um ihren verdeckten Anteil größenkompensiert werden.

Ferner wird ein Videoüberwachungssystem zur Durchführung des eben beschriebenen Bildverarbeitungsverfahrens mit den Merkmalen des Anspruchs 11 vorgeschlagen.

Das Videoüberwachungssystem weist eine Erfassungsvorrichtung auf, welche zur Erfassung von mehreren Zustandsdatensätzen eines oder mehrerer Überwachungsobjekte in Bildern einer Bildersequenz ausgebildet ist. Bevorzugt gehören die Überwachungsobjekte zu einer gemeinsamen Klasse, deren mittlere oder übliche Größe bekannt ist. Insbesondere werden als Überwachungsobjekte nur Personen verwendet.

Ferner weist das Videoüberwachungssystem eine Auswertungsvorrichtung aus, die zur Detektion und/oder Verifizierung von Sichthindernissen in der Überwachungsszene ausgebildet ist, indem die gemessene Größe des Überwachungsobjekts in einem Bild der Bildersequenz einer Überwachungsszene mit einer modellierten, perspektivischen Größe des Überwachungsobjekts an der gleichen Position verglichen wird.

Bevorzugte ist das Videoüberwachungssystem als ein Computersystem mit Mitteln zur schaltungstechnischen Ankopplung an eine oder mehrere Videokameras ausgebildet. Insbesondere dienen die Videokameras zur statischen Beobachtung einer Überwachungsumgebung, das heißt mit einem statischen Beobachtungsbereich. Bei Weiterentwicklungen des Verfahrens beziehungsweise der Vorrichtung können die Überwachungskameras auch bewegbar angeordnet sein, wodurch eine größere Überwachungsumgebung kontrollierbar ist.

Die Erfindung bezieht sich auch auf ein Computerprogramm mit Programmcode-Mitteln um alle Schritte des beschriebenen Bildverarbeitungsverfahrens durchzuführen, wenn das Programm auf einem Computer und/oder dem beschriebenen Videoüberwachungssystem ausgeführt wird.

Kurze Beschreibung der Zeichnungen

Weitere Merkmale, Vorteile und Wirkungen der vorliegenden Erfindung ergeben sich aus der nachfolgenden Beschreibung eines bevorzugten Ausführungsbeispiels. Dabei zeigen:

1 ein Blockschaltbild eines ersten Ausführungsbeispiels des Videoüberwachungssystems, wobei das Blockschaltbild einem Verfahrensablauf eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens gegenüber gestellt ist;

2 beispielhafte Messergebnisse auf Basis des in der 1 gezeigten Videoüberwachungssystems beziehungsweise Verfahrens.

Ausführungsform(en) der Erfindung

Die 1 zeigt auf der linken Seite ein Videoüberwachungssystem 1 als ein erstes Ausführungsbeispiel der Erfindung, welches über eine beliebig ausgebildete Verbindung mit einer oder mehreren Überwachungskameras 2 verschaltet ist. Die Verbindung kann als eine direkte Verkabelung ausgebildet sein, alternativ ist eine Netzwerkverbindung insbesondere über das Internet möglich. Die Überwachungskameras 2 sind als statische Überwachungskameras ausgebildet, das heißt, dass diese während des Überwachungsbetriebs ihren jeweiligen Beobachtungsbereich nicht ändern.

Das Videoüberwachungssystem 1 weist als Baugruppen einen Objektverfolger 3, eine Auswertevorrichtung 4 sowie einen Modellgenerator 5 auf. Zur Illustration der Funktionsweise des Videoüberwachungssystems 1 ist auf der rechten Seite in 1 ein Flussdiagramm zur Illustration des Verfahrensablaufs abgebildet, wobei durch geschweifte Klammern Verfahrensschritte des Verfahrensablaufs den Baugruppen 3, 4 und 5 des Videoüberwachungssystems 1 zugeordnet werden.

In einem ersten Schritt A werden mit den Überwachungskameras 2 aufgenommene Videosequenzen einer Überwachungsszene an den Objektverfolger 3 übergeben. Alternativ oder ergänzend können die Videosequenzen auch aus einer Speichervorrichtung, wie zum Beispiel einem Videorekorder oder einer Datenbank stammen. In dem Objektverfolger 3 wird ein Überwachungsobjekt (nicht dargestellt) detektiert und über die einzelnen Bilder einer der Videosequenzen verfolgt. Wie nachfolgend noch erläutert wird, erfolgt die Detektion und die Verfolgung optional unter Verwendung eines Szenenmodells. Insbesondere bei der Erstkalibrierung des Videoüberwachungssystem 1 wird der Schritt A ohne Kenntnis des Szenenmodells durchgeführt.

In einem zweiten Schritt B werden Zustandsdatensätze des Überwachungsobjekts erfasst, wobei jeder Zustandsdatensatz eine Objektposition und eine Objektgröße des Überwachungsobjekts in einem Bild der Videosequenz umfasst. Die Objektposition und die Objektgröße werden in Pixelkoordinaten oder in dazu äquivalenten Koordinaten beziehungsweise Einheiten angegeben.

In einem nächsten Schritt C werden die erfassten Zustandsdaten in einem zweidimensionalen oder dreidimensionalen Histogramm aufgetragen, wobei die Höhe des Histogramms durch die Objektgröße gegeben ist. Ein derartiges Histogramm ist beispielsweise in der 2 gezeigt und wird später noch genauer beschrieben.

In einem darauf folgendem Schritt D wird das derart erzeugte Histogramm ausgewertet, wobei in die erfassten Zustandsdatensätze – bei zweidimensionalen Histogrammen – eine Hauptgerade oder bei dreidimensionalen Histogrammen eine Hauptebene eingefittet werden. Insbesondere wird die Hauptgerade bzw. die Hauptebene in dem Histogramm identifiziert, wobei die Hauptgerade bzw. Hauptebene auf einer Auswahl von Zustandsdatensätzen basiert, welche unverdeckte, in voller Größe sichtbare Überwachungsobjekte betrifft. Danach werden Nebengeraden, Nebenebenen oder Nebensegmente identifiziert, die aus Zustandsdatensätzen bestehen, bei denen das Überwachungsobjekt eine Objektgröße aufweist, die kleiner als die durch die Hauptgerade bzw. Hauptebene bestimmte Objektgröße an der gleichen Objektposition 1 liegt.

In einem weiteren Schritt E wird in dem Modellgenerator 5 auf Basis der identifizierten Nebengeraden, Nebenebenen bzw. Nebensegmente auf Sichthindernisse in der Überwachungsszene geschlossen, wobei durch Auswertung der Pixelkoordinaten, der die Nebengeraden, Nebenebenen bzw. Nebensegmente bildenden Zustandsdatensätze entsprechende Positionen in der Überwachungsszene für Sichthindernisse zuordnet werden. Als Ergebnis erhält man Informationen über die Position und/oder die Größe der Sichthindernisse in der Überwachungsszene hinter denen das Überwachungsobjekt nur teilweise sichtbar ist.

Die Gesamtheit der auf diese Weise detektierten Sichthindernisse werden in einem Schritt F zur Erzeugung eines Szenenmodells herangezogen.

Im weiteren Verlauf des Verfahrens wird das Szenenmodell im Überwachungsbetrieb genutzt, um die Objektverfolgung zu verbessern, zum Beispiel indem eine Größenfilterung von zu detektierenden Überwachungsobjekten dahingehend angepasst wird, dass partiell sichtbare Objekte um ihren verdeckten Anteil größenkompensiert werden.

Zur weiteren Verdeutlichung des erfindungsgemäßen Verfahrens sind in der 2 beispielhafte Messergebnisse dargestellt. Die linke Seite mit der Überschrift Scene reference zeigt das Bild einer Bildersequenz einer Überwachungsszene, wobei die Überwachungsszene als überwachtes Büro ausgebildet ist. In der gezeigten Darstellung sind in dem Büro in der unteren rechten Ecke ein erster Schreibtisch 7 und in etwa in der Mitte auf der linken Seite ein zweiter Schreibtisch 8 angeordnet. Diese beiden Schreibtische 7 und 8 bilden typische Sichthindernisse in der Bildersequenz einer Überwachungsszene, da ein Überwachungsobjekt, zum Beispiel eine Person, die sich aus dem freien Mittelbereich des Büros hinter die Schreibtische 7 oder 8 begibt, partiell durch die Schreibtische 7 bzw. 8 verdeckt ist. Bei einer Objektverfolgung dieser Person führt diese partielle Verdeckung zu einer plötzlichen Größenänderung des Überwachungsobjekts.

Zur Erkennung oder Detektion derartiger Sichthindernisse werden gemessene Zustandsdatensätze der Bewegungstrajektorien des Überwachungsobjekts in einem Histogramm dargestellt, welches auf der rechten Seite der 2 beispielhaft als zweidimensionales Histogramm 9 ausgebildet ist. Die senkrechte Achse bezeichnet dabei die Y-Position des Überwachungsobjekts in dem Bild der Bildersequenz und die waagerechte Achse die gemessene Größe oder Höhe des Überwachungsobjekts. Der Ursprung der Achsen ist in der Darstellung oben links angeordnet. Die Zustandsdatensätze werden in dem Histogramm 9 als einzelne Messpunkte eingetragen, so dass zunächst nur eine Messpunktewolke zu erkennen ist.

In dieser Messpunktwolke wird durch geeignete Algorithmen eine Hauptgerade 10 identifiziert, die der normalen perspektivischen Änderung der Objektgröße ausgehend von dem Vordergrund der Überwachungsszene in den Hintergrund der Überwachungsszene entspricht. Aus optisch geometrischen Gründen ist die perspektivische Größenänderung als Gerade ausgebildet.

Die verbleibenden Messpunkte von Zustandsdatensätzen betreffen Objektpositionen mit zugeordneten Objektgrößen, wobei die Objektgrößen kleiner als die durch die Hauptgerade 10 gezeigten Objektgrößen ausgebildet sind. Diese verbleibenden Messpunkte werden in Segmente zusammengeführt, wobei beispielhaft in der 2 eine Nebengerade 11 dargestellt ist. Diese Nebengerade 11, die Objektgrößen kleiner als die entsprechenden Objektgrößen der Hauptgeraden 10 aufweist, ist das Resultat der Überwachungsobjektverdeckung durch den ersten Schreibtisch 7.

Durch Kenntnis der Nebengerade 11 und zudem durch die Kenntnis der X-Koordinate der zugehörigen Zustandsdatensätze ist es möglich, der Überwachungsszene 6 ein Sichthindernis zuzuordnen, welches in der Höhe und der Position dem ersten Schreibtisch 7 entspricht. Nach dem gleichen Verfahren kann ein zweites Sichthindernis modelliert werden, welches dem zweiten Schreibtisch 8 entspricht. Diese und weitere Sichthindernisse werden in einem Szenenmodell eingetragen, welches – wie zuvor erläutert – zur Verbesserung der Objektverfolgung, insbesondere durch Adaptierung einer Größenfilterung, vorteilhaft einsetzbar ist.

Abschließend wird noch darauf hingewiesen, dass die Auswertung der Bild- oder Videosequenzen nur beispielhaft erläutert wurden, insbesondere ist es optional möglich, dass eine andere geometrische Figur anstatt der Hauptgeraden bzw. Nebengeraden an die erfassten Zustandsdatensätze angepasst werden, insbesondere wenn dies den optischgeometrischen Verhältnissen besser entspricht.


Anspruch[de]
Bildverarbeitungsverfahren zur Erkennung und Verarbeitung von Sichthindernissen (7, 8) in einer Überwachungsszene (6) in einer Bildersequenz,

wobei mehrere Zustandsdatensätze eines Überwachungsobjekts erfasst werden, die jeweils eine Objektposition (x, y) und eine an der Objektposition gemessene Größe (h) des Überwachungsobjekts in einem Bild der Bildersequenz umfassen,

dadurch gekennzeichnet, dass

durch Vergleich der gemessenen Größe (h) des Überwachungsobjekts mit einer modellierten perspektivischen Größe des Überwachungsobjekts an der gleichen Objektposition (x, y) auf eines der Sichthindernis (7, 8) geschlossen wird.
Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zur Erzeugung eines Modells für die perspektivische Größe des Überwachungsobjekts in Abhängigkeit von der Objektposition (x, y) in den Bildern der Bildersequenz die Zustandsdatensätze verwendet werden. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die Erzeugung des Modells die Approximation einer Hauptgeraden (10) und/oder einer Hauptebene an die gemessenen Größen (h) in Abhängigkeit der Objektposition (x, y) umfasst. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass bei der Approximation nur Zustandsdatensätze mit unverdecktem Überwachungsobjekt berücksichtigt werden. Verfahren nach einem der vorhergehenden Ansprüche 2 bis 4, dadurch gekennzeichnet, dass Zustandsdatensätze, die neben der approximierten Hauptgerade (10) und/oder Hauptebene liegen, als Zustandsdatensätze von einem durch eines der Sichthindernisse teilverdeckten Überwachungsobjekt interpretiert werden. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass unter Verwendung einer Mehrzahl von Zustandsdatensätzen von teilverdeckten Überwachungsobjekten auf eines der Sichthindernisse (7, 8) geschlossen wird. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Sichthindernisse (7, 8) zur Erzeugung eines Szenenmodells verwendet werden. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass das Szenenmodell durch Auswertung von Zustandsdatensätzen von weiteren Überwachungsobjekten aktualisiert oder verifiziert wird. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Sichthindernisse (7, 8) und/oder das Szenenmodell bei einer Objektverfolgung berücksichtigt werden. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass bei der Objektverfolgung eine Größenfilterung eingesetzt wird, die die gemessene Größe der Überwachungsobjekte unter Berücksichtigung der Sichthindernisse größenkompensiert. Videoüberwachungssystem (1) zur Durchführung des Bildverarbeitungsverfahrens nach einem der vorhergehenden Ansprüche,

mit einer Erfassungsvorrichtung (3), die zur Erfassung von mehreren Zustandsdatensätzen eines Überwachungsobjekts, die jeweils eine Objektposition (x, y) und eine an der Objektposition gemessene Größe des Überwachungsobjekts in einem Bild der Bildersequenz der Überwachungsszene (6) umfassen, ausgebildet ist,

gekennzeichnet durch

eine Auswertevorrichtung (4), die zur Detektion und/oder Verifizierung von Sichthindernissen in der Überwachungsszene (6) durch Vergleich der gemessenen Größe des Überwachungsobjekts mit einer modellierten perspektivischen Größe des Überwachungsobjekts an der gleichen Objektposition ausgebildet ist.
Videoüberwachungssystem (1) nach Anspruch 11, dadurch gekennzeichnet, dass das Videoüberwachungssystem an eine oder mehrere Videokameras (2) koppelbar und/oder gekoppelt ist, wobei die Videokameras (2) zur statischen Beobachtung einer Überwachungsumgebung ausgebildet ist. Computerprogramm mit Programmcode-Mitteln, um alle Schritte des Verfahrens nach einem oder allen der Ansprüche 1 bis 10 durchzuführen, wenn das Programm auf einem Computer und/oder einer Vorrichtung (1) nach einem der Ansprüche 11 oder 12 ausgeführt wird.






IPC
A Täglicher Lebensbedarf
B Arbeitsverfahren; Transportieren
C Chemie; Hüttenwesen
D Textilien; Papier
E Bauwesen; Erdbohren; Bergbau
F Maschinenbau; Beleuchtung; Heizung; Waffen; Sprengen
G Physik
H Elektrotechnik

Anmelder
Datum

Patentrecherche

Patent Zeichnungen (PDF)

Copyright © 2008 Patent-De Alle Rechte vorbehalten. eMail: info@patent-de.com