PatentDe  


Dokumentenidentifikation DE10237948A1 18.03.2004
Titel Verfahren zur Ermittlung einer Oberflächenstruktur von virtuellen Objekten
Anmelder Volkswagen AG, 38440 Wolfsburg, DE
Erfinder Symietz, Michael, Dr., 38104 Braunschweig, DE
DE-Anmeldedatum 20.08.2002
DE-Aktenzeichen 10237948
Offenlegungstag 18.03.2004
Veröffentlichungstag im Patentblatt 18.03.2004
IPC-Hauptklasse G06T 17/20
Zusammenfassung Die Erfindung betrifft ein Verfahren zur Ermittlung einer Oberflächenstruktur von virtuellen Objekten, bei welchem eine virtuelle Umgebung in einem Computer berechnet wird, bei welchem virtuelle Objekte innerhalb der virtuellen Umgebung definiert werden, bei welchem Eigenschaften von Beleuchtungsquellen innerhalb der virtuellen Umgebung definiert werden und bei welchem Materialeigenschaften der virtuellen Objekte ermittelt werden. Eine Verbesserung der Visualisierungsleistung wird dadurch erreicht, dass vor einer Darstellung der virtuellen Umgebung auf eine Anzeigeeinrichtung Oberflächenstrukturen der virtuellen Objekte in Abhängigkeit von den Materialeigenschaften und den Eigenschaften der Beleuchtungsquellen ermittelt werden und die Oberflächenstrukturen zumindest Teilen der virtuellen Objekte zugeordnet werden.

Beschreibung[de]

Die Erfindung betrifft ein Verfahren zur Ermittlung einer Oberflächenstruktur von virtuellen Objekten, insbesondere von virtuellen Fahrzeugmodellen, bei welchem eine virtuelle Umgebung in einem Computer berechnet wird, bei welchem virtuelle Objekte innerhalb der virtuellen Umgebung definiert werden, bei welchem Eigenschaften von Beleuchtungsquellen innerhalb der virtuellen Umgebung definiert werden, und bei welchem Materialeigenschaften der virtuellen Objekte ermittelt werden.

Des weiteren betrifft die Erfindung ein Computerprogrammprodukt zur Berechnung von Oberflächenstrukturen von virtuellen Objekten, durch das eine virtuelle Umgebung berechnet wird, durch das innerhalb der virtuellen Umgebung virtuelle Objekte definiert werden, durch das Eigenschaften von Beleuchtungsquellen innerhalb der virtuellen Umgebung definiert werden und durch das Materialeigenschaften für die virtuellen Objekte ermittelt werden.

Virtuelle Umgebungen sind Modelle innerhalb einer rechnergestützten Umgebung. Innerhalb der virtuellen Umgebung können Objekte definiert sein. Diese Objekte oder auch Lichtquellen können in der virtuellen Umgebung selbst bestimmt, berechnet werden oder auch von außerhalb in die virtuelle Umgebung geladen werden. Auch Materialeigenschaften können definiert oder geladen werden.

In heutigen Anwendungen für virtuelle Realitäten (VR) und augmentierter Realität (AR) sind schnelle und realistische Datenvisualisierungen zwingend erforderlich. Bei der Produktentwicklung können Meilensteine durch digitale Modelle erreicht werden, jedoch nur, wenn die digitale Visualisierung der Produkte qualitativ hochwertig ist. Insbesondere bei der Produktentwicklung in der Automobil-Planung ist es von großer Bedeutung, virtuelle Meilensteine realisieren zu können. Dabei wird angestrebt, reale physikalische Modelle durch digitale Modelle zu ersetzen. Funktionalitäten der physikalischen Modelle, beispielsweise Bedienung, Nutzung, werden digital nachgebildet, und mit Hilfe digitaler Verfahren lassen sich Varianten- und Versionshandling, Schnittbildung und Oberflächenbeurteilung ermöglichen. Die Darstellung der digitalen Modelle setzt eine schnelle Visualisierung bei hoher Qualität voraus. Um Interaktionen mit den digitalen Modellen realisieren zu können, muss ein hoher Darstellungsrealismus erreicht werden. Die 4Leistung einer Visualisierung lässt sich durch die Dauer der Datenvorbereitung, die Qualität der dargestellten digitalen Modelle sowie die Darstellungsgeschwindigkeit und den Darstellungsrealismus der digitalen Modelle beschreiben.

Heutzutage werden digitale Modelle üblicherweise mit Hilfe von Echtzeit-Renderingverfahren berechnet, wobei die Echtzeit-Renderingverfahren aufgrund der hohen Erfordernisse an die Rechengeschwindigkeit fast ausschließlich mit Computergraphik-Hardware, die speziell dafür ausgerichtet ist, realisiert wird. Bei den bekannten Verfahren, die ausschließlich auf dazu geeigneter Hardware realisierbar sind, handelt es sich u.a. um "Gouraud-Shading", was mit fünf grundlegenden Parametern arbeitet. Diese Parameter bestimmen das Aussehen von virtuellen Modellen, welche aus einer Vielzahl von Polygonen gebildet werden. Das ist zum einen der ambiente Farbanteil, der die Umgebungsbeleuchtung definiert. Der diffuse Farbanteil beschreibt die diffus reflektierenden Anteile eines Materials. Der spekulare Anteil definiert eine Reflexion des Lichtes auf dem Objekt, das sogenannte "Highlight". Dieses "Highlight" wird exakt mit Hilfe des "Shininess-Wertes" festgelegt. Schließlich beschreibt der emissive Anteil das Eigenleuchten eines Objektes.

Durch die Festlegung dieser Parameter lassen sich die polygonalen Modelle in einer hohen Darstellungsqualität wiedergeben, jedoch ist eine Berechnung der Oberflächen während einer Interaktion stets abhängig von der Perspektive des Benutzers und den Beleuchtungsquellen. Die Oberfläche muss laufend neu berechnet werden, was hohe Anforderungen an die Echtzeit-Fähigkeit der Computerhardware stellt.

Um virtuelle Objekte möglichst realistisch darstellen zu können, lassen sie sich texturieren, was bedeutet, dass Oberflächen mit Bildern versehen werden. Diese sogenannten "Texturen" können künstliche erzeugte Bilder aber auch Fotos sein. Mit Hilfe von Texturen können feine Unterstrukturen dargestellt werden, ohne die Anzahl der insgesamt darzustellenden Polygone zu erhöhen. Zur Darstellung eines virtuellen Objekts wird jedem Polygon eine Textur über eine eindeutige Abbildung der Polygon-Punkte zu den Texturkoordinaten zugeordnet. Diese Abbildung der Polygon-Punkte zu den Texturkoordinaten bleibt während der gesamten Visualisierung unverändert.

Beim sogenannten "Environmentmapping" wird die Texturierung von Polygonen bei jedem zu visualisierenden Bild neu berechnet, wobei die Zuordnung der Texturkoordinaten zu den Polygon-Punkt-Koordinaten in Abhängigkeit vom Betrachterstandpunkt und der Betrachtungsrichtung erfolgt. Durch die laufende Neuberechnung des zu visualisierenden Bildes werden enorme Anforderungen an die Hardware gestellt. Das Environmentmapping ist ein etabliertes Verfahren, welches üblicherweise hardwareunterstützt funktioniert. Bei einer genügend groß dimensionierten Hardware können Leistungseinbußen weitestgehend vermieden werden.

Um ein möglichst realistisches Bild von virtuellen Modellen zu erhalten, werden in der virtuellen Umgebung virtuelle Lichtquellen vorgesehen, wobei verschiedene Eigenschaften der Lichtquellen einstellbar sind. Bei der "Directed-Light" Lichtquelle handelt es sich um paralleles Licht, welches durch seine Richtung und Farbe definiert wird. Bei der "Point-Light" Lichtquelle handelt es sich um ein Punktlicht, welches in alle Richtungen gleichmäßig abstrahlt und durch seine Position und Farbe definiert ist. Das sogenannte "Spotlight" ist eine Lichtquelle, welche von einem Punkt aus in eine bestimmte Richtung strahlt, wobei der Lichtkegel durch eine parametrisierbare Lichtverteilung festgelegt ist. Die sogenannte "Ambiente-Light" Lichtquelle betrifft das Umgebungslicht (Grundhelligkeit), welches die Objekte zugewiesen bekommen, die von keiner der übrigen Beleuchtungsquellen betroffen sind. Durch das Hinzufügen von Lichtquellen innerhalb der virtuellen Umgebung steigt der Rechenaufwand, da für jedes zu visualisierende Bild die Lage der Lichtquellen in Bezug zum Betrachter, zu dessen Blickrichtung und zum virtuellen Objekt neu berechnet werden muss und die Visualisierung der Oberflächen der virtuellen Objekte daran angepasst werden muss. Bei der Visualisierung können Schattierungen oder auch Texturierungen berücksichtigt werden. Je mehr Lichtquellen in der virtuellen Umgebung vorhanden sind, desto höher wird der Rechenaufwand. Die Anzahl der Lichtquellen bestimmt maßgeblich die Leistung bei der Visualisierung der Bilder der virtuellen Umgebung.

Bei den bekannten Verfahren ist die Qualität der Darstellung der virtuellen Objekte stark abhängig von der Auflösung der beleuchteten Objekte. Je höher die Auflösung ist, desto qualitativ hochwertiger wird die Darstellung. Eine höhere Auflösung führt jedoch zwangsläufig zu einem größeren Rechenaufwand und somit zu einer Verringerung der Darstellungsgeschwindigkeit.

Außerdem werden bei bekannten Modellen Spiegelungen der eigentlichen Lichtquelle auf dem Objekt vernachlässigt, da diese zu einem erhöhten Rechenaufwand führten. Insbesondere bei der virtuellen Darstellung von lackierten Oberflächen, Glas und Chrom kann aber eine Darstellung der Spiegelung der Lichtquellen auf der Oberfläche interessant sein.

Der Erfindung liegt daher das technische Problem zugrunde, eine qualitativ hochwertige Darstellung einer virtuellen Umgebung bei gleichzeitig hoher Visualisierungsleistung zu ermöglichen.

Das zuvor hergeleitete technische Problem wird erfindungsgemäß dadurch gelöst, dass vor einer Darstellung der virtuellen Umgebung auf einer Anzeigeeinrichtung Oberflächenstrukturen der virtuellen Objekte in Abhängigkeit von den Materialeigenschaften und den Eigenschaften der Beleuchtungsquellen ermittelt werden und die Oberflächenstrukturen zumindest Teilen der virtuellen Objekte zugeordnet werden.

Erfindungsgemäß werden neben den Materialeigenschaften zusätzlich die Eigenschaften der Beleuchtungsquellen genutzt, um vor einer Darstellung der virtuellen Umgebung die Oberflächenstrukturen zu berechnen. Ausschließlich die vor der Darstellung berechneten Oberflächenstrukturen werden dann bei der Darstellung der virtuellen Objekte genutzt, was zu einer erheblichen Reduzierung des Rechenaufwands führt. Eine höhere Darstellungsqualität wird insbesondere bei einem laufenden Highlight auf einer gekrümmten Oberfläche ermöglicht. Jedem Material kann eine entsprechende Oberflächenstruktur zugeordnet werden, die vor der Darstellung der virtuellen Umgebung berechnet wird. Die Oberflächenstrukturen können dabei beispielsweise vollautomatisch vor der Darstellung der virtuellen Umgebung berechnet werden, wobei die Berechnung der Oberflächenstrukturen stets abhängig von der Lage und der Art der Beleuchtungsquellen in Relation zu den mit den Oberflächenstrukturen zu versehenden virtuellen Objekten berücksichtigt wird. Die Lichtquellen und Materialparameter bestimmen dann die Oberflächenstrukturen, mit denen die virtuellen Objekte überzogen werden.

Zu den Materialeigenschaften zählen u.a. die Farbe und die Reflexionseigenschaften des jeweiligen Materials. Sie spielen eine große Rolle bei der Berechnung der Oberflächenstrukturen, da sie bestimmen, welchen Einfluss die Lichtquellen auf die Oberflächenstrukturen haben.

Durch das erfindungsgemäße Verfahren wird die Visualisierungsleistung nicht durch die Anzahl der genutzten Lichtquellen negativ beeinflusst. Außerdem können Spiegelungen der Lichtquelle selbst in den Oberflächenstrukturen berücksichtigt werden, ohne Einbußen an der Visualisierungsleistung hinnehmen zu müssen. Die Ausrichtung der Flächen der virtuellen Objekte, die bei der herkömmlichen Berechnung der Oberflächenstrukturen zwingend erforderlich ist, kann mit Hilfe des erfindungsgemäßen Verfahrens vernachlässigt werden. Die Oberflächenstrukturen lassen sich für jedes genutzte Material erzeugen und in Abhängigkeit von den Beleuchtungsquellen berechnen.

Häufig werden virtuelle Objekte innerhalb der virtuellen Umgebung durch eine Vielzahl von Polygonen beschrieben. Diese Polygone geben die Oberflächen der virtuellen Objekte wieder. Es wird vorgeschlagen, dass die virtuellen Objekte mit Hilfe einer Vielzahl von Polygonen definiert werden und dass vor der Darstellung der virtuellen Umgebung den Polygonen zumindest teilweise die ermittelten Oberflächenstrukturen zugeordnet werden. Die Zuordnung der Oberflächenstrukturen kann in Form einer Environmentmap-Textur erfolgen. Das bedeutet, dass jedem Polygon die ermittelte Oberflächenstruktur vor einer Darstellung zugeordnet werden kann und bei der Darstellung der virtuellen Objekte dann berücksichtigt wird.

Zur Steigerung der Visualisierungsleistung wird vorgeschlagen, dass die Darstellung der virtuellen Umgebung und die Interaktion innerhalb der virtuellen Umgebung mit Hilfe der zuvor berechneten Oberflächenstrukturen durchgeführt wird. Dazu werden die Oberflächenstrukturen den virtuellen Objekten zugeordnet, und bei der Visualisierung der virtuellen Objekte werden lediglich diese Oberflächenstrukturen benutzt. Zwar verändert sich in diesem Fall der Einfluss einer Lichtquelle bei einer Interaktion innerhalb der virtuellen Umgebung nicht in Abhängigkeit vom Betrachterstandpunkt, da der Einfluss der Lichtquelle bereits vor der Visualisierung berechnet worden ist, jedoch fällt dies zumeist nicht auf. Nur wenn der Benutzer seinen Blickwinkel oder Standort innerhalb der virtuellen Umgebung in erheblichem Maß verändert, kann es auffallen, dass der Einfluss der Lichtquelle auf die Reflexion keinen Einfluss nimmt. Änderungen der Beleuchtungseigenschaften in der virtuellen Umgebung, beispielsweise durch Änderung der Materialparameter oder der Lichtquellen, haben zur Laufzeit zunächst keinen Einfluss auf die Darstellung des virtuellen Objekts, können aber im weiteren Verlauf der Darstellung berücksichtigt werden.

Es wird daher auch vorgeschlagen, dass bei einer Änderung der Eigenschaften der Beleuchtungsquellen während der Darstellung der virtuellen Umgebung die Oberflächenstrukturen neu berechnet werden und den virtuellen Objekten zugeordnet werden. Dies hat zur Folge, dass eine Änderung der Eigenschaften der Beleuchtungsquellen zu veränderten Oberflächenstrukturen führt. Der Benutzer kann somit bei der Interaktion die Lage oder Art von Beleuchtungsquellen ändern und damit eine Neuberechnung der Oberflächenstrukturen bewirken. Da die Oberflächenstrukturen jedoch nur bei der Veränderung der Eigenschaften der Beleuchtungsquellen neu berechnet werden, tritt nur eine geringe Einbuße an Visualisierungsleistung ein. Erfindungsgemäß werden die Oberflächenstrukturen aber nicht mit jedem zu visualisierenden Bild neu berechnet, wie dies bei herkömmlichen Verfahren in Anhängigkeit vom Blickwinkel und Standort des Betrachters geschieht.

Vorzugsweise werden bei einer neuen Beleuchtungsquelle innerhalb der virtuellen Umgebung die Oberflächenstrukturen neu berechnet und den virtuellen Objekten zugeordnet. Das heißt, dass der Benutzer neue, virtuelle Beleuchtungsquellen in die virtuelle Umgebung einfügen kann und diese neue Beleuchtungsquelle zu einem veränderten Eindruck führt, da die Oberflächenstrukturen neu berechnet werden.

Auch wird vorgeschlagen, dass ein Entfernen der Beleuchtungsquellen innerhalb der virtuellen Umgebung zu einer Neuberechnung der Oberflächenstrukturen führt.

Ebenfalls ist vorgesehen, dass eine Änderung der Materialeigenschaften der virtuellen Objekte während der Darstellung der virtuellen Umgebung die Oberflächenstrukturen neu berechnet werden und den virtuellen Objekten zugeordnet werden. Das bedeutet, dass der Benutzer die Materialeigenschaften verändern kann und somit den Eindruck der virtuellen Objekte in Abhängigkeit der eingesetzten Materialien begutachten kann.

Es wird weiterhin vorgeschlagen, dass bei einer Änderung der Objektposition, der Objektlage und/oder des Objektstandortes während der Darstellung der virtuellen Umgebung die Oberflächenstrukturen neu berechnet werden und den virtuellen Objekten zugeordnet werden.

Ebenfalls wird vorgeschlagen, dass auf Benutzeraufforderung eine Neuberechnung der Oberflächenstrukturen erfolgen kann. In diesem Fall kann der Benutzer auch selbst bestimmen, wann eine Neuberechnung der Oberflächenstrukturen erfolgen soll. Auch kann die Neuberechnung durch eine Systemaufforderung erfolgen. Beispielsweise kann in einem Demonstrationslauf durch das System selber eine Vielzahl von Objektparametern verändert werden, die dann zu einer Neuberechnung der virtuellen Objekte führen kann.

Die oben erwähnten Neuberechnungen aufgrund von Benutzereingaben können auch alle vom System selbst ausgelöst werden. Es ist daher nicht erforderlich, dass ein Benutzer Umgebungsvariablen ändert und danach eine Neuberechnung veranlasst, sondern auch durch das System können Umgebungsvariablen neu bestimmt und eine Neuberechnung veranlasst werden.

Ein weiterer Gegenstand der Erfindung, der das erfindungsgemäße technische Problem ebenfalls löst, ist ein Computerprogrammprodukt, welches dadurch gekennzeichnet ist, dass vor der Darstellung der virtuellen Umgebung auf einer Anzeigeeinrichtung Oberflächenstrukturen in Abhängigkeit von den Materialeigenschaften und den Eigenschaften der Beleuchtungsquellen berechnet werden und die berechneten Oberflächenstrukturen zumindest Teilen der virtuellen Objekte zugeordnet werden und eine Darstellung der virtuellen Objektumgebung berechnet wird. Das Computerprogramm erlaubt es, vor der tatsächlichen Visualisierung der virtuellen Umgebung zusammen mit den virtuellen Objekten, die Oberflächenstrukturen der virtuellen Objekte zu berechnen, wobei die Eigenschaften der Beleuchtungsquellen und die Materialeigenschaften berücksichtigt werden und die daraus resultierenden Reflexionen bestimmt werden. Diese berechneten Oberflächenstrukturen werden zur Visualisierung der virtuellen Umgebung genutzt. Während einer Interaktion und einer Bewegung innerhalb der virtuellen Umgebung werden die Oberflächenstrukturen nicht mit jedem zu visualisierenden Bild neu berechnet, sondern die bereits vor der Visualisierung berechneten Oberflächenstrukturen werden weiter benutzt. Dies führt zu einer enormen Leistungssteigerung, weshalb das erfindungsgemäße Verfahren auch mit Hilfe eines Computerprogrammproduktes realisiert werden kann und nicht aufwendige Hardwareeinrichtungen genutzt werden müssen.

Ein weiterer Gegenstand der Erfindung ist die Verwendung eines vorbeschriebenen Verfahrens oder eines vorbeschriebenen Computerprogrammprodukts in der Kraftfahrzeugentwicklung, der Flugzeugindustrie, der Werftindustrie, dem Maschinen und Anlagenbau und/oder in Videospielen.

Mit Hilfe des erfindungsgemäßen Verfahrens, des erfindungsgemäßen Computerprogrammprodukts und der erfindungsgemäßen Verwendung ist es möglich, dass virtuelle Objekte bei gleichbleibender Darstellungsqualität wesentlich schneller dargestellt werden können. Es können auch mehr Objekte bei gleicher Visualisierungsleistung dargestellt werden. Die einheitliche Ausrichtung von Flächenund Punktnormalen, die bei der herkömmlichen Visualisierung virtueller Objekte notwendig waren, können vollständig entfallen. Dies führt zu einer erhöhten Geschwindigkeit bei der Vorbereitung der Visualisierung der virtuellen Umgebung. Auch die Anzahl der Lichtquellen beeinträchtigt bei dem erfindungsgemäßen Verfahren und dem erfindungsgemäßen Computerprogrammprodukt die Leistung der Visualisierung nicht. Da zusätzlich auch eine Lichtquellen-Spiegelung berücksichtigt werden kann, führt das erfindungsgemäße Verfahren und das erfindungsgemäße Computerprogramm zu einem Realitätsgewinn bei der Darstellung der virtuellen Objekte.

Die Erfindung wird im Folgenden anhand einer ein Ausführungsbeispiel zeigenden Zeichnung näher erläutert. In der Zeichnung zeigt

1 ein bekanntes Verfahren zur Visualisierung von virtuellen Umgebungen; Fig2 ein erfindungsgemäßes Verfahren zur Visualisierung einer virtuellen Umgebung.

Die Visualisierung einer virtuellen Umgebung wird in drei Phasen realisiert, wie es in 1 dargestellt ist. Hierbei werden die Daten in einer Daten-Vorbereitungsphase 2 zunächst aufbereitet, danach wird zum Anwendungsstart 4 die virtuelle Umgebung geladen und in der Simulationsphase 6 die virtuelle Umgebung visualisiert.

In der Daten-Vorbereitungsphase 2 werden die Punkt- und Flächennormalen der virtuellen Objekte einheitlich ausgerichtet. Hierbei wird zwischen einseitig und doppelseitig beleuchteten Modellen unterschieden. Eine einseitige Beleuchtung bedeutet gegenüber der doppelseitigen Beleuchtung eine Leistungssteigerung. Die einseitige Beleuchtung setzt jedoch voraus, dass die Flächen- und Punktnormalen des virtuellen Modells korrekt ausgerichtet sind. Das bedeutet, dass die Normalen der Polygone der virtuellen Objekte korrigiert werden. In der Regel sind die Normalen der Flächen und Flächenverbände der Datenquellsysteme (CAD) nicht ausgerichtet und müssen händisch oder interaktiv korrigiert werden. Für die automatische Ausrichtung der Flächennormalen gibt es bis heute keine robuste Software. Eine interaktive Ausrichtung der Flächennormalen im Rahmen der Datenvorbereitung bedeutet jedoch einen erhöhten Zeit- und Kostenaufwand. Ein Verzicht auf eine solche Ausrichtung bedeutet dagegen einen Performanceverlust während der Simulation und der Visualisierung. Aus diesem Grund wird in herkömmlichen Verfahren fast immer eine Ausrichtung der Normalen durchgeführt. Nachdem eine Normalenausrichtung 8 durchgeführt worden ist, werden die Materialparameter 10 und die Eigenschaften der Beleuchtungsquellen bestimmt 12. Die Materialeigenschaften sind die Oberflächen der Materialien, deren Reflexionseigenschaften, deren Farben und weitere. Die Eigenschaften der Lichtquellen sind die Art der Lichtquelle, die Position der Lichtquelle, deren Ausstrahlungsrichtung und deren Farbe sowie weitere.

Nachdem die Normalenausrichtung 8, die Bestimmung der Materialeigenschaften 10 sowie die Bestimmung der Eigenschaften der Beleuchtungsquellen 12 durchgeführt worden ist, wird im Anwendungsstart 4 die virtuelle Umgebung geladen 14. Hierbei werden alle die virtuelle Umgebung beschreibenden Daten aus einer Datenbank geladen und zusammen mit den virtuellen Objekten für die Visualisierung der virtuellen Umgebung genutzt. Nachdem die erste Visualisierung der virtuellen Umgebung zusammen mit den virtuellen Objekten erfolgt ist, kann eine Interaktion 16 mit der virtuellen Umgebung erfolgen. Während der Interaktion 16 wird die virtuelle Umgebung mit jedem zu visualisierenden Bild neu berechnet 18. Dabei werden die Oberflächenstrukturen jedes virtuellen Objekts in Abhängigkeit von der Betrachterposition, dessen Blickrichtung, den Materialeigenschaften und den Eigenschaften der Beleuchtungsquellen neu berechnet und ein neues Bild erzeugt. Bei jeder Veränderung der Betrachterposition, des Betrachterblickwinkels, der Lage der Beleuchtungsquellen, der Art der Materialien und sonstigen Veränderungen innerhalb der virtuellen Umgebung müssen alle Oberflächen neu berechnet werden, was zu einem erheblichen Rechenaufwand führt.

Diese andauernde Neuberechnung der Oberflächenstrukturen kann erfindungsgemäß, wie es in 2 dargestellt ist, auf eine ausschließlich auf den vorberechneten Oberflächenstrukturen (bspw. Environmentmaps) basierende Visualisierung reduziert werden.

Nachdem die Materialparameter bestimmt worden sind 10 und die Eigenschaften der Beleuchtungsquellen ermittelt sind 12, wird ebenfalls die virtuelle Umgebung geladen 14. Nun werden jedoch erfindungsgemäß in Abhängigkeit von den Materialeigenschaften und den Eigenschaften der Beleuchtungsquellen die Oberflächenstrukturen (bspw. Environmentmaps) aller virtuellen Objekte berechnet und den virtuellen Objekten zugeordnet 20a. Dies erfolgt automatisch und ist unabhängig von den Punkt- und Flächennormalen der virtuellen Objekte. Bei der Berechnung der Oberflächenstrukturen können Spiegelungen der Beleuchtungsquellen berücksichtigt werden. Nachdem die virtuellen Objekte mit den neu berechneten Oberflächenstrukturen versehen sind, kann eine Interaktion 16 erfolgen. Während der Interaktion 16 verändern sich die Oberflächenstrukturen zunächst nicht und der Benutzer kann sich innerhalb der virtuellen Umgebung frei bewegen, ohne dass für jedes Bild die Oberflächenstrukturen neu berechnet werden müssen. Das dargestellte Bild, basierend auf den vorbestimmten Oberflächenstrukturen und den virtuellen Objekten, wird dabei immer weder neu berechnet 18a.

Eine Veränderung der virtuellen Umgebung lässt sich jedoch dadurch erreichen, dass die Eigenschaften der Beleuchtungsquellen verändert werden, was zu einer Neuberechnung 20b der Oberflächenstrukturen führen kann. Danach werden die virtuellen Objekte entsprechen dieser Oberflächenstrukturen jeweils neu berechnet 18a.

Auch eine Veränderung der Materialien kann zu einer Neuberechnung 20c der Oberflächenstrukturen führen, auf denen basierend immer wieder ein neues Bild berechnet 18a wird.

Die Veränderung der Objektpositionen, der Objektlage, der Objektausrichtung und der Objektstruktur kann ebenfalls zu einer Neuberechnung 20d der Oberflächenstrukturen führen, auf denen basierend immer wieder ein neues Bild berechnet 18a wird.

Diese Neuberechnungen 20b-d sind jedoch nur dann notwendig, wenn entweder Materialeigenschaften oder Eigenschaften von Beleuchtungsquellen oder Objekteigenschaften durch den Benutzer oder das System verändert werden. In allen anderen Fällen können die in Schritt 20a-d berechneten Oberflächenstrukturen während der gesamten Interaktion 16 und Bildberechnung 18a genutzt werden.

Durch die erfindungsgemäße Berechnung der Oberflächenstrukturen vor der Interaktion mit der virtuellen Umgebung wird der Rechenaufwand erheblich verringert, was zu einer Steigerung der Visualisierungsleistung und zu einer Verringerung der Investitionskosten führt.


Anspruch[de]
  1. Verfahren zur Ermittlung einer Oberflächenstruktur von virtuellen Objekten, insbesondere von virtuellen Fahrzeugmodellen,

    – bei welchem eine virtuelle Umgebung in einem Computer berechnet wird,

    – bei welchem virtuelle Objekte innerhalb der virtuellen Umgebung definiert werden,

    – bei welchem Eigenschaften von Beleuchtungsquellen innerhalb der virtuellen Umgebung definiert werden und

    – bei welchem Materialeigenschaften der virtuellen Objekte ermittelt werden, dadurch gekennzeichnet,

    dass vor einer Darstellung der virtuellen Umgebung auf einer Anzeigeeinrichtung Oberflächenstrukturen der virtuellen Objekte in Abhängigkeit von den Materialeigenschaften und den Eigenschaften der Beleuchtungsquellen ermittelt werden und die Oberflächenstrukturen zumindest Teilen der virtuellen Objekte zugeordnet werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die virtuellen Objekte mit Hilfe einer Vielzahl von Polygonen definiert werden und dass vor der Darstellung der virtuellen Umgebung den Polygonen zumindest teilweise die ermittelten Oberflächenstrukturen zugeordnet werden.
  3. Verfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass die Darstellung der virtuellen Umgebung und die Interaktion innerhalb der virtuellen Umgebung mit Hilfe der zuvor berechneten Oberflächenstrukturen durchgeführt wird.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass bei einer Änderung der Eigenschaften der Beleuchtungsquellen während der Darstellung der virtuellen Umgebung die Oberflächenstrukturen neu berechnet werden und den virtuellen Objekten zugeordnet werden.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass bei einer neuen Beleuchtungsquelle innerhalb der virtuellen Umgebung die Oberflächenstrukturen neu berechnet werden und den virtuellen Objekten zugeordnet werden.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass bei einem Entfernen der Beleuchtungsquelle innerhalb der virtuellen Umgebung die Oberflächenstrukturen neu berechnet werden und den virtuellen Objekten zugeordnet werden.
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass bei einer Änderung der Materialeigenschaften der virtuellen Objekte während der Darstellung der virtuellen Umgebung die Oberflächenstrukturen neu berechnet werden und den virtuellen Objekten zugeordnet werden.
  8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass bei einer Änderung der Objektposition, der Objektlage und/oder des Objektstandortes während der Darstellung der virtuellen Umgebung die Oberflächenstrukturen neu berechnet werden und den virtuellen Objekten zugeordnet werden.
  9. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass bei einer Benutzeraufforderung und/oder einer Systemaufforderung während der Darstellung der virtuellen Umgebung die Oberflächenstrukturen neu berechnet werden und den virtuellen Objekten zugeordnet werden.
  10. Computerprogrammprodukt zur Berechnung von Oberflächenstrukturen von virtuellen Objekten, insbesondere mit einem Verfahren nach einem der Ansprüche 1 bis 9,

    – durch das eine virtuelle Umgebung berechnet wird,

    – durch das innerhalb der virtuellen Umgebung virtuelle Objekte definiert werden, durch das Eigenschaften von Beleuchtungsquellen innerhalb der virtuellen Umgebung definiert werden und

    – durch das Materialeigenschaften für die virtuellen Objekte ermittelt werden,

    dadurch gekennzeichnet,

    dass vor der Darstellung der virtuellen Umgebung auf einer Anzeigeeinrichtung Oberflächenstrukturen in Abhängigkeit von den Materialeigenschaften und den Eigenschaften der Beleuchtungsquellen berechnet werden und die berechneten Oberflächenstrukturen zumindest Teilen der virtuellen Objekte zugeordnet werden und eine Darstellung der virtuellen Umgebung berechnet wird.
  11. Verwendung eines Verfahrens nach einem der Ansprüche 1 bis 9 oder eines Computerprogrammprodukts nach Anspruch 10 in der Kraftfahrzeugentwicklung, der Flugzeugindustrie, der Werftindustrie, dem Maschinen und Anlagenbau und/oder in Videospielen.
Es folgen 2 Blatt Zeichnungen






IPC
A Täglicher Lebensbedarf
B Arbeitsverfahren; Transportieren
C Chemie; Hüttenwesen
D Textilien; Papier
E Bauwesen; Erdbohren; Bergbau
F Maschinenbau; Beleuchtung; Heizung; Waffen; Sprengen
G Physik
H Elektrotechnik

Anmelder
Datum

Patentrecherche

  Patente PDF

Copyright © 2008 Patent-De Alle Rechte vorbehalten. eMail: info@patent-de.com