PatentDe  


Dokumentenidentifikation DE69826886T2 02.02.2006
EP-Veröffentlichungsnummer 0001031239
Titel OPTOELEKTRONISCHE KAMERA UND VERFAHREN ZUR BILDFORMATIERUNG
Anmelder Tangen, Reidar, Oslo, NO;
Nordal, Per-Erik, Nesbru, NO;
Gudesen, Hans Guden, Gamle Fredrikstad, NO;
Leistad, Geirr, Sandvika, NO
Erfinder Tangen, Reidar E., 1168 Oslo, NO;
Nordal, Per-Erik, 1360 Nesbru, NO;
Gudesen, Hans Gude, 1639 Gamle Fredrikstad, NO;
Leistad, Geirr I., 1300 Sandvika, NO
Vertreter Fuchs, Mehler, Weiß & Fritzsche, 65201 Wiesbaden
DE-Aktenzeichen 69826886
Vertragsstaaten AT, BE, CH, DE, DK, ES, FI, FR, GB, IE, IT, LI, NL, PT, SE
Sprache des Dokument EN
EP-Anmeldetag 13.11.1998
EP-Aktenzeichen 989560362
WO-Anmeldetag 13.11.1998
PCT-Aktenzeichen PCT/NO98/00339
WO-Veröffentlichungsnummer 0099026419
WO-Veröffentlichungsdatum 27.05.1999
EP-Offenlegungsdatum 30.08.2000
EP date of grant 06.10.2004
Veröffentlichungstag im Patentblatt 02.02.2006
IPC-Hauptklasse H04N 9/00(2006.01)A, F, I, ,  ,  ,   
IPC-Nebenklasse G03B 33/14(2006.01)A, L, I, ,  ,  ,      G03B 33/16(2006.01)A, L, I, ,  ,  ,      

Beschreibung[de]

Die vorliegende Erfindung betrifft eine Optoelektronische Kamera, die folgendes umfaßt: ein optisches Objektivsystem zum Abbilden einer von der Kamera aufgezeichneten Szene als ein optisches Bild im wesentlichen in einer Bildebene des Objektivsystems, eine im wesentlichen in der Bildebene bereitgestellte optoelektronische Detektoreinrichtung zum Detektieren des optischen Bilds und Ausgeben von Ausgangssignalen auf der Basis der Detektion, eine mit der Detektoreinrichtung verbundene Prozessoreinrichtung zum Konvertieren und Verarbeiten der Ausgangssignale der Detektoreinrichtung, um das detektierte Bild in digitaler Form zu reproduzieren und dieses in Echtzeit auf einer Displayeinrichtung anzuzeigen, die optional in der Kamera vorgesehen und mit der Prozessoreinrichtung verbunden ist, und eine mit der Prozessoreinrichtung verbundene Speichereinrichtung zum Speichern des digitalen Bilds zur Anzeige auf der optionalen Displayeinrichtung, die auch mit der Speichereinrichtung verbunden sein kann, oder zum Speichern, Anzeigen oder möglichen zusätzlichen Verarbeiten an für diese Zwecke ausgelegten externen Einrichtungen, mit denen die Kamera vorübergehend oder permanent verbunden ist.

Die vorliegende Erfindung betrifft außerdem eine optoelektronische Kamera zum Aufzeichnen von Farbbildern und insbesondere zum Aufzeichnen von Farbbildern in einem RGB-System, die folgendes umfaßt: ein optisches Objektivsystem zum Abbilden einer von der Kamera aufgezeichneten Szene als ein optisches Bild im wesentlichen in einer Bildebene des Objektivsystems, eine im wesentlichen in der Bildebene bereitgestellte optoelektronische Detektoreinrichtung zum Detektieren des optischen Bilds und Ausgeben von Ausgangssignalen auf der Basis der Detektion, eine mit der Detektoreinrichtung verbundene Prozessoreinrichtung zum Konvertieren und Verarbeiten der Ausgangssignale der Detektoreinrichtung, um das detektierte Bild in digitaler Form zu reproduzieren und dieses in Echtzeit auf einer Displayeinrichtung anzuzeigen, die optional in der Kamera vorgesehen und mit der Prozessoreinrichtung verbunden ist, und eine mit der Prozessoreinrichtung verbundene Speichereinrichtung zum Speichern des digitalen Bilds zur Anzeige auf der optionalen Displayeinrichtung, die auch mit der Speichereinrichtung verbunden sein kann, oder zum Speichern, Anzeigen oder möglichen zusätzlichen Verarbeiten an für diese Zwecke ausgelegten externen Einrichtungen, mit denen die Kamera vorübergehend oder permanent verbunden ist.

Die Erfindung betrifft sehr allgemein optoelektronische Kameras, die für das Aufzeichnen von Standbildern sowie bewegten Bildern einschließlich Videobildern geeignet sind. Die optoelektronischen Kameras gemäß der Erfindung werden so realisiert, daß sie als billige Miniaturkameras mit einem extrem flachen Formfaktor hergestellt werden können.

Nach der Markteinführung von ladungsgekoppelten Komponenten (CCD) wird die elektronische Fotografie in fast allen Bereichen in der Bildgebungstechnologie von den anspruchsvollsten wissenschaftlichen Anwendungen wie etwa bei der Astrofotografie mit der Aufzeichnung von Standbildern mit extrem geringen Lichtintensitäten bis zu Anwendungen für Massenmärkte wie etwa Heimvideo und Flächenüberwachung angewendet. Bis in jüngster Zeit basierten optoelektronische Kameraeinrichtungen fast ohne Ausnahme auf der Verwendung von ladungsgekoppelten Komponenten (CCD), während sich für andere Arten, beispielsweise Komponenten mit Ladungsinjektion (CID), eine gewisse Verwendung bei bestimmten Anwendungen, meist wissenschaftlicher Art, ergeben hat. Die Grundlage für die Verwendung von CCD für die Detektion und Implementierung von optoelektronischen Kameras wird in der wissenschaftlichen und kommerziellen Literatur eingehend erörtert und wird deshalb im folgenden Text als Fachleuten wohlbekannt angesehen.

Auch wenn die CCD-Technologie in optoelektronischen Kameras ein großer Erfolg ist, verursacht sie eine Reihe von Nachteilen, was auf die mögliche Verwendung von CCD- und miniaturisierten billigen, batteriebetriebenen optoelektronischen Kameras einen negativen Effekt hat. Der CCD-Chip auf Siliziumbasis ist relativ teuer in der Herstellung, er erfordert mehrere verschiedene Ansteuerspannungen und verbraucht relativ viel Strom. Im Verlauf der letzten Jahre ist eine neue Klasse von Komponenten, die als aktive Pixelsensoren (APS) bezeichnet werden, zu starken Wettbewerbern zu der CCD-Technologie herangewachsen, und zwar insbesondere bei Anwendungen, die nicht die absolut höchste Bildqualität erfordern. Die optoelektronischen Detektoren auf APS-Basis können über standardmäßige CMOS-Technologie mit geringen Kosten hergestellt werden und gestatten die Integration einer Reihe von Funktionen wie etwa Lichtdetektion, Signalaufbereitung, Stromversorgung und Ankopplung auf dem gleichen Chip. Zusätzlich zu der Möglichkeit sehr geringer Kosten, eines niedrigen Stromverbrauchs und einer kompakten physischen Umsetzung können die APS-Detektoren so realisiert werden, daß die Verarbeitung der Bildinformationen direkt auf dem Detektorchip erhalten wird, einschließlich beispielsweise Schwellwertbildung, Konturenbestimmung und so weiter. Für bestimmte Arten von Anwendungen liefern APS-Detektoren möglicherweise einen schnellen Zufallszugriff auf die ausgewählten Pixel oder Gruppen von Pixeln im Gegensatz zu CCD-basierten Detektoren, die jeweils das serielle Auslesen ganzer Pixelzeilen erfordern.

Kommerzielle Anwendungen von APS-basierten Miniatureinrichtungen sind in einer Reihe von Bereichen aufgetaucht, die entweder andere Technologien ersetzen oder völlig neue Produkte erzeugen. Ein Beispiel für den ersten Fall ist die Verwendung in Überwachungskameras, ein Beispiel für den letzteren Fall ist der Einsatz in Spielzeugen. Wegen der besonderen Eigenschaften der APS-Detektoren hat die Entwicklung in jüngster Zeit zu optoelektronischen Kameras mit sehr kleinen Abmessungen geführt. Solche sogenannten „on chip"-Kameras kann man kommerziell von einer Reihe von Firmen erhalten, beispielsweise VLSI Vision, Schottland, Firmen in Schweden und Photobit, USA. Eine Kamera, die in einem Füllfederhalterformat untergebracht werden kann, wurde jüngstlich von CSEM, Schweiz, demonstriert.

Ein gemeinsamer Nenner für alle optoelektronischen Kameratypen ist ein optisches System, das auf der lichtempfindlichen Detektoroberfläche ein annehmbares optisches Bild erzeugt. Dies stellt ein Problem dar, wenn optoelektronische Kameras unabhängig von der zu verwendenden Art von optoelektronischem Sensor (CCD, CID, APS, Diodenarray ...) miniaturisiert werden sollen. Das Problem wird besonders dann ausgeprägt, wenn die verfügbare axiale Länge (die Entfernung entlang der optischen Achse von der Vorderseite der Kameralinse und durch sie hindurch zur Rückseite des Detektorchips) der Kamera beschränkt ist, d. h., wenn es wünschenswert ist, eine flache Kamera herzustellen, weil der Beitrag des Bildgebungssystems zu dieser Entfernung die Summe der Linsendicke und der hinteren Brennweite (BFL) ist, was darauf hinweist, daß eine kleine Linse oder Mikrolinse mit sehr kurzer axialer Abmessung und mit sehr kurzer Brennweite verwendet werden könnte, um eine flache Kameralösung zu liefern. Bis jetzt sind jedoch noch keine wirklich flachen miniaturisierten optoelektronischen Kameras auf der Grundlage dieses Prinzips aufgetaucht.

Wie nachstehend erörtert werden soll, liegt der Hauptgrund dafür im wesentlichen nicht in der Optik, die verwendet wird und die das optische Bild erzeugt. Selbst wenn die Auflösung letztendlich durch Beugung begrenzt wird, gibt es einen weiteren begrenzenden Faktor, der im vorliegenden Kontext viel stärker zum Ausdruck kommt, nämlich die eingeschränkte räumliche Auflösung, die man in der Bildebene erhalten kann, insbesondere mit optoelektronischen Detektorarrays. Um den logischen Schritt in der Entwicklung, der zu der vorliegenden Erfindung geführt hat, besser zu erhellen, erfolgt nachstehend eine einfache grundlegende Analyse der Mängel der vorliegenden Erfindung.

Die Qualität des optischen Bilds hängt von dem Linsenaufbau ab und wird wie erwähnt letztendlich durch die Beugung begrenzt. Zur Vereinfachung der Analyse wird angenommen, daß das Licht monochromatisches Grün ist, beispielsweise mit einer Wellenlänge von 555 nm, und daß die Linse sehr dünn und beugungsbegrenzt ist. Die räumliche Auflösung in der Bildebene ist dann gegeben durch w = 0,61&lgr;/NA(1) wobei &lgr; die Wellenlänge des Lichts ist und die numerische Apertur NA definiert ist als NA = nsin&agr;.(2)

Hierbei ist n der Brechungsindex im Bildraum und &agr; der halbe Winkel der Randstrahlen im Bildraum.

Die Auflösung ist prinzipiell von der physischen Größe der Linse unabhängig. Bei realistischen Werten für die numerische Apertur NA ist die Auflösung jedoch in der Regel mit der Wellenlänge des Lichts vergleichbar. Dies impliziert, daß ein Bild, das M aufgelöste Elemente enthalten soll (M = nx·ny, wobei nx und ny die Anzahl aufgelöster Elemente entlang der x- bzw. y-Achse), einen Bereich in der Bildebene bedecken muss, der nicht kleiner sein kann als A = Mw2 = nx·ny·w2.(3)

Hierbei ist w die Auflösung wie in Gleichung (1) oben definiert.

Das Blickfeld der Linsen definiert zusammen mit den linearen Abmessungen nx·w und ny·w für das Bild die Brennweite der Linse und somit die physische Größe dieser. Das Blickfeld wird durch den halben Winkel &thgr; von Arrays definiert, die auf den extremen Rand des optischen Bilds auftreffen, wo die lineare Entfernung zu der optischen Achse gegeben ist durch d/2 = (nx2 + ny2)1/2·w/2(4)

Wenn die Bildentfernung mit s' bezeichnet wird, erhält man s' = d/(2tg&thgr;) = (nx2 + ny2)1/2w/(2tg&thgr;)(5)

Bei typischen Bildgebungsfällen ist die Brennweite für die Linse nur geringfügig kleiner als die Bildentfernung s', das heißt f ≅ s'(6)

Wenn Zahlenwerte eingesetzt werden, beispielsweise w = 0,5 &mgr;m, nx = ny = 103, d. h. M = 106, &thgr; = 19,3°, erhält man f ≅ s' = 1,01 mm.

Eine Mikrolinse mit dieser Brennweite weist in der Regel vergleichbare lineare Abmessungen auf, und es ist zu erkennen, daß eine wirklich miniaturisierte flache Kamera in greifbarer Nähe sein kann, die eine Auflösung von 1 Millionen Pixel aufweist.

Die Anforderung, daß die Auflösung w 0,5 &mgr;m sein soll, wie oben für das Aufzeichnungsmedium in der Bildebene definiert, ist leider sehr schwierig zu realisieren und liegt weit davon entfernt, was mit pixelierten optoelektronischen Bildsensoren implementiert werden kann. CCD- und APS-Detektoren gemäß dem Stand der Technik weisen eine Pixelteilung auf, die mindestens das 10fache der oben angenommenen Auflösung w beträgt, was impliziert, daß die Brennweite und die linearen Abmessungen der Linse im Bereich ab 10 mm aufwärts liegen sollen. Die lineare Größe der Kamera hängt offensichtlich explizit von der gewünschten Bildqualität ab, d. h. von dem Auflösungsdetail im Bild und davon, ob sie mit einem monochromatischen Bild oder einem Vollfarbbild erwünscht wird. Somit können optoelektronische Kameras mit Abmessungen entlang der optischen Achse im Bereich von 1 cm implementiert werden. Dies kann man jedoch nicht als besonders flach ansehen. Kleinere Abmessungen sind möglich, ziehen aber eine beeinträchtigte Bildqualität nach sich. Für Konzepte von „auf dem Chip Kamera", die zur Herstellung von optoelektronischen Kameraeinrichtungen mit geringen Kosten und/oder für spezielle Zwecke CMOS-Prozessoren verwenden, wird auf Literatur Bezug genommen, beispielsweise von Photobit, USA; IVP, Schweden; VLSI Vision, Großbritannien; CSEM, Schweiz und IMEC, Belgien. Um einen Überblick über Bildgebungstechniken zu erhalten, die CMOS-Technologie verwenden, kann beispielsweise auf J. Zarnowski & M. Pace, „Imaging options expand with CMOS technology", Laser Focus World, S. 125–130 (Juni 1997) verwiesen werden.

Die Hauptaufgabe der vorliegenden Erfindung besteht in der Bereitstellung einer optoelektronischen Kamera, die für das Aufzeichnen von Standbildern, bewegten Bildern oder Videobildern mit hoher Bildqualität und letzten Endes mit hoher räumlicher Auflösung verwendet werden kann, während das Gesamtprofil der Kamera sehr flach erscheint und die Mängel, die mit dem oben erwähnten Stand der Technik verbunden sind, vermieden werden, und dann insbesondere, daß die Bildauflösung mit der physischen Größe, insbesondere der axialen Länge des optischen Bildgebungssystems, skaliert.

Die Aufgabe der vorliegenden Erfindung besteht außerdem in der Bereitstellung einer optoelektronischen Kamera, die als eine relativ dünne Schicht realisiert werden kann, in der Regel im Größenbereich von 1–3 mm Dicke auf flachen oder gekrümmten Oberflächen.

Eine Aufgabe der Erfindung besteht weiterhin in der Bereitstellung einer optoelektronischen Kamera mit einer Reihe spezifischer räumlicher und spektraler Bildgebungscharakteristiken, einschließlich der gesteuerten Auflösung des optischen Bilds in einem oder mehreren Bereichen im Bild oder entlang einer oder mehrerer Achsen in der Bildebene, einem extrem großen Blickfeld, einschließlich einem globalen Feld (4&pgr; Steradiant), einer räumlich aufgelösten chromatischen oder Spektralanalyse, Vollfarbbildern oder Bildgebung in einem oder mehreren Wellenlängenbändern von Ultraviolett bis Infrarot und Bildgebung auf Parallachsebasis mit der Möglichkeit räumlicher Detektion und Analyse.

Noch eine weitere Aufgabe der Erfindung besteht in der Bereitstellung einer optoelektronischen Kamera mit Bildgebungslösungen, die lichtdetektierende Elemente und Schaltungen ausnutzen, die in optoelektronischer Technologie auf großen Oberflächen realisiert sind. Eine derartige Technologie gestattet, daß eine optoelektronische Kamera gemäß der Erfindung mit besonders niedrigen Kosten hergestellt wird. Eine spezielle Aufgabe der Erfindung besteht schließlich darin, daß die optoelektronische Kamera mit der Verwendung von dünnen Einrichtungen auf der Basis von amorphen oder polykristallinen anorganischen Halbleitern oder organischen Halbleitern auf der Basis von Polymeren oder Oligomeren realisiert werden soll. Ein Beispiel für die Anwendung eines derartigen Materials sollen Komponenten in Form flexibler Kunststoffolien sein, die als dünne Karten realisiert sind und die an flachen und gekrümmten Oberflächen angebracht werden können.

Eine spezielle Aufgabe der vorliegenden Erfindung besteht auch darin, daß ultraminiaturisierte optoelektronische Kameras durch die Verwendung von Arrays von quasi-monochromen Mikrolinsen als den optisch aktiven Strukturen in der Kamera realisiert werden können.

Die obigen Aufgaben werden gemäß der Erfindung mit einer optoelektronischen Kamera realisiert, die dadurch gekennzeichnet ist, daß das Kameraobjektivsystem durch ein Array von zwei oder mehr optisch aktiven Strukturen (L) gebildet wird, daß jede optisch aktive Struktur dafür ausgelegt ist, optische Bilder der aufgezeichneten Szene auf Bereichen der Objektivsystembildebene zu erzeugen, die der jeweiligen optisch aktiven Struktur eindeutig zugeordnet sind, daß mindestens ein optoelektronischer Detektor für jede optisch aktive Struktur in ihrem jeweiligen zugeordneten Bereich oder ihrer jeweiligen zugeordneten Bildebene vorgesehen ist, wobei alle Detektoren in der Detektoreinrichtung der Kamera enthalten sind, daß jeder Detektor mindestens ein Pixel des optischen Bilds definierendes Sensorelement umfaßt, wobei der Bereich des Pixels im wesentlichen durch den Bereich des getrennten definierenden Sensorelements bestimmt wird, und daß jeder Detektor dafür ausgelegt ist, einen spezifischen komplementären Abtastwert des optischen Bilds zu definieren, wobei eine Anzahl von Pixeln in jedem Abtastwert durch eine Anzahl von Sensorelementen in dem definierenden Detektor bestimmt wird, wobei ein optimales digitales Bild erzeugt wird, indem alle spezifischen komplementären Abtastwerte verknüpft werden, mit einer räumlichen Auflösung, die durch die Anzahl von Pixeln in durch die Sensorelemente definierten ausgeprägten Positionen in dem optischen Bild bestimmt wird.

Vorteilhafterweise sind die optisch aktiven Strukturen in diesem Zusammenhang brechende Strukturen oder beugende Strukturen oder reflektierende Strukturen oder Kombinationen aus derartigen Strukturen.

Insbesondere ist es vorteilhaft, daß die brechenden oder beugenden Strukturen als kleine Linsen mit einem Durchmesser von höchstens 3 mm realisiert werden.

Es ist außerdem vorteilhaft, daß die Gesamtzahl ausgeprägt definierter Pixel in dem optischen Bild gleich der Gesamtzahl von Sensorelementen in der Detektoreinrichtung derart ist, daß in diesem Fall zwischen einem gegebenen Pixel und seinem definierenden Sensorelement eine eineindeutige Beziehung vorliegt, wodurch das digitale Bild durch ein vollständiges Abtasten des optischen Bilds erzeugt werden kann, oder daß die Gesamtzahl ausgeprägt definierter Pixel in dem optischen Bild kleiner ist als die Gesamtzahl von Sensorelementen in der Detektoreinrichtung derart, daß in diesem Fall zwischen einem gegebenen Pixel und seinem definierenden Sensorelement oder seinen definierenden Sensorelementen eine einmehrdeutige Beziehung vorliegt, wodurch das digitale Bild durch eine Überabtastung des optischen Bilds erzeugt werden kann. Es ist vorteilhaft, daß die optoelektronische Kamera einen oder mehrere Raumfilter umfaßt, die vor dem Objektivsystem und/oder zwischen dem Objektivsystem und der Detektoreinrichtung vorgesehen sind, wobei der Raumfilter bevorzugt ein räumlicher Lichtmodulator und insbesondere in diesem Zusammenhang ein steuerbarer elektrooptischer Lichtmodulator ist.

Es ist außerdem vorteilhaft, wenn die optoelektronische Kamera gemäß der Erfindung ein oder mehrere Optikfiltermittel umfaßt, die vor dem Objektivsystem und/oder zwischen dem Objektivsystem und der Detektoreinrichtung vorgesehen sind. Bevorzugt umfaßt das Optikfiltermittel dann getrennte spektralselektive Filter, die getrennt entweder jeder optisch aktiven Struktur oder Gruppen optisch aktiver Strukturen oder dem Detektor oder den Detektoren der Detektoreinrichtung zugeordnet sind, die jeder optisch aktiven Struktur zugeordnet ist. Insbesondere kann das Optikfiltermittel dafür ausgelegt sein, in zwei oder mehr getrennten Wellenlängenbändern zu übertragen, indem jeder spektral-selektive Filter in einem separaten Wellenlängenband überträgt, wobei die Anzahl der Filter, die in jedem der separaten Wellenlängenbänder übertragen, im wesentlichen identisch ist. Die separaten Wellenlängenbänder können dann bevorzugt derart ausgewählt sein, daß das Optikfiltermittel ein Primärfarbfiltermittel oder ein RGB-Filtermittel bildet, oder derart, daß das optische Filtermittel ein komplmentäres Farbfiltermittel bildet.

Bei einigen Ausführungsformen kann der spektralselektive Filter vorteilhafterweise als ein Streifenfilter realisiert sein, der dafür ausgelegt ist, in zwei oder mehr separaten Wellenlängenbändern zu übertragen, indem jeder Streifen in einem gegebenen Wellenlängenband überträgt. Bevorzugt kann jeder Streifen in einem Streifenfilter dann einer jeweiligen Zeile oder Spalte von Sensorelementen in dem Detektor oder in den Detektoren zugeordnet sein und jeder Streifenfilter kann weiterhin als ein Primärfarbfilter oder ein RGB-Filter realisiert sein.

Gemäß der Erfindung kann es außerdem vorteilhaft sein, daß der spektral-selektive Filter ein Mosaikfilter ist, der dafür ausgelegt ist, in zwei oder mehr separaten Wellenlängenbändern zu übertragen, wobei jedes Filtersegment in dem Mosaikfilter in einem gegebenen Wellenlängenband überträgt, wobei die Anzahl der Filtersegmente, die in jedem der Wellenlängenbänder übertragen, im wesentlichen identisch ist, und daß bevorzugt jedes Filtersegment in dem Mosaikfilter einem jeweiligen Sensorelement oder jeweiligen Sensorelementen in dem Detektor oder in den Detektoren zugeordnet ist. Insbesondere kann dann jeder Mosaikfilter bevorzugt ein komplementärer Farbfilter sein.

Gemäß der Erfindung ist es vorteilhaft, daß die Detektoreinrichtung Detektoren umfaßt, die in einer der folgenden Technologien realisiert sind, nämlich CCD-Technologie (ladungsgekoppeltes Bauelement), CID-Technologie (ladungsinjiziertes Bauelement), APS-Technologie (aktiver Pixelsensor) oder PMSA-Technologie (Sensorarray in passiver Matrix). Wenn der Detektor in PMSA-Technologie realisiert ist, ist es entsprechend der Erfindung vorteilhaft, daß der Detektor als eine Dünnfilmkomponente oder eine Hybridkomponente realisiert ist, und daß der Detektor für ein paralleles Auslesen der Ausgangssignale der Sensorelemente über ein passives Elektrodenarray zur eindeutigen Adressierung jedes separaten Sensorelements ausgelegt ist, da der Detektor in diesem Fall bevorzugt ganz oder teilweise aus organischen halbleitenden oder elektrisch isolierenden Materialien hergestellt sein kann, einschließlich Kunststoffmaterialien und halbleitende Oligomere oder Polymere.

Gemäß der Erfindung ist es vorteilhaft, daß die optisch aktiven Strukturen mit einer bestimmten chromatischen Aberration oder Dispersion derart realisiert sind, daß jede optisch aktive Struktur für zwei oder mehr separate Wellenlängenbänder das optische Bild spektral-selektiv in jedem Wellenlängenband im wesentlichen auf entsprechenden, im wesentlichen kongruenten Bildebenen erzeugt, die in der Strahlrichtung beabstandet überlagert sind, und daß für jede optisch aktive Struktur in jeder dieser Bildebenen ein Detektor für die spektral-selektive Detektion des optischen Bilds derart vorgesehen ist, daß für jede optisch aktive Struktur in jeder Bildebene ein Abtastwert im räumlichen Bereich und ein Abtastwert im Frequenzbereich definiert sind, wobei die Auflösung im Frequenzbereich im wesentlichen durch die Anzahl separater Wellenlängenbänder mit einem jeweils zugeordneten Detektor bestimmt ist, wobei das von der Detektoreinrichtung detektierte optische Bild unter Verwendung eines ausgewählten geeigneten Farbsystems als ein multispektrales digitales Farbbild erzeugt werden kann. In diesem Zusammenhang kann es vorteilhaft sein, daß bevorzugt drei separate überlagerte Detektoren für jede optisch aktive Struktur vorgesehen sind, und zwar jeweils in der Bildebene für drei einem Dreifarbsystem zugeordnete separate Wellenlängenbänder.

Weiterhin werden die oben erwähnten Aufgaben gemäß der vorliegenden Erfindung mit einer optoelektronischen Kamera realisiert, die dadurch gekennzeichnet ist, daß das Kameraobjektivsystem durch ein Array aus zwei oder mehr optisch aktiven Strukturen gebildet wird, daß jede optisch aktive Struktur eine bestimmte chromatische Aberration oder Dispersion derart aufweist, daß die Stelle ihres Brennpunkts von der Wellenlänge des Lichts abhängt, daß jede optische Struktur dafür ausgelegt ist, spektral-selektive optische Bilder der aufgezeichneten Szene auf Bereichen von drei separaten überlagerten Bildebenen des Objektivsystems zu erzeugen, wobei die Bereiche jeweiligen optisch aktiven Strukturen eindeutig zugeordnet sind, wobei eine erste Bildebene ein erstes optisches Bild in einem Wellenlängenband im blauen Teil des Spektrums bildet und eine zweite Bildebene ein zweites optisches Bild in einem Wellenlängenband im grünen Teil des Spektrums und eine dritte Bildebene ein drittes optisches Bild in einem Wellenlängenband im roten Teil des Spektrums bildet, daß für jede optisch aktive Struktur ein optoelektronischer Detektor in jedem der jeweils zugeordneten Bildebenen zur Detektion des von der optisch aktiven Struktur in jedem der Wellenlängenbänder blau, grün und rot erzeugten optischen Bilds vorgesehen ist, daß jeder Detektor mindestens ein Sensorelement derart umfaßt, daß mindestens ein Sensorelement ein Pixel des optischen Bilds definiert, wobei der Bereich des Pixels im wesentlichen durch die Fläche des separaten definierenden Sensorelements bestimmt wird, und daß jeder Detektor in einer der Bildebenen dafür ausgelegt ist, einen spezifischen komplementären Abtastwert des optischen Bilds in dem dieser Bildebene entsprechenden Wellenlängenband und mit einer Anzahl von Pixeln in jedem Abtastwert zu definieren, die durch die Anzahl der Sensorelemente im definierenden Detektor bestimmt ist, wobei ein optimales digitales Bild als ein RGB-Farbbild mit einer räumlichen Auflösung erzeugt wird, die durch die Anzahl von Pixeln in durch die Sensorelemente im optischen Bild definierten ausgeprägten Positionen bestimmt ist.

Bevorzugt sind gemäß der Erfindung die optisch aktiven Strukturen in diesem Fall brechende Strukturen mit einer bestimmten chromatischen Aberration oder beugende Strukturen mit einer bestimmten Dispersion oder Kombinationen derartiger Strukturen, und besonders wird dann bevorzugt, daß die brechenden oder die beugenden Strukturen als kleine Linsen mit einem Durchmesser von höchstens 3 mm realisiert sind.

Weiterhin wird in diesem Zusammenhang gemäß der Erfindung bevorzugt, daß die Gesamtzahl ausgeprägt definierter Pixel im optischen Bild in einem der Wellenlängenbänder gleich der Gesamtzahl von Sensorelementen in den in der Detektoreinrichtung vorgesehenen Detektoren für dieses Wellenlängenband derart ist, daß in diesem Fall zwischen einem gegebenen Pixel und seinem definierenden Sensorelement eine eineindeutige Beziehung vorliegt, wodurch das digital RGB-Farbbild mit einer vollständigen Abtastung des optischen Bilds in jedem Wellenlängenband und mit der dreifachen Überabtastung des ganzen optischen Bilds in Farben erzeugt werden kann.

Schließlich wird es als vorteilhaft betrachtet, wenn die erfindungsgemäße Kamera mit digitaler oder softwaregesteuerter Verarbeitung der von der Kamera aufgezeichneten Bildinformationen realisiert ist, wobei die Verarbeitung in Teilgruppen von Pixeln durchgeführt wird und eine oder mehrere der folgenden Funktionen implementiert werden, nämlich eine Bildformatierung, Bewegungs- oder Verschiebungskompensation und Autofokussierung.

Weitere Merkmale und Vorteile der vorliegenden Erfindung werden durch die übrigen beigefügten abhängigen Ansprüche offenbart.

Die Erfindung soll nun im folgenden Text mit Hilfe von Ausführungsbeispielen und unter Bezugnahme auf die beiliegenden Zeichnungen eingehender erläutert werden, deren Figuren in dem unmittelbar anschließenden Abschnitt der Beschreibung eingehender erläutert werden.

1a, b zeigen schematisch eine erste Ausführungsform der optoelektronischen Kamera gemäß der Erfindung in 1a in einer Seitenansicht und in 1b in einer Vorderansicht,

2ac zeigen Schnitte durch verschiedene Varianten der Kamera gemäß der Erfindung,

3a, 3b zeigen schematisch eine zweite Ausführungsform der Kamera gemäß der Erfindung jeweils vollständig in einer Seitenansicht und einer Vorderansicht,

4a, b zeigen schematisch eine dritte Ausführungsform der Kamera gemäß der Erfindung jeweils in einer Seitenansicht und Vorderansicht, wobei optische Filter vorgesehen sind,

5a, b zeigen schematisch eine entsprechende Ausführungsform der Kamera wie in 4 jeweils in einer Seitenansicht und Vorderansicht, wo aber die optischen Filter auf andere Weise vorgesehen sind,

6 zeigt eine Ausführungsform eines Streifenfilters in einem RGB-System und bei Verwendung in der Kamera gemäß der Erfindung,

7 zeigt eine Ausführungsform eines Mosaikfilters in einem komplementären Farbsystem und bei Verwendung in der Kamera gemäß der Erfindung,

8 zeigt schematisch eine vierte Ausführungsform der Kamera gemäß der Erfindung in einer Seitenansicht,

9a zeigt schematisch eine fünfte Ausführungsform der Kamera gemäß der Erfindung,

9b zeigt schematisch Detektoren in der Ausführungsform der Kamera in 9a,

10a zeigt die Implementierung der Zoomfunktion in der Kamera gemäß der Erfindung und

10b zeigt die Implementierung einer Schwenkfunktion in der Kamera gemäß der Erfindung.

Das Grundkonzept für die Kamera gemäß der Erfindung ist in 1 gezeigt, die schematisch eine erste Ausführungsform in 1a in einer Seitenansicht und in 1b in einer Vorderansicht wiedergibt. Die Kamera verwendet eine Anzahl optisch aktiver Strukturen, beispielsweise in der Form von Mikrolinsen oder den kleinen Linsen L, wobei das Kameraobjektivsystem als ein Array aus vier derartigen Linsen L1–L4 gezeigt ist. Jede Linse L erzeugt ein Bild der Szene, die mit der gewünschten Gesamtauflösung in dem Endbild abgebildet werden soll. Jeder der Linsen ist eine Detektoreinrichtung zugeordnet, wobei jeweilige Detektoren D1–D4 auf einer Rückwandplatine P vorgesehen sind, die beispielsweise einen Prozessor, einen Speicher und so weiter umfaßt und wobei auf der Rückseite der Rückwandplatine ein Display V zum Anzeigen des aufgezeichneten Bilds vorgesehen sein kann, wobei das Display auch als ein Sucher fungieren kann. Die gemeinsame Bildebene I, wo die Detektoren D1–D4 bereitgestellt sind, wird von der gemeinsamen unendlichen konjugierten Brennebene des Linsenarrays beabstandet wiedergegeben, wobei sich die Brennebene F und die Bildebene I natürlich für ein Bildobjekt, das in einem unendlichen Abstand angeordnet ist, gleich erstrecken. Anstatt versuchen zu wollen, alle Details für die Lichtintensitätsverteilung der Bildebene unter einer einzigen Linse mit der hochdichten Matrix aus lichtempfindlichen Sensorelementen aufzeichnen zu wollen, was bei kleiner Linse zu unrealistischen Sensorelementdichten führen würde, verwendet die vorliegende Erfindung eine teilweise Abtastung des unter jeder der Linsen L1–L4 gebildeten Bilds. In der Praxis tastet jeder Detektor D1–D4 über mehrere Sensorelemente E in jedem Detektor ein Feld des optischen Bilds ab. In 1 ist ein einzelnes Sensorelement E in dem Detektor D1 angezeigt. Die Detektoren D1–D4 weisen beispielsweise insgesamt 36 nichtüberlappende Sensorelemente E auf, die das optische Bild in 36 Pixel pixelieren. Folglich bedecken die Sensorelemente E auch die ganze Fläche des optischen Bilds derart, daß es so von den Detektoren D1–D4 detektiert wird, daß die partiellen Abtastwerte von jedem der Detektoren D1–D4 zusammen einen vollen Abtastwert des Bilds bilden.

Für jeden der Detektoren D1–D4 wie in 1b gezeigt bilden die Sensorelemente E ein Teilarray in der Bildebene I der vier zugeordneten Linsen L1–L4. Die Sensorelemente E bestimmen somit die abgetasteten Bereiche der Oberfläche jeder Bildebene I der Linsen L1–L4, da diese Bereiche zueinander relativ zu dem Bild derart positioniert sind, daß sie einander in einem zusammengesetzten Mosaikbild ergänzen. Es sei angemerkt, daß die Dichte der abgetasteten Bereiche in der Bildebene I nicht besonders hoch sein muß, da jede Linse in einem Array aus k Linsen nur 1/k der Gesamtzahl von Auflösungselementen in dem Endbild oder zusammengesetzten Bild abtastet. Dadurch wird es möglich, Kameras mit einem elektronischen Array mit mäßigen bis niedrigen Füllfaktoren zu verwenden, da der Füllfaktor der Wert ist, den man durch Dividieren des lichtdetektierenden Abschnitts einer Pixelfläche mit der Gesamtpixelfläche erhält. Ein niedriger Füllfaktor reduziert nicht nur die Anforderungen an die Herstellung eines Lichtsensorchips, sondern trägt auch dazu bei, die Aufnahme der Bildverarbeitung in den Chip zu vereinfachen.

Die optisch aktiven Strukturen L müssen nicht notwendigerweise Linsen sein, das heißt, brechende Strukturen, sondern können auch beugende Strukturen oder reflektierende Strukturen oder Kombinationen von solchen Strukturen sein. Wenn die brechenden oder beugenden Strukturen als kleine Linsen realisiert werden, können sie einen Durchmesser von höchstens 3 mm aufweisen und auf einer im wesentlichen starren oder flexiblen Oberfläche vorgesehen sein. Diese Oberfläche kann planar, gekrümmt oder doppelt gekrümmt sein. Beispielsweise können die optisch aktiven Strukturen oder die kleinen Linsen L wie in den 2a2c vorgesehen werden, wobei 2a Linsen L auf einem gekrümmten transparenten Substrat S und zugeordnete Detektoren Dn, die auf der Rückseite des Substrats derart vorgesehen sind, daß sie auf die Linsen L ausgerichtet sind, zeigt. Bei einer Rückwandplatine P unter den Detektoren Dn können nicht gezeigte Elektronikkomponenten oder, wie gezeigt, ein Display V vorgesehen sein. 2b zeigt dementsprechend, wie die optisch aktiven Strukturen oder Linsen L auf einer mit Facetten versehenen Oberfläche des Substrats S und wieder mit zugeordneten Detektoren Dn vorgesehen sein können, während die Rückwandplatine P mit einem Display V und/oder nicht gezeigten Elektronikkomponenten versehen sein kann.

2c zeigt die vielleicht am meisten bevorzugte Ausführungsform, wobei kleine Linsen L auf einer planaren Oberfläche S und die Detektoren Dn auf der Rückseite davon vorgesehen sind. Wieder können ein Display V und/oder nicht gezeigte Elektronikkomponenten in oder auf einer Rückwandplatine P vorgesehen sein.

Spezifische Bereiche in der Bildebene I können auf unterschiedliche Weisen abgetastet werden:

  • – Eine undurchsichtige Maske mit lichtdurchlässigen Bereichen oder „Fenstern" ist in der Bildebene I vorgesehen. Durch jedes Fenster einfallendes Licht fällt wieder auf ein eigenes lichtempfindliches Element, das unter dem Fenster vorgesehen ist. Das lichtempfindliche Element ist in der Regel größer als die Fläche, die von dem Fenster abgetastet wird, und kann viel größer als letzteres sein, je nach der Anzahl k der in dem Array verwendeten Linsen. In der Praxis erreicht man das über den Einsatz eines Raumfilters SF wie dieser in den 3a und 3b gezeigt ist. Der Raumfilter SF ist zwischen einem Abschnitt Dn der Detektoreinrichtung D und der Linsen L vorgesehen, wie in 3a im Schnitt und in 3b in Vorderansicht gezeigt. Der Raumfilter SF weist Fenster oder Öffnungen A auf, die optisch und geometrisch entweder auf Sensorelemente E oder auf lichtempfindliche Abschnitte in der Detektoreinrichtung D ausgerichtet sind. Der Einfachheit halber offenbart 3b nur eine einzelne Linse L mit einem zugeordneten Raumfilter SF, wobei die Detektoreinrichtung D in der Praxis als ein Chip mit einer sehr großen Anzahl von Sensorelementen E oder lichtempfindlichen Abschnitten und einem Array von Linsen L zugeordnet realisiert wird.
  • – Die lichtempfindlichen Elemente sind für sich selbst ausgebildet und derart in der Bildebene angeordnet, daß sie Abtastfunktionen erfüllen. Die Flächen zwischen jedem Element ist nicht gegenüber Licht empfindlich, da diese Flächen inhärent gegenüber Licht unempfindlich sind oder weil sie durch eine direkt auf der Chipoberfläche vorgesehene undurchsichtige Schicht maskiert sind.

Wie aus dem oben Gesagten hervorgeht, muß die Anzahl k der Linsen der Dichte der lichtempfindlichen Bereiche auf der Chipoberfläche angepaßt sein. Dies kann bei der Implementierung von elektronischen Miniaturkameras mit einem flachen Profil ein kritischer Flaschenhals sein. Die kleinste Anzahl von Linsen, die erforderlich ist, hängt von der Sensortechnologie ab, die in der Kamera verwendet werden soll, und der Spezifikation der Kamera bezüglich Formfaktor und Bildqualität.

Wenn beispielsweise angenommen wird, daß ein Schwarzweißbild aufgezeichnet werden soll und daß eine Linse mit einer Auflösung w (Fokusfehlerkreisdurchmesser) in der Bildebene verwendet wird, erzielt man das kompakteste Design, wenn die effektive Größe jedes lichtempfindlichen Sensorelements im Detektor dem Auflösungselement w der Linse entspricht. Bei den Miniaturlinsen beträgt der Wert in der Regel w ≥ 0,5 &mgr;m. Die Mindestgröße von Sensorelementen in diesem Bereich kann leicht auf die gegenwärtige Technologie für Kameras mit Elektronikarray angepaßt werden. Der Abstand zwischen den Pixeln in den Elektronikkameras liegt in der Regel im Bereich von 5 &mgr;m und darüber. Vergleichen kann man dies mit den erforderlichen Abmessungen für das Bild, nämlich nx·w in der x-Richtung und ny·w in der y-Richtung, was bei einem Bild mit einer Million Pixeln und nx = ny = 1000 zu 500 &mgr;m·500 &mgr;m oder mehr wird. Angenommen die lichtempfindlichen Bereiche der Sensorelemente können mit einem gegenseitigen Abstand von beispielsweise 10 &mgr;m positioniert sein, dann kann jede Linse 50·50 = 2500 Pixel aufnehmen, und die kleinste benötigte Anzahl von Linsen wird 400. Bei einem quadratischen Linsenarray ergeben sich daraus 20·20 Linsen.

Wenn die Kamera gemäß der Erfindung zum Aufzeichnen von Farbbildern verwendet werden soll, wird es im Hinblick auf die Vereinfachung der Herstellung der Kamera wünschenswert sein, die Verwendung von Farbfiltern zu vermeiden, die mit hoher Präzision pixeliert sind.

4a zeigt in einer Seitenansicht ein Mittel in einer Ausführungsform der Kamera gemäß der Erfindung mit den optischen Filtern zwischen dem Linsenarray und der Detektoreinrichtung. In diesem Fall ist für jede Linse L1, L2, ... ein jeweiliger Filter FlR, FlB, FlG vorgesehen, wobei jeder dieser Filter, wie in Vorderansicht von 4b gezeigt, jeweiligen Gruppen aus drei mal drei Linsen L1, L2, L3; L4, L5, L6; L7, L8, L9 in dem Linsenarray zugeordnet ist. Der optische Filter für drei mal drei Linsen ist für mit R, G, B bezeichnete verschiedene Spektralbänder vorgesehen, so daß die Filter zusammen ein System zum Aufzeichnen von Farbbildern in einem RGB-System realisieren. Da jeder der Linsen L einem Filter mit nur einer Farbe zugeordnet ist, tasten alle Sensorelemente in dem Detektor Dn in der Bildebene dieser Linse nur diese Farbe ab. Die anderen Farbkomponenten, die für eine Vollfarbwiedergabe eines gegebenen Pixels erforderlich sind, werden auf entsprechende Weise unter den anderen Linsen abgetastet. Wenn ein RGB-Farbsystem in der Kamera gemäß der Erfindung verwendet wird, tasten folglich drei Linsen mit entweder einem R-Filter, G-Filter oder einem B-Filter, in der Figur als die Filter FlR, FlB bzw. FlG bezeichnet, jeweils das relevante Spektralband in den gleichen Abschnitten des Bilds ab. Wie in 4b gezeigt, kann dieser Abschnitt in drei separaten, aber zueinander eng beabstandeten Pixelbereichen angeordnet sein, beispielsweise wie von den Detektorbereichen D1, D4, D7 bedeckt, so daß man eine vollständige Überlappung erzielt. Ein Vorteil besteht bei der Ausführungsform dieser Art darin, daß jedes optisch aktive Element oder jede Linse nur einen begrenzten Wellenlängenbereich verarbeiten muß und somit optimiert werden kann, ohne daß chromatische Aberrationen berücksichtig zu werden brauchen. Bei einer weiteren Ausführungsform der Erfindung wird eine Anzahl von Filtern mit einem schmalen Durchlaßband verwendet, d. h., es wird mehr als die Mindestanzahl von drei oder vier Filtern benötigt, um eine Vollfarbwiedergabe derart zu liefern, daß der gewünschte Spektralbereich abgedeckt ist, während die Linsen optimiert werden können, ohne chromatische Aberrationen zu berücksichtigen. Dies kann insbesondere bei der Verwendung einer beugenden Optik von besonderer Wichtigkeit sein, die im Vergleich zur brechenden Optik, die oftmals auch eine sehr große Dispersion aufweist, strukturelle und Kostenvorteile bieten kann.

Die 5a, 5b zeigen schematisch eine Ausführungsform einer Kamera gemäß der Erfindung mit entsprechenden Filtermitteln wie in 4a und 4b, wobei hier jedoch separate optische Filter unmittelbar vor den separaten Detektoren Dn in der Detektoreinrichtung D vorgesehen sind. Es versteht sich natürlich, daß separate Detektoren Dn, wie in den 5a und 5b gezeigt, durchaus auf einem Detektorchip integriert und als Abschnitte des Chips realisiert werden können, während die jeweiligen zugeordneten Filter Fl jeweils separat durch Farbfilter realisiert werden können, beispielsweise in Farbsystemen wie etwa das RGB-System. Wie in 5b gezeigt, kann jede Farbe dann von zwei Filtern mit zugeordneten Detektoren oder Detektorabschnitten verarbeitet werden. Beispielsweise könnten die Filter Fl1 und FL2 mit den zugeordneten Detektoren D1 und D2 das Spektralband für rotes Licht verarbeiten, wobei die Filter Fl1 und FL2 dann natürlich den R-Filter realisieren.

Die 6 und 7 zeigen verschiedene Arten von Filtern, die in einer optoelektronischen Farbbildkamera gemäß der vorliegenden Erfindung verwendet werden können. 6 zeigt eine Ausführungsform eines Streifenfilters in dem RGB-System. Dieser Filter überträgt abwechselnd das rote, grüne und blaue Spektralband zu den jeweiligen zugeordneten Gruppen von Detektoren. Bei Verwendung in Verbindung mit der Ausführungsform in 5 können die Farbstreifen RGB im Streifenfilter Zeilen von Sensorelementen in dem separaten Detektor zugeordnet sein. Streifenfilter liefern eine ausgezeichnete Farbwiedergabe, können aber in einigen Fällen in einer bestimmten Richtung eine reduzierte Bildauflösung und möglicherweise eine reduzierte photometrische Antwort verursachen. 7 zeigt eine Ausführungsform eines Mosaikfilters in einem komplementären Farbsystem, bei dem der Filter aus einem Mosaik von Farbfiltern besteht, die abwechselnd eine der komplementären Farben Cyan Cy, Yellow Ye, Green Gr oder Magenta Mg an das Sensorelement in einem Detektor oder an separat zugeordnete Detektoren in einem Detektorarray übertragen. Vollfarbbilder erhält man durch Summieren der Signale von vier benachbarten Sensorelementen oder möglicherweise Detektoren. D. h., daß Signale von beispielsweise benachbarten Paaren von linearen Detektoren zum Erzeugen von Vollfarbbildern verwendet werden können. Üblicherweise sind die Bildauflösung und die photometrische Antwort besser, als wenn Streifenfilter verwendet werden, doch kann man mit Mosaikfiltern keine wahren RGB-Ausgangssignale erhalten. Die separaten Felder in den Mosaikfiltern können entsprechend den Streifenfiltern getrennt separaten Detektoren zugeordnet werden, können aber auch Sensorelementen in einem einzelnen Detektor zugeordnet werden.

8 zeigt eine Ausführungsform der Kamera gemäß der Erfindung, wobei der optisch aktiven Struktur der Linse L eine chromatische Aberration oder Dispersion derart gegeben ist, daß Licht mit verschiedenen Wellenlängen &lgr;1, &lgr;2 zu verschiedenen Bildpunkten s1', s2' in jeweiligen Bildebenen I1, I2 gebrochen oder gestreut wird. In den Bildebenen I1, I2 sind jeweilige Detektoren D1, D2 derart vorgesehen, daß das optische Bild in zwei getrennten Wellenlängenbändern um die Wellenlängen &lgr;1, &lgr;2 herum detektiert wird. Der erste Detektor D1 muß dann Sensoren umfassen, die derart vorgesehen sind, daß Öffnungen oder Fenster da zwischen in dem Detektor D1 gebildet sind oder ansonsten muß der Detektor D1 in den Bereichen zwischen den Sensoren für Licht transparent sein, das um die Wellenlänge &lgr;2 zentriert wird, was somit den Detektor D2 erreicht, auf die Bildebene I2 fokussiert und dort durch die Sensoren in dem Detektor D2 aufgezeichnet wird. Jeder der Detektoren D1, D2 zeichnet somit ein unterabgetastetes Bild mit einem Abtastfaktor von 0,5 derart auf, daß die von D1, D2 aufgezeichneten Felder das vollständig abgetastete Bild der mit der Linse L aufgezeichneten Szene umfassen.

Wenn ein Farbbild erwünscht wird, kann die Kamera gemäß der Erfindung Linsen und Linsendetektoren umfassen, die wie in 9a gezeigt vorgesehen sind, die eine einzelne Linse L zeigt. Diese Linse L weist eine chromatische Aberration oder Dispersion derart auf, daß Licht mit drei verschiedenen Wellenlängen &lgr;1, &lgr;2, &lgr;3 auf Bildpunkte s1', s2', s3' in drei jeweiligen Bildebenen I1, I2, I3 fokussiert wird. In jeder Bildebene ist ein jeweiliger Detektor D1, D2, D3 bevorzugt mit einem Sensorelement vorgesehen, dessen spektral-selektive Empfindlichkeit jeweils an die Wellenlänge &lgr;1, &lgr;2, &lgr;3 angepaßt ist. Die drei überlagerten vorgesehenen Detektoren D1, D2, D3 können dann zusammen das Farbbild in einem RGB-System erzeugen. Die Detektoren D1, D2 müssen derart realisiert sein, daß sie für Licht außerhalb der Spektralbänder, die in diesen Detektoren detektiert werden sollen, transparent sind.

9b zeigt schematisch jeden der Detektoren D1, D2, D3 seitlich auseinandergenommen und in einer Vorderansicht. Jeder Detektor ist mit 27 Sensorelementen realisiert, und insgesamt bestehen die Detektoren D1, D2, D3 aus 81 Sensorelementen, so daß die vollständige Pixelanzahl für das optische Bild, das von der Linse L abgebildet und von den Detektoren D1, D2, D3 detektiert wird, 81 beträgt. Für jede der Wellenlängen &lgr;1, &lgr;2, &lgr;3 wird dann mit der Linse L und den drei Detektoren D1, D2, D3 eine Abtastung des optischen Bilds mit dem Abtastungsfaktor von 1/3 erhalten. Das vollständig abgetastete RGB-Bild erfordert somit drei Linsen mit Detektoren, die wie in 9a gezeigt vorgesehen sind. Vorteilhafterweise kann der Detektor D1 in dem Bereich, der nicht von den Sensorelementen abgedeckt ist, wie in 9b gezeigt, aus einem Material hergestellt sein, das für Licht der Wellenlängen &lgr;2, &lgr;3 transparent ist. Licht mit der Wellenlänge &lgr;2 tritt dann hindurch und wird auf die Bildebene I2 fokussiert, wo der Detektor D2 vorgesehen ist. Der Detektor D2 ist bevorzugt entsprechend aus einem Material hergestellt, das für Licht mit der Wellenlänge &lgr;3 transparent ist, so daß Licht mit dieser Wellenlänge durch den Detektor D2 hindurchtreten kann, wo es nicht von dem Sensorelement abgedeckt ist, und auf die Bildebene I3 fokussiert wird, wo D3 vorgesehen ist.

Es erfolgt nun eine ausführlichere Beschreibung verschiedener optischer Eigenschaften und realisierbarer technischer Merkmale der Kamera gemäß der Erfindung.

Bei Anwendungen, bei denen es erwünscht ist, daß die Kamera einfach und preiswert ist, kann es zweckmäßig sein, ein System mit Festbrennweite zu verwenden, d. h. ein optisches Bildgebungssystem ohne mechanische bewegliche Teile. Für eine Linse mit einer Brennweite f und f' jeweils im Objektraum und im Bildraum kann die Gleichung für eine dünne Linse geschrieben werden als x·x' = f·f'(7)

Somit sind x und x' die Entfernung entlang der optischen Achse von den unendlich konjugierten Brennpunkten jeweils zum Objektpunkt bei s und dem Bildpunkt bei s': x = s – f(8) x' = s' – f'(9)

Aus den Gleichungen (7), (8) und (9) kann man sehen, daß eine axiale Objektverschiebung &dgr;s zu einer axialen Bildverschiebung &dgr;s' relativ zur Bildebene führt, wie bei s >> f &dgr;s' = –f·f'·&dgr;s/s2(10)

Aus Gleichung (10) kann man erkennen, daß die Bildposition ihre Abhängigkeit von dem Objektabstand s verliert, wenn letzterer zunimmt. Diese Beziehung ist dem Amateurfotografen wohlbekannt. Zudem kann man erkennen, daß bei einem gegebenen Objektabstand s die Bildposition zu einem geringeren Grad von dem Objektabstand abhängt, wenn die Brennweiten f und f' kürzer werden.

Die letztere Beziehung ist in dem vorliegenden Zusammenhang von besonderem Interesse, wo die Linse Brennweiten aufweist, die um zwei bis drei Größenordnungen kleiner sind als in traditionellen fotografischen Systemen. Andererseits wird die Fokusfehlertoleranz &Dgr;s' der Bildebene für eine beugungsbegrenzte Optik, die der Gleichung (1) oben genügt, durch die physischen Abmessungen der Optik begrenzt und &Dgr;s' soll im vorliegenden Fall mit dem Wert vergleichbar sein, der mit traditionellen fotografischen Systemen erzielt werden kann.

Dies hat auf die Schärfentiefe &Dgr;s eine dramatische Auswirkung. Wenn der Einfachheit halber f ≌ f' angenommen wird, kann Gleichung (10) geschrieben werden als &Dgr;s ≅ –(s/f)2·&Dgr;s'(11)

Die Schärfentiefe für einen gegebenen Wert &Dgr;s' skaliert mit anderen Worten mit dem umgekehrten Quadrat der Brennweite f. Als Beispiel berücksichtige man eine Kamera mit einer Festbrennweite im Unendlichen, d. h. eine Bildebene mit s' = f' = f. Wenn die Fokusfehlertoleranz in der Bildebene &Dgr;s' ist, dann wird der nächstgelegene Objektabstand smin durch die Standardlinsengleichung 1/s + 1/s' = 1/f'(12) definiert, die bei dem Objektabstand s = smin zu 1/smin + 1/(f + &Dgr;s') = 1/f'(13) wird und somit für f >> &Dgr;s' smin = f2/&Dgr;s'(14)

Wenn beispielsweise angenommen wird, daß f = 1 mm, &Dgr;s' = 1 &mgr;m, dann erhält man folglich smin = 103 mm und eine Kamera mit Festbrennweite liefert scharf definierte Bilder in der Brennebene von unendlich bis hinunter zu 1 m. Indem ein nomineller optimaler Fokus für eine endliche Entfernung gewählt wird, d. h. näher als unendlich, kann smin weiter reduziert werden.

Wenn die optoelektronische Kamera gemäß der Erfindung mit Möglichkeiten für die digitale oder softwaregesteuerte Bildverarbeitung realisiert wird, kann man eine Reihe von Vorteilen erzielen. Insbesondere muß angemerkt werden, daß elektronische Bildgebung im Vergleich zur traditionellen filmbasierten Bildgebung die Möglichkeit liefert, die Bildinformationen mit Hilfe geeigneter Software einfach und direkt zu manipulieren, bevor das Ergebnis, das fertige Bild, präsentiert wird. In gewissen Fällen kann eine Verarbeitung dieser Art direkt „auf dem Chip" ausgeführt werden, d. h. in unmittelbarer physischer Nähe zum Detektor und unter Verwendung von Elektronikkomponenten und mit letzterer integrierten Schaltungen, beispielsweise einer CMOS-basierten Architektur. Es können nun kommerziell „Kamera-auf-einem-Chip"-Komponenten und -Systeme mit unterschiedlichen Arten der Verarbeitung auf dem Chip gekauft werden, einschließlich Schwellwertbildung und Korrelationsanalyse zwischen den Pixeln wie etwa Konturendefinition. Nachfolgend werden bestimmte Arten der Bildverarbeitung erörtert, die der vorliegenden Erfindung zueigen sind.

Die grundlegende Realisierung der optoelektronischen Kamera gemäß der Erfindung ermöglicht den Einsatz von lichtempfindlichen Detektorarrays, die sich über eine relativ große Fläche erstrecken und eine große Anzahl von Pixeln umfassen. Dies bedeutet, daß zwei Teilgruppen von Pixeln derart gewählt werden können, daß sie Abschnitte eines größeren Bilds darstellen, weshalb eine Zoomfunktion, eine Schwenkfunktion oder bewegungskompensierende Funktionen bereitgestellt werden können.

Beispielsweise kann eine digitale elektronische Formatierung eines aufgezeichneten optischen Vollformatbilds in der Kamera gemäß der Erfindung dadurch stattfinden, daß ein Abschnitt oder Feld des digitalen Vollformatbilds durch eine kontinuierliche oder schrittweise radiale oder axiale Kontraktion des Bilds jeweils in Richtung auf einen Konvergenzpunkt oder eine Konvergenzachse in dem Bild erzeugt wird, wobei die Kontraktion des Bilds digital in einem in der Prozessoreinrichtung vorgesehenen Datenprozessor und gemäß einem oder mehreren bestimmten pixelsubtrahierenden Protokollen stattfindet und durch eine in der Kamera oder extern vorgesehene Betätigungseinrichtung bewirkt wird, die von einem Kamerabediener manuell oder automatisch gemäß vorbestimmten Kriterien manövriert wird, und indem wieder das formatierte Feld radial oder axial schrittweise oder kontinuierlich jeweils vom Konvergenzpunkt oder von der Konvergenzachse aus bis zu einem Vollformatbild aufgeweitet wird. Falls eine Displayeinrichtung vorgesehen ist, kann die Formatierung darauf visualisiert werden und dann wird der Abschnitt oder das Feld, das durch die Formatierung zu einem Zeitpunkt verursacht wurde, als ein synthetisches Vollformatbild angezeigt, aber mit einer realen räumlichen Auflösung, die durch den entsprechenden Pixelsubtraktionswert der Formatierung gegeben ist.

Insbesondere kann eine digitale elektronische Formatierungsfunktion durch eine radiale Kontraktion oder Aufweitung des Bilds implementiert werden, wobei das Feldformat dann in Abhängigkeit von der Entfernung zwischen der Szene und der Bildebene in der Kamera als ein Telefoto, ein Weitwinkelformat oder ein Makroformat bestimmt wird, und analog kann eine digitale elektronische Schwenkfunktion durch eine axiale Kontraktion oder Aufweitung implementiert werden. Wenn gezoomt oder geschwenkt wird, kann ein Konvergenzpunkt oder eine Konvergenzachse standardmäßig und automatisch als der Schnittpunkt zwischen der optischen Achse und der Bildebene im ersten Fall oder als eine horizontal halbierende Linie der Bildebene im zweiten Fall gewählt werden. Der Konvergenzpunkt bzw. die Konvergenzachse können über die Betätigungseinrichtung manuell jeweils als ein willkürlicher Punkt oder eine willkürliche Achse des Bilds gewählt werden.

10a zeigt, wie ein Abschnitt eines Vollformatbilds zu einem Konvergenzpunkt im Bild kontraktiert werden kann. Die Kontraktion kann schrittweise oder kontinuierlich radial durch Realisierung mit Softwaresteuerung mit Hilfe eines in der Kamera bereitgestellten Prozessors und unter Verwendung eines vorbestimmten pixelsubtrahierenden Protokolls stattfinden. Abschnitt 1 und Abschnitt 2 in 10a stellen Zoombilder dar, aber relativ zu der Gesamtzahl von Pixeln in dem Vollformatbild mit einer reduzierten Anzahl von Pixeln. Wenn Abschnitt 1 und Abschnitt 2 auf dem Display reproduziert werden, werden sie zu einem Format vergrößert, das das Display füllt, und über Software kann dann das Zoombild aus einem synthetischen Vollformatbild erzeugt werden, aber mit der gleichen Auflösung wie das Vollformatbild, indem Pixel in den vergrößerten Abschnitten so interpoliert werden, daß die von den Abschnitten 1 oder 2 dargestellten Zoombilder mit scheinbar der gleichen Auflösung wie das reale Vollformatbild erscheinen können.

10b zeigt, wie eine Schwenkfunktion in der Kamera implementiert werden kann, indem eine axiale Kontraktion des Vollformatbilds zu einer Konvergenzachse gestattet wird, so daß verschiedene Schwenkbildabschnitte 1 und 2 entstehen. Die Konvergenzachse ist in diesem Fall die horizontale halbierende Linie des Vollformatbilds.

Ein besonderes Merkmal besteht in der optoelektronischen Kamera gemäß der Erfindung darin, daß Informationen mit Hilfe von zwei oder mehr optischen Systemen aufgezeichnet werden, die gegenseitig in der seitlichen Richtung verschoben werden. Für Objekte, die näher als unendlich liegen, bedeutet dies, daß parallaxe Probleme vorliegen können. In einfachen Bildgebungsfällen verursacht die Parallaxe eine seitliche Verschiebung des Bilds in der Bildebene relativ zu der Bildposition für Objekte bei unendlich. Diese Verschiebung variiert auf systematische Weise von Linse zu Linse in dem Array und wird um so größer, je näher an der Kamera das Objekt liegt. Die Verschiebung kann auf einfache Weise durch Auswahl von lichtempfindlichen Elementen, d. h. Sensorelementen, kompensiert werden, die entsprechend verschoben werden, wenn das Bild elektronisch synthetisiert wird. Dies kann auf unterschiedliche Weisen erfolgen. Ein Verfahren besteht darin, einen bestimmten Parallaxegrad für alle zu synthetisierenden Bilder zu berücksichtigen, wobei dann für die relevanteste Bildgebungsaufgabe ein optimaler Objektabstand gewählt wird. Ein weiteres Verfahren ist das Korrelieren verschiedener Bilder im Speicher der Kamera und das Optimieren der Auswahl von lichtempfindlichen Bereichen für das beste entstehende Bild.

Es ist außerdem möglich, eine Autofokusfunktion zu implementieren, bei der die inhärente Schärfentiefe für ein optisches System mit mechanischer Festbrennweite unzureichend ist. Dies kann auf ähnliche Weise wie in Verbindung mit der Parallaxenkompensation beschrieben stattfinden, indem für ein zu synthetisierendes Bild ein optimaler Objektabstand gewählt wird. In diesem Zusammenhang kann der inhärente Parallaxenfehler unter Verwendung eines Linsenarrays, d. h. der Verschiebung eines Objekts in der Bildebene, für eine Entfernungsmessung verwendet werden.

Es werden schließlich spezifische Beispiele für Ausführungsformen der optoelektronischen Kamera gemäß der Erfindung erörtert.

Beispiel 1 – Kamera mit flexibler Mikrolinse

Es wird auf eine der 2a2c Bezug genommen. Die Kamera ist als ein Sandwich realisiert, wobei eine große Anzahl von Mikrolinsen 2 in einer dünnen flexiblen Folie liegt. Letztere ist an einer weiteren flexiblen Folie angebracht, in der die Detektoren Dn in einem gesteuerten Muster vorgesehen sind. Die Linsenfolie kann aus einem monolithischen Stück aus Kunststoffmaterial hergestellt werden, in dem die kleinen Linsen durch plastische Verformung, Ätzen oder durch Abscheiden eines Materials auf einem planen Substrat gebildet werden. Alternativ kann eine Folie mit kleinen Linsen eine Anzahl individueller kleiner Linsen umfassen, die in einer flexiblen planaren Matrix imobilisiert sind.

Als Arrays auf flexiblen Substraten vorgesehene Kunststoffdetektoren sind jüngst auf der Basis der Verwendung von konjugierten Polymeren realisiert worden. Die Empfindlichkeit und die spektrale Antwort sind sehr gut und mit Anwendungen kompatibel, die eine Bildgebung mit hoher Qualität verlangen.

Der Sandwichaufbau, der die Kamera realisiert, kann an entweder planen und/oder gekrümmten Oberflächen befestigt werden, um beispielsweise in Überwachungsbereichen verwendet zu werden. Indem beispielsweise die Sandwichstruktur zu einem Zylinder gekrümmt wird, kann man ein Bildfeld von 360° erhalten, was eine mechanische Schwenkfunktion überflüssig macht.

Beispiel 2 – Kamera mit beugenden Mikrolinsen

Es wird auf 2c Bezug genommen, da zu verstehen ist, daß jede kleine Linse L eine beugende Linse ist und in diesem Fall mit einem zugeordneten optischen Filter mit einem Bandpaßbereich, der eine Bildgebung durch die beugende Linse ohne signifikante chromatische Aberrationen gestattet. Damit man eine spektrale Abdeckung über einen ausreichend breiten Wellenlängenbereich erhält, kann eine Serie von kleinen Linsen mit komplementären Bandpaßfiltern verwendet werden. Die Anzahl der Bandpaßfilter kann sehr groß sein, so daß mit individuellen Filtern mit einer sehr schmalen Bandbreite eine Spektralabdeckung eines breiten Spektralbereichs erhalten wird. Beispielsweise kann die Ausführungsform, wie sie in 2c gezeigt wird, in diesem Fall praktisch wie in 5a und 5b dadurch implementiert werden, daß individuelle Filter hinter jeder Linse L, aber vor den zugeordneten Detektoren Dn vorgesehen werden.

Zusätzlich zu der Realisierung eines sehr flachen Oberflächenprofils für die Kamera erhält man mit der Verwendung von beugenden kleinen Linsen große Flexibilität im Hinblick auf das Steuern der Bildgebungseigenschaften der individuellen Linsen. Dies gestattet weitere Verbesserungen der oben erwähnten Kameraarchitektur. Beispielsweise können bestimmte Linsen in dem Array optimiert werden, um gewählte Peripheriebereiche des Bilds abzubilden, d. h. die Strahlen, die unter einem großen Winkel zur optischen Achse der Kamera eintreten. Indem Standardverfahren zur Massenproduktion verwendet werden, können die Arrays aus beugenden kleinen Linsen, die eine sehr große Anzahl von individuellen kleinen Linsen mit speziellen Eigenschaften umfassen können, billig und zuverlässig hergestellt werden.

Beispiel 3 – Ultraminiaturkamera

Es wird nochmals davon ausgegangen, daß die Kamera mit einer Grundstruktur wie in 2c implementiert wird. In diesem Fall können in einem Array konfigurierte Detektoren verwendet werden, indem eine passive Adressierungsarchitektur eingesetzt wird, wie sie aus der norwegischen Patentanmeldung NO973390 bekannt ist. Diese Architektur eignet sich insbesondere für die Verwendung von lichtempfindlichen Polymeren in Hybridsiliziumkomponenten bzw. Komponenten, bei denen die Elektronikschaltungen und die mechanisch tragenden Elemente ganz oder teilweise aus organischen Materialien hergestellt sind.

Dies ermöglicht die Bildung von lichtempfindlichen Bereichen in einer Bildebene mit einer Flächendichte, die die um ein bis zwei Größenordnungen übersteigt, die mit elektronischen Lichtsensorarrays auf der Basis des Stands der Technik erzielt werden kann (beispielsweise APS und CCD). Dies impliziert wiederum, daß die Anzahl der kleinen Linsen, die erforderlich ist, damit man Bilder mit hoher Qualität erhält, entsprechend reduziert werden kann. Wenn eine Linse nur eine Primärfarbe verarbeitet, impliziert dies in letzter Konsequenz, daß mindestens drei kleine Linsen erforderlich sind.

Wie oben offenbart, werden die Komplexität und die Baugröße dieser Linsen im Vergleich zu achromatischen Linsen mit entsprechender Modulationstransferfunktionsleistung (MTF-Leistung) stark reduziert, was zu Linsen mit typischen Abmessungen im Bereich von 1 mm3 führt. Es ist somit möglich, eine optoelektronische Vollfarbkamera mit hoher Qualität innerhalb eines Gesamtformfaktors von einigen wenigen mm3 zu realisieren.


Anspruch[de]
  1. Optoelektronische Kamera, die folgendes umfaßt:

    ein optisches Objektivsystem zum Abbilden einer von der Kamera aufgezeichneten Szene als ein optisches Bild im wesentlichen in einer Bildebene (I) des Objektivsystems, eine im wesentlichen in der Bildebene (I) bereitgestellte optoelektronische Detektoreinrichtung (D) zum Detektieren des optischen Bilds und Ausgeben von Ausgangssignalen auf der Basis der Detektion, eine mit der Detektoreinrichtung verbundene Prozessoreinrichtung zum Konvertieren und Verarbeiten der Ausgangssignale der Detektoreinrichtung, um das detektierte Bild in digitaler Form zu reproduzieren und dieses in Echtzeit auf einer Displayeinrichtung (V) anzuzeigen, und eine mit der Prozessoreinrichtung verbundene Speichereinrichtung zum Speichern des digitalen Bilds zur Anzeige auf der Displayeinrichtung oder zum Speichern, Anzeigen oder zusätzlichen Verarbeiten an für diese Zwecke ausgelegten externen Einrichtungen, mit denen die Kamera vorübergehend oder permanent verbunden ist,

    dadurch gekennzeichnet, daß das Kameraobjektivsystem durch ein Array von zwei oder mehr optisch aktiven Strukturen (L) gebildet wird, daß jede optisch aktive Struktur (L) dafür ausgelegt ist, optische Bilder der aufgezeichneten Szene auf Bereichen der Objektivsystembildebene zu erzeugen, die der jeweiligen optisch aktiven Struktur eindeutig zugeordnet sind, daß mindestens ein optoelektronischer Detektor (Dn) für jede optisch aktive Struktur (L) in ihrem jeweiligen zugeordneten Bereich oder ihrer jeweiligen zugeordneten Bildebene vorgesehen ist, wobei alle Detektoren (Dn) in der Detektoreinrichtung (D) der Kamera enthalten sind, daß jeder Detektor (Dn) mindestens ein ein Pixel des optischen Bilds definierendes Sensorelement (E) umfaßt, wobei der Bereich des Pixels im wesentlichen durch den Bereich des getrennten definierenden Sensorelements bestimmt wird, und daß jeder Detektor (Dn) dafür ausgelegt ist, einen spezifischen komplementären Abtastwert des optischen Bilds zu definieren, wobei eine Anzahl von Pixeln in jedem Abtastwert durch eine Anzahl von Sensorelementen (E) in dem definierenden Detektor (Dn) bestimmt wird, wobei ein optimales digitales Bild erzeugt wird, indem alle spezifischen komplementären Abtastwerte verknüpft werden mit einer räumlichen Auflösung, die durch die Anzahl von Pixeln in durch die Sensorelemente (E) definierten ausgeprägten Positionen in dem optischen Bild bestimmt wird.
  2. Optoelektronische Kamera nach Anspruch 1, dadurch gekennzeichnet, daß die optisch aktiven Strukturen (L) brechende Strukturen oder beugende Strukturen oder reflektierende Strukturen oder Kombinationen von derartigen Strukturen sind.
  3. Optoelektronische Kamera nach Anspruch 2, dadurch gekennzeichnet, daß die brechenden oder die beugenden Strukturen (L) als kleine Linsen mit einem Durchmesser von höchstens 3 mm ausgebildet sind.
  4. Optoelektronische Kamera nach Anspruch 1, dadurch gekennzeichnet, daß das Objektivsystem mit den optisch aktiven Strukturen (L) eine im wesentlichen starre oder flexible Oberfläche bildet.
  5. Optoelektronische Kamera nach Anspruch 4, dadurch gekennzeichnet, daß die im wesentlichen starre oder flexible Oberfläche eine ebene, gekrümmte oder doppeltgekrümmte Oberfläche ist.
  6. Optoelektronische Kamera nach Anspruch 1, dadurch gekennzeichnet, daß jeder Detektor (Dn) ein Array von zwei oder mehr Sensorelementen (E) derart umfaßt, daß jedes Sensorelement in dem Array ein räumlich ausgeprägtes Pixel in dem optischen Bild definiert.
  7. Optoelektronische Kamera nach Anspruch 1, dadurch gekennzeichnet, daß alle Sensorelemente (E) einen identischen Formfaktor aufweisen und daß der in Pixeln ausgedrückte Bereich des optischen Bilds somit durch das Verhältnis zwischen der geometrischen Fläche des optischen Bilds und der geometrischen Fläche eines einzigen Sensorelements gegeben ist.
  8. Optoelektronische Kamera nach Anspruch 1, dadurch gekennzeichnet, daß die Gesamtzahl ausgeprägt definierter Pixel in dem optischen Bild gleich der Gesamtzahl von Sensorelementen (E) in der Detektoreinrichtung (D) derart ist, daß in diesem Fall zwischen einem gegebenen Pixel und seinem definierenden Sensorelement (E) eine eineindeutige Beziehung vorliegt, wodurch das digitale Bild durch ein vollständiges Abtasten des optischen Bilds erzeugt werden kann.
  9. Optoelektronische Kamera nach Anspruch 1, dadurch gekennzeichnet, daß die Gesamtzahl ausgeprägt definierter Pixel in dem optischen Bild kleiner ist als die Gesamtzahl von Sensorelementen (E) in der Detektoreinrichtung (D) derart, daß in diesem Fall zwischen einem gegebenen Pixel und seinem definierenden Sensorelement oder seinen definierenden Sensorelementen eine einmehrdeutige Beziehung vorliegt, wodurch das digitale Bild durch eine Überabtastung des optischen Bilds erzeugt werden kann.
  10. Optoelektronische Kamera nach Anspruch 1, dadurch gekennzeichnet, daß zwei oder mehr Detektoren (Dn) identische räumliche Abtastwerte des optischen Bilds definieren.
  11. Optoelektronische Kamera nach Anspruch 1, dadurch gekennzeichnet, daß sie einen oder mehrere Raumfilter (SF) umfaßt, die vor dem Objektivsystem und/oder zwischen dem Objektivsystem und der Detektoreinrichtung vorgesehen sind.
  12. Optoelektronische Kamera nach Anspruch 11, dadurch gekennzeichnet, daß der Raumfilter (SF) ein räumlicher Lichtmodulator ist.
  13. Optoelektronische Kamera nach Anspruch 12, dadurch gekennzeichnet, daß der räumliche Lichtmodulator (SF) ein steuerbarer elektrooptischer Lichtmodulator ist.
  14. Optoelektronische Kamera nach Anspruch 1, dadurch gekennzeichnet, daß sie ein oder mehrere Optikfiltermittel (Fl) umfaßt, die vor dem Objektivsystem und/oder zwischen dem Objektivsystem und der Detektoreinrichtung (D) vorgesehen sind.
  15. Optoelektronische Kamera nach Anspruch 14, dadurch gekennzeichnet, daß das Optikfiltermittel (Fl) getrennte spektral-selektive Filter (Fln) umfaßt, die getrennt entweder jeder optisch aktiven Struktur (L) oder Gruppen optisch aktiver Strukturen (L) oder dem Detektor oder den Detektoren (Dn) der Detektoreinrichtung (D) zugeordnet sind, jeder optisch aktiven Struktur (L) zugeordnet.
  16. Optoelektronische Kamera nach Anspruch 15, dadurch gekennzeichnet, daß das Optikfiltermittel (Fl) dafür ausgelegt ist, in zwei oder mehr getrennten Wellenlängenbändern zu übertragen, indem jeder spektral-selektive Filter (Fln) in einem separaten Wellenlängenband überträgt, wobei die Anzahl der Filter (Fln), die in jedem der separaten Wellenlängenbänder übertragen, im wesentlichen identisch ist.
  17. Optoelektronische Kamera nach Anspruch 16, dadurch gekennzeichnet, daß die separaten Wellenlängenbänder in benachbarter oder nicht benachbarter Bandbreitenbeziehung zusammen mindestens den visuellen Teil des Spektrums abdecken.
  18. Optoelektronische Kamera nach Anspruch 16, dadurch gekennzeichnet, daß die separaten Wellenlängenbänder so ausgewählt sind, daß das Optikfiltermittel (Fln) ein Primärfarbfiltermittel oder ein RGB-Filtermittel bildet.
  19. Optoelektronische Kamera nach Anspruch 16, dadurch gekennzeichnet, daß die separaten Wellenlängenbänder so ausgewählt sind, daß das Optikfiltermittel (Fl) ein komplementäres Farbfiltermittel bildet.
  20. Optoelektronische Kamera nach Anspruch 17, dadurch gekennzeichnet, daß die spektral-selektiven Filter (Fln) des Filtermittels (Fl) getrennt dem Detektor oder den Detektoren (Dn), die für jede optisch aktive Struktur bereitgestellt sind, separat zugeordnet oder überlagert werden, dadurch gekennzeichnet, daß der spektral-selektive Filter (Fln) ein Streifenfilter ist, der dafür ausgelegt ist, in zwei oder mehr separaten Wellenlängenbändern zu übertragen, indem jeder Streifen in einem gegebenen Wellenlängenband überträgt, wobei die Anzahl der Streifen, die in jedem der Wellenlängenbänder überträgt, im wesentlichen identisch ist.
  21. Optoelektronische Kamera nach Anspruch 10, dadurch gekennzeichnet, daß jeder Streifen in einem Streifenfilter (Fln) einer jeweiligen Zeile oder Spalte von Sensorelementen (E) in dem Detektoren oder in den Detektoren (Dn) zugeordnet ist.
  22. Optoelektronische Kamera nach Anspruch 20, dadurch gekennzeichnet, daß jeder Streifenfilter ein Primärfarbfilter oder ein RGB-Filter ist.
  23. Optoelektronische Kamera nach Anspruch 15, wobei die spektral-selektiven Filter (Fln) des Filtermittels separat dem Detektor oder den Detektoren (Dn), die für jede optisch aktive Struktur vorgesehen sind, zugeordnet oder überlagert sind, dadurch gekennzeichnet, daß der spektral-selektive Filter (Fln) ein Mosaikfilter ist, der dafür ausgelegt ist, in zwei oder mehr separaten Wellenlängenbändern zu übertragen, wobei jedes Filtersegment in dem Mosaikfilter in einem gegebenen Wellenlängenband überträgt, wobei die Anzahl der Filtersegmente, die in jedem der Wellenlängenbänder übertragen, im wesentlichen identisch ist.
  24. Optoelektronische Kamera nach Anspruch 13, dadurch gekennzeichnet, daß jedes Filtersegment in dem Mosaikfilter (Fl) einem jeweiligen Sensorelement oder jeweiligen Sensorelementen (E) in dem Detektor oder in den Detektoren (Dn) zugeordnet ist.
  25. Optoelektronische Kamera nach Anspruch 13, dadurch gekennzeichnet, daß jeder Mosaikfilter (Fln) ein komplementärer Farbfilter ist.
  26. Optoelektronische Kamera nach Anspruch 1, dadurch gekennzeichnet, daß die Detektoreinrichtung (D) Detektoren (Dn) umfaßt, die in einer der folgenden Technologien realisiert sind, nämlich CCD-Technologie (ladungsgekoppeltes Bauelement), CID-Technologie (ladungsinjiziertes Bauelement), APS-Technologie (aktiver Pixelsensor) oder PMSA-Technologie (Sensorarray in passiver Matrix).
  27. Optoelektronische Kamera nach Anspruch 26, wobei der Detektor in PMSA-Technologie realisiert ist, dadurch gekennzeichnet, daß der Detektor (Dn) als eine Dünnfilmkomponente oder eine Hybridkomponente realisiert ist, und daß der Detektor (Dn) für ein paralleles Auslesen der Ausgangssignale der Sensorelemente (E) über ein passives Elektrodenarray zur eindeutigen Adressierung jedes separaten Sensorelements ausgelegt ist.
  28. Optoelektronische Kamera nach Anspruch 27, dadurch gekennzeichnet, daß der Detektor (Dn) ganz oder teilweise aus organischen halbleitenden oder elektrisch isolierenden Materialien hergestellt ist, einschließlich Kunststoffmaterialien und halbleitende Oligomere oder Polymere.
  29. Optoelektronische Kamera nach Anspruch 28, dadurch gekennzeichnet, daß die organischen Materialien Licht zumindest im sichtbaren Teil des Spektrums ganz oder teilweise durchlassen und daß der Detektor (Dn) im Bereich zwischen seinen Sensorelementen (E) in diesem Spektralbereich transparent oder durchscheinend ist.
  30. Optoelektronische Kamera nach Anspruch 28, dadurch gekennzeichnet, daß das Elektrodenarray des Detektors (Dn) zumindest im sichtbaren Bereich des Spektrums ganz oder teilweise transparent oder durchscheinend ist.
  31. Optoelektronische Kamera nach Anspruch 1, dadurch gekennzeichnet, daß die optisch aktiven Strukturen (L) mit einer bestimmten chromatischen Aberration oder Dispersion derart realisiert sind, daß jede optisch aktive Struktur (L) für zwei oder mehr separate Wellenlängenbänder das optische Bild spektral-selektiv in jedem Wellenlängenband im wesentlichen auf entsprechenden, im wesentlichen kongruenten Bildebenen (In) erzeugt, die in der Strahlrichtung beabstandet überlagert sind, und daß für jede optisch aktive Struktur (L) in jeder dieser Bildebenen ein Detektor (Dn) für die spektral-selektive Detektion des optischen Bilds derart vorgesehen ist, daß für jede optisch aktive Struktur (L) in jeder Bildebene (In) ein Abtastwert im räumlichen Bereich und ein Abtastwert im Frequenzbereich definiert sind, wobei die Auflösung im Frequenzbereich im wesentlichen durch die Anzahl separater Wellenlängenbänder mit einem jeweils zugeordneten Detektor (Dn) bestimmt sind, wobei das von der Detektoreinrichtung (Dn) detektierte optische Bild unter Verwendung eines ausgewählten geeigneten Farbsystems als ein multispektrales digitales Farbbild erzeugt werden kann.
  32. Optoelektronische Kamera nach Anspruch 31, dadurch gekennzeichnet, daß drei separate überlagerte Detektoren (D1, D2, D3) für jede optisch aktive Struktur (L) vorgesehen sind, und zwar jeweils in der Bildebene (I1, I2, I3) für drei einem Dreifarbsystem zugeordneten separaten Wellenlängenbändern.
  33. Optoelektronische Kamera zum Aufzeichnen von Farbbildern und insbesondere zum Aufzeichnen von Farbbildern in einem RGB-System, die folgendes umfaßt:

    ein optisches Objektivsystem zum Abbilden einer von der Kamera aufgezeichneten Szene als ein optisches Bild im wesentlichen in einer Bildebene (I) des Objektivsystems, eine im wesentlichen in der Bildebene (I) bereitgestellte optoelektronische Detektoreinrichtung (D) zum Detektieren des optischen Bilds und Ausgeben von Ausgangssignalen auf der Basis der Detektion, eine mit der Detektoreinrichtung verbundene Prozessoreinrichtung zum Konvertieren und Verarbeiten der Ausgangssignale der Detektoreinrichtung, um das detektierte Bild in digitaler Form zu reproduzieren und dies in Echtzeit auf einer Displayeinrichtung (V) anzuzeigen, und eine mit der Prozessoreinrichtung verbundene Speichereinrichtung zum Speichern des digitalen Bilds zur Anzeige auf der Displayeinrichtung oder zum Speichern, Anzeigen oder zusätzlichen Verarbeiten an für diese Zwecke ausgelegten externen Einrichtungen, mit denen die Kamera vorübergehend oder permanent verbunden ist,

    dadurch gekennzeichnet, daß das Kameraobjektivsystem durch ein Array aus zwei oder mehr optisch aktiven Strukturen (L) gebildet wird, daß jede optisch aktive Struktur (L) ein bestimmte chromatische Aberration oder Dispersion derart aufweist, daß die Stelle ihres Brennpunkts von der Wellenlänge des Lichts abhängt, daß jede optische Struktur dafür ausgelegt ist, spektral-selektive optische Bilder der aufgezeichneten Szene auf Bereichen von drei separaten überlagerten Bildebenen (I1, I2, I3) des Objektivsystems zu erzeugen, wobei die Bereiche jeweiligen optisch aktiven Strukturen eindeutig zugeordnet sind, wobei eine erste Bildebene (I1) ein erstes optisches Bild in einem Wellenlängenband im blauen Teil des Spektrums bildet und eine zweite Bildebene (I2) ein zweites optisches Bild in einem Wellenlängenband im grünen Teil des Spektrums und eine dritte Bildebene I3 ein drittes optisches Bild in einem Wellenlängenband im roten Teil des Spektrums bildet, daß für jede optisch aktive Struktur (L) ein optoelektronischer Detektor (Dn) in jedem der jeweils zugeordneten Bildebenen (I1, I2, I3) zur Detektion des von der optisch aktiven Struktur (L) in jedem der Wellenlängenbänder blau, grün und rot erzeugten optischen Bilds vorgesehen ist, daß jeder Detektor (Dn) mindestens ein Sensorelement (E) derart umfaßt, daß mindestens ein Sensorelement ein Pixel des optischen Bilds definiert, wobei der Bereich des Pixels im wesentlichen durch die Fläche des separaten definierenden Sensorelements bestimmt wird, und daß jeder Detektor (Dn) in einer der Bildebenen (I1, I2, I3) dafür ausgelegt ist, einen spezifischen komplementären Abtastwert des optischen Bilds in dem dieser Bildebene entsprechenden Wellenlängenband und mit einer Anzahl von Pixeln in jedem Abtastwert zu definieren, die durch die Anzahl der Sensorelemente (E) im definierenden Detektor (Dn) bestimmt ist, wobei ein optimales digitales Bild als ein RGB-Farbbild mit einer räumlichen Auflösung erzeugt wird, die durch die Anzahl von Pixeln in durch die Sensorelemente im optischen Bild definierten ausgeprägten Positionen bestimmt ist.
  34. Optoelektronische Kamera nach Anspruch 33, dadurch gekennzeichnet, daß die optisch aktiven Strukturen (L) brechende Strukturen mit einer bestimmten chromatischen Aberration oder beugende Strukturen mit einer bestimmten Dispersion oder Kombinationen derartiger Strukturen sind.
  35. Optoelektronische Kamera nach Anspruch 34, dadurch gekennzeichnet, daß die brechenden oder die beugenden Strukturen (L) als kleine Linsen mit einem Durchmesser von höchstens 3 mm realisiert sind.
  36. Optoelektronische Kamera nach Anspruch 33, dadurch gekennzeichnet, daß die Gesamtzahl ausgeprägt definierter Pixel im optischen Bild in einem der Wellenlängenbänder gleich der Gesamtzahl von Sensorelementen (E) in den in der Detektoreinrichtung (D) vorgesehenen Detektoren (Dn) für dieses Wellenlängenband derart ist, daß in diesem Fall zwischen einem gegebenen Pixel und seinem definierenden Sensorelement (E) eine eineindeutige Beziehung vorliegt, wodurch das digital RGB-Farbbild mit einer vollständigen Abtastung des optischen Bilds in jedem Wellenlängenband und mit der dreifachen Überabtastung des ganzen optischen Bilds in Farben erzeugt werden kann.
  37. Optoelektronische Kamera nach Anspruch 33, dadurch gekennzeichnet, daß die Gesamtzahl der ausgeprägt definierten Pixel des optischen Bilds in einem der Wellenlängenbänder kleiner ist als die Gesamtzahl von Sensorelementen (E) in den in der Detektoreinrichtung (D) vorgesehenen Detektoren (Dn) für dieses Wellenlängenband derart, daß in diesem Fall zwischen einem gegebenen Pixel und seinem definierenden Sensorelement oder seinen definierenden Sensorelementen (E) eine einmehrdeutige Beziehung vorliegt, wodurch das digitale RGB-Farbbild mit einer Überabtastung in jedem Wellenlängenband und mit einer Gesamtüberabtastung des optischen Bilds gleich der Summe des Überabtastfaktors in jedem Wellenlängenband erzeugt werden kann.
  38. Optoelektronische Kamera nach Anspruch 1 oder 33, dadurch gekennzeichnet, daß die Kamera mit digitaler oder softwaregesteuerter Verarbeitung der von der Kamera aufgezeichneten Bildinformationen realisiert ist, wobei die Verarbeitung in Teilgruppen von Pixeln durchgeführt wird und eine oder mehrere der folgenden Funktionen implementiert werden, nämlich eine Bildformatierung, Bewegungs- oder Verschiebungskompensation und Autofokussierung.
  39. Optoelektronische Kamera nach Anspruch 38, dadurch gekennzeichnet, daß die Bildformatierung jeweils eine Zoomteilfunktion und/oder eine Schwenkteilfunktion umfaßt.
  40. Optoelektronische Kamera nach Anspruch 39, dadurch gekennzeichnet, daß die Zoom- und Schwenkteilfunktion durch ein oder mehrere pixelsubtrahierende Protokolle gefolgt von einer Erweiterung auf ein vollformatiertes Zoom- oder Schwenkbild implementiert werden.
  41. Optoelektronische Kamera nach Anspruch 40, dadurch gekennzeichnet, daß das vollformatierte Zoom- oder Schwenkbild mit der ursprünglichen Auflösung des vollformatigen Originalbilds aufgezeichnet oder angezeigt wird, indem ein Pixelinterpolationsverfahren verwendet wird.
  42. Optoelektronische Kamera nach Anspruch 38, dadurch gekennzeichnet, daß die Bewegungs- oder Verschiebungskompensationsfunktion implementiert wird durch Bestimmen einer Parallaxe wie gegeben durch mindestens zwei ausgewählte Bildabtastwerte, erzeugt von mindestens zwei beabstandeten optisch aktiven Strukturen im Array, und Auswählen eines optimalen Objektabstands zum Synthetisieren eines Endbilds.
  43. Optoelektronische Kamera nach Anspruch 42, dadurch gekennzeichnet, daß die Bewegungs- oder Verschiebungskompensationsfunktion implementiert wird durch Korrelieren verschiedener Bilder im Kameraspeicher und Auswählen optimaler lichtempfindlicher Bereiche für die verschiedenen Bilder zum Synthetisieren eines bewegungs- oder verschiebungskompensierten Endbilds.
  44. Optoelektronische Kamera nach Anspruch 38, dadurch gekennzeichnet, daß die Autofokusfunktion implementiert wird durch Wählen eines optimalen Objektabstands für ein zu synthetisierendes Endbild durch Bestimmen der Parallaxe wie gegeben durch mindestens zwei ausgewählte Bildabtastwerte, die von beabstandeten optisch aktiven Strukturen (L) in dem Array erzeugt werden, und Messen eines Objektabstands.
  45. Optoelektronische Kamera nach Anspruch 1 oder 33, dadurch gekennzeichnet, daß die Displayeinrichtung (V) in der Kamera vorgesehen ist und mit der Prozessoreinrichtung verbunden ist.
  46. Optoelektronische Kamera nach Anspruch 1 oder 33, wobei die Displayeinrichtung (V) mit der Speichereinrichtung verbunden ist.
Es folgen 8 Blatt Zeichnungen






IPC
A Täglicher Lebensbedarf
B Arbeitsverfahren; Transportieren
C Chemie; Hüttenwesen
D Textilien; Papier
E Bauwesen; Erdbohren; Bergbau
F Maschinenbau; Beleuchtung; Heizung; Waffen; Sprengen
G Physik
H Elektrotechnik

Anmelder
Datum

Patentrecherche

  Patente PDF

Copyright © 2008 Patent-De Alle Rechte vorbehalten. eMail: info@patent-de.com