PatentDe  


Dokumentenidentifikation DE102005040570B4 22.01.2009
Titel Bildkomprimierungsvorrichtung und ein Verfahren zur Änderung der Quantisierungsparameter entsprechend der Bildkomplexität
Anmelder Samsung Electro-Mechanics Co., Ltd., Suwon, Kyonggi, KR
Erfinder Kim, Tae Eung, Yongin, Kyonggi, KR
Vertreter Kahlhöfer - Neumann - Herzog - Fiesser, 80331 München
DE-Anmeldedatum 26.08.2005
DE-Aktenzeichen 102005040570
Offenlegungstag 14.06.2006
Veröffentlichungstag der Patenterteilung 22.01.2009
Veröffentlichungstag im Patentblatt 22.01.2009
IPC-Hauptklasse H04N 1/41  (2006.01)  A,  F,  I,  20050826,  B,  H,  DE
IPC-Nebenklasse G06T 9/00  (2006.01)  A,  L,  I,  20050826,  B,  H,  DE
G03B 13/36  (2006.01)  A,  L,  I,  20050826,  B,  H,  DE

Beschreibung[de]

Die vorliegende Erfindung betrifft im Allgemeinen ein Komprimierungsmodul eines mobilen Datenübertragungsgerätes und ein Verfahren zur Regelung des Komprimierungsmoduls und insbesondere ein Komprimierungsmodul, welches zulässt das Komprimierungsverhältnis des Komprimierungsmoduls, welches sich in einem Mobiltelefon, einem Smartphone oder einem PDA-Computer (PDA, personal digital assistant) befindet, zu ändern, insbesondere zu variieren, und ein Verfahren zur Regelung des Komprimierungsmoduls.

Wobei das Verfahren zur Regelung auch als ein Steuerungsverfahren, d. h. ein Verfahren ohne Regelungsrückkopplung, ausgestattet sein kann.

Gegenwärtig stellen mobile Datenübertragungsendgeräte neben der ursprünglichen Funktion, dem Benutzer das Telefonieren zu ermöglichen, eine Vielfalt von zusätzlichen Funktionen bereit und sind daher zu einem Bedürfnis geworden, um den Komfort des Benutzers zu erhöhen.

Multifunktionsgeräte werden durch die Kombination eines oder mehrerer getrennt vorgesehener elektronischer Geräte mit einem mobilen Datenübertragungsendgerat, insbesondere einem Mobiltelefon, gebildet. Beispielsweise wird ein Radiotelefon durch die Kombination eines Mobiltelefons mit einem Radio gebildet, um sowohl die Funktion des Telefons als auch des Radiohöhrens zur Verfügung zu stellen. Multifunktionsgeräte sind zu Gegenständen des täglichen Gebrauchs geworden, welche den Komfort des Benutzers erhöhen.

Multifunktionsmobiltelefone werden durch die Kombination eines oder mehrerer getrennt vorgesehener elektronischer Geräte mit einem mobilen Datenübertragungsendgerät gebildet. Beispielsweise wird ein Radiotelefon, durch die Kombination eines Radios mit einem Mobiltelefon gebildet, um sowohl die Funktion des Telefonierens als auch Radiohöhrens zur Verfügung zu stellen; ein TV-Telefon wird durch die Kombination eines Mobiltelefon mit einem Fernsehgerät gebildet, um sowohl die Funktion des Telefonierens als auch des Fernsehens zur Verfügung zu stellen; ein Internettelefon, welches sowohl die Funktion des Telefons als auch des Internets zur Verfügung stellt und ein Kameratelefon wird durch die Kombination eines Mobiltelefon mit einer Kamera gebildet, um sowohl die Funktion des Telefons als auch der Kamera zur Verfügung zu stellen. Multifunktionsmobiltelefone wurden entwickelt, damit der Benutzer die zusätzlichen Funktionen, in Verbindung mit einfach zu tragenden Mobiltelefonen, bequem nutzen kann. Ferner verstärken sich die Bestrebungen hinsichtlich der Entwicklung von Mobiltelefonen der nächsten Generation, die in der Lage sind die Effizienz und den Komfort des Benutzers zu maximieren.

Von den oben beschriebenen komfortabel zu nutzenden und tragenden Multifunktionsmobiltelefonen stellt ein so genanntes „Kameratelefon", in dem ein Mobiltelefon mit einer Kamera kombiniert ist, die Funktionen bereit, ein Foto eines Gegenstandes zu machen, das Foto zu speichern, das Foto zu reproduzieren, das Foto als einen Bildschirmhintergrund zu nutzen und das Foto an einen anderen Ort mittels Email oder Telefon zu übermitteln.

ist ein Blockdiagramm zur Veranschaulichung des Aufbaus eines konventionellen Kameratelefons, in welchem ein Bildprozessor in einem Abdeckungsgehäuse 213 vorgesehen ist. Das Hauptgehäuse 220 umfasst eine drahtlose Schaltungseinheit 130 zur Kommunikation mit der Basisstation, eine Tonschaltungseinheit 140 zum Ausführen einer Sprechverbindung, ein Tastenfeld 120 zum Empfangen der Tasteneingaben, einen Speicher 110 zum Speichern verschiedener Arten von Programmen und Daten und eine Kontrolleinheit 100 zur Regelung der oben genannten Operationen.

Im Fall eines Kodevielfachzugriff-Mobiltelefons (CDMA, Code Division Multiple Access) wird üblicherweise ein einstückiger (one-chip type) Modemchip, welcher Mobilstationsmodem (Mobile Station Modem, MSM) genannt wird, als Kontrollgerät 100 benutzt. Das Kontrollgerät 100 umfasst eine Phasensynchronisationsschleife (PLL, Phase Locked Loop) zur drahtlosen Kommunikation, einen CDMA-Prozessor, einen Kode-Sprach-Wandler (Vocoder), eine Tastenfeld-Schnittstelle, eine serielle Schnittstelle und einen Prozessorkern (processor core).

Das Hauptgehäuse 220 umfasst weiterhin ein Mikrophon 50 zum Konvertieren der Benutzerstimme in ein elektrisches Signal und eine Antenne zur Übermittlung und zum Empfangen einer Funkwelle.

Ein Flüssigkristallbildschirmmodul (LCD-Modul, liquid crystal display module) 30 ist ein Anzeigegerät zum Anzeigen von Zeichen und Bildern und ist auf dem Abdeckungsgehäuse 213 angebracht.

Das LCD-Modul 30 ist in der Art eines Moduls ausgestaltet, so dass es sowohl ein LCD-Panel als auch einen LCD-Treiber zum Ansteuern des LCD-Moduls umfasst. Weiterhin befindet sich eine LCD-Kontroller 150 zum Ausführen von Steuerungsoperationen auf dem LCD-Modul 30 oder auf einer flexiblen Schaltung, um Zeichen oder Bilder auf dem LCD-Panel darzustellen.

Darüber hinaus wird ein Lautsprecher 26 zur Ausgabe der während der drahtlosen Kommunikation empfangenen Stimme des Gesprächspartners auf dem Abdeckungsgehäuse 213 vorgesehen.

Obwohl dies nicht zeigt, umfasst das Abdeckungsgehäuse 213 im Allgemeinen einen Lautsprecher oder ein Piezogerät zum Informieren eines Benutzers über den Empfang eines Telefonanrufes und einen Vibrationsmotor zum Informieren eines Benutzers über den Empfang eines Telefonanrufes auf andere Weise.

Weiterhin sind ein Kameramodul 27 und eine Kameraschnittstelle 170 in dem Abdeckungsgehäuse 213 untergebracht. Im Falle eines Mobiltelefons, welches bewegte Bilder empfangen oder Bildkommunikation unter Verwendung des Kameramoduls 27 ausführen kann, befindet sich ein Bildprozessor 160 zur Verarbeitung von bewegten Bildern im Hauptgehäuse 220.

Beispielsweise wird TC35273XB, d. h. ein MPEG-4-Prozessor (MPEG, Moving Picture Experts Group), als Bildprozessor 160 verwendet. Der Bildprozessor 160 dekodiert und/oder kodiert ausschließlich bewegte Bilder, die nicht von einem Hauptprozessor alleine verarbeitet werden können, um so das Verarbeiten von bewegten Bildern in Mobiltelefonen zu ermöglichen.

Der Bildprozessor 160 ist im Allgemeinen mit einer Mehrzahl, insbesondere Vielzahl, von Anschlüssen (ports) ausgestattet, die zur Verbindung mit einem LCD-Modul, einer Kamera, einem Mikrophon und einem Lautsprecher verwendet werden.

Wie oben beschrieben ist das konventionelle klappbare Mobiltelefon insofern vorteilhaft, dass trotz der geringen Größe des Mobiltelefons ein großformatiger Bildschirm zur Verfügung gestellt werden kann. Das konventionelle klappbare Mobiltelefon benötigt jedoch Mittel, um das Abdeckungsgehäuses mit dem Hauptgehäuse elektrisch zu verbinden. Um die Montage zu Vereinfachen, Rauschen zu reduzieren und die Toleranz gegenüber Rauschen zu steigern, ist es erstrebenswert, die Zahl der Verbindungsleitungen zu beschränken.

Um sich dem Trend abnehmender Lebensdauer von Mobiltelefonen und dem Aufkommen von verschiedenen Anzeigegeräten anzupassen, wird ein Mobiltelefon benötigt, das eine Struktur aufweist, die zusammen mit verschiedenen Anzeigegeräten und Multimediafunktionen ohne Modifikation der Hauptplatine (Mainboard) oder mit nur einfacher Modifikation der Hauptplatine eingesetzt werden kann.

ist ein Blockdiagramm zur Veranschaulichung des Aufbaus eines konventionellen Kameratelefons, in welchem ein Bildprozessor 160, der auf verbesserter Technologie basiert, in einem Abdeckungsgehäuse 213 bereitgestellt wird. In diesem Fall kann eine getrennte Baugruppe für den Bildprozessor 160 in dem Abdeckungsgehäuse 213 bereitgestellt werden, jedoch ist es bevorzugt, dass der Bildprozessor 160 in einem LCD-Modul oder auf einer flexiblen Schaltung angeordnet wird.

Wenn es gewünscht ist, ein bewegtes oder unbewegtes Bild auf einen LCD 30 anzuzeigen, liest ein Kontroller 100 die komprimierten Bilddaten von dem Speicher 110 und übermittelt die Daten an den Bildprozessor 160.

Dann dekomprimiert der Bildprozessor 160 die komprimierten Bilddaten und übermittelt die dekomprimierten Bilddaten an den LCD-Kontroller 150. Der LCD-Kontroller 150 veranlasst durch das Ansteuern des LCD-Modul 30 in Übereinstimmung mit den dekomprimierten Bilddaten, dass das gewünschte Bild auf dem LCD-Panel angezeigt wird.

Da wie oben beschrieben komprimierte Daten zwischen der Kontrolleinheit 100 und dem Bildprozessor 160, d. h. zwischen dem Abdeckungsgehäuse und dem Hauptgehäuse, übertragen werden, wird die Datenmenge, die zwischen dem Abdeckungsgehäuse und dem Hauptgehäuse übertragen werden muss, durch ein Komprimierungsverhältnis reduziert.

Währenddessen wird im Bildprozessor eine Bildkomprimierung durchgeführt, nachdem die Quantisierungsparameter vom Quantisierer des Komprimierungsmoduls angepasst wurden. Wenn das Komprimierungsverhältnis heruntergesetzt wird, um ein hochaufgelöstes Bild zu erhalten, wird der Quantisierungsparameter angepasst, um die Höhe des Quantisierungsschrittes zu reduzieren.

Demgegenüber wird, wenn das Komprimierungsverhältnis erhöht wird, um die Menge der Daten auf Kosten einer niedrigen Bildqualität zu reduzieren, der Quantisierungsparameter angepasst, um die Größe des Quantisierungsschrittes zu erhöhen.

Das Verfahren hat jedoch folgendes Problem: Da die Größe des Quantisierungsschrittes durchweg auf sowohl einfache als auch komplexe Bilder unter Verwendung desselben Quantisierungsparameters angewandt wird, werden beispielsweise Bilder, wenn hochaufgelöste Bilder erwünscht sind, ohne Berücksichtigung von gewichteten vom Grad der Bildkomplexität abhängigen Werten, komprimiert. Folglich wird, obwohl einfache Bilder leicht komprimiert werden können und deren Güte unter Verwendung eines niedrigen Komprimierungsverhältnis größten Teils erhalten werden kann, das niedrige Komprimierungsverhältnis nicht effizient auf einfache Bilder angewandt, so dass Speicherplatz verschwendet wird. Im Gegensatz dazu tritt ein Problem insofern auf, dass die Datenmenge nicht angemessen angepasst werden kann, da zusätzliche Daten nicht den komplexen Bildern zugewiesen werden können.

Sobald der Bildprozessor des Kameramoduls Informationen über den Grad der Bildkomplexität erhält und ein komplexes Bild anhand der erhaltenen Informationen komprimiert, ist es demzufolge notwendig zu ermöglichen, zusätzliche Daten an komplexe Bilder zuzuweisen.

Ein Verfahren zur Lösung des Problems mit konventioneller Technik wird in der koreanischen Patentanmeldung Nr. 2003-0001109 mit Titel: „Method of controlling digital camera for performing adaptive recompression" beschrieben. Diese koreanische Patentanmeldung betrifft nicht die Technologie für ein Kameramodul, das auf einem mobilen Datenübertragungsendgerät befestigt ist, sondern die Technologie für eine Digitalkamera.

Die zuvor genannte Patentanmeldung beschreibt ein Verfahren, bei dem ein Benutzer beim Aufnehmen von Fotos unterwegs, wenn der verfügbare Speicherplatz auf der Speicherkarte unzureichend ist, um neue Fotographien abzuspeichern, einige der Bilddaten, die schon auf der Memory-Karte (Speicher-Karte) abgespeichert sind, unter Verwendung eines höheren Komprimierungsverhältnis nochmals komprimiert, wodurch er die Größe der Bilddateien reduzieren kann, anstelle einige der Bilddateien auszuwählen und zu löschen.

Das offenbarte Verfahren ist ein Kontrollverfahren für eine Digitalkamera, bei dem Bilddaten unter Verwendung eines von mindestens drei verschiedenen Komprimierungsverhältnissen (1., 2. und 3. Komprimierungsverhältnis), das vom Benutzer ausgewählt wird, komprimiert und auf der Speicherkarte abgespeichert werden, wobei das Verfahren einen Überprüfungsschritt sowie erste und zweite Komprimierungsschritte umfasst.

Wenn der zur Verfügung stehende Speicherplatz auf der Speicherkarte unzureichend wird, wird im Überprüfungsschritt bestimmt, ob Bilddateien existieren, die mit dem ersten Komprimierungsverhältnis, d. h. einem niedrigen Komprimierungsverhältnis, oder mit dem zweiten Komprimierungsverhältnis, d. h. einem dazwischen liegenden Komprimierungsverhältnis, komprimiert worden sind.

Beim ersten Verfahrensschritt wird, wenn Bilddateien existieren, die mit dem ersten Komprimierungsverhältnis komprimiert worden sind, eine der Bilddateien, die mit dem ersten Komprimierungsverhältnis komprimiert worden ist, mit einem zweiten Komprimierungsverhältnis entsprechend der von dem Benutzer getroffenen Auswahl komprimiert und dann auf der Speicherkarte abgespeichert.

Beim dem zweiten Komprimierungsschritt wird, wenn keine Bilddaten existieren, die mit dem ersten Komprimierungsverhältnis komprimiert worden sind, und Bilddaten existieren, die mit dem zweiten Komprimierungsverhältnis komprimiert worden sind, eine der Bilddateien, die mit dem zweiten Komprimierungsverhältnis komprimiert worden ist, ausgewählt durch den Benutzer und mit dem dritten Komprimierungsverhältnis komprimiert, d. h. mit einem Komprimierungsverhältnis, das höher als das zweite Komprimierungsverhältnis ist, und dann auf der Speicherkarte abgespeichert.

Wie oben beschrieben wird im Stand der Technik der auf der Speicherkarte zur Verfügung stehende Speicherplatz entsprechend der Benutzerauswahl erhöht. Folglich ist es für einen Benutzer nicht erforderlich, die vorher abgespeicherten Bilddateien zu selektieren und zu löschen, wenn er unterwegs Fotographien aufnimmt und der zur Verfügung stehende Speicherplatz einer Speicherkarte nicht ausreicht, um ein weiteres Foto abzuspeichern. In diesem Fall können Komprimierungsverhältnisse, die durch den Benutzer für jeweilige Bilddateien festgesetzt worden sind, maximal erhalten werden.

Aus der JP 2000/201287 A ist ein Verfahren zum Betrieb einer elektronischen Standbildkamera bekannt, bei dem ein gesamtes Bild zunächst in mehrere Felder zerlegt wird. Von jedem dieser Felder werden dann die Hochfrequenzkomponenten berechnet und ein Focusschätzwert wird für jedes der Felder durch die Integration dieser Hochfrequenzkomponenten berechnet. Ausgehend von diesen Werten wird die Komprimierungsfähigkeit eines Bildes bestimmt.

Weiterhin ist aus der JP 06/303490 A eine Autofocussteuerung einer Kamera bekannt, die DCT transformierte Bilddaten verwendet.

Aus der JP 11/234669 A ist ebenfalls eine Bildkompressionsvorrichtung bekannt. Dort werden aus dem Bildsignal mittels eines Hochpassfilters Hochfrequenzkomponenten herausgefiltert, und daraus wird in einem Autofocus-Prozessor ein akkumulierter Focus-Wert gebildet und an einen Focusmotor im Objektiv zur Einstellung des Focus weitergegeben. Auch in dieser Schrift ist eine Anpassung der Bildkompression zur Erzeugung einer reduzierten Datenmenge vorgesehen.

Die JP 05/030467 A beschreibt eine weitere Variante zur Beeinflussung der Komprimierung.

Es ist jedoch nicht einfach, den Stand der Technik auf mobile Datenübertragungsendgeräte anzuwenden. Wenngleich sich der Stand der Technik auf mobile Datenübertragungsendgeräte bezieht, wird er nur in dem Fall, wenn der zur Verfügung stehende Speicherplatz auf der Speicherkarte unzureichend wird, verwendet. Zudem ist der Stand der Technik in der Weise nachteilig, dass er nicht den Grad der Komplexität jedes Bildes berücksichtigt.

Vor dem Hintergrund des Standes der Technik ist es Aufgabe der vorliegenden Erfindung eine Bildkomprimierungsvorrichtung und ein Verfahren bereitzustellen, womit Informationen über den Grad der Bildkomplexität durch die Bildverarbeitungseinheit des Kameramoduls erlangt werden und viele Daten im Fall der Komprimierung von komplexen Bildern zugewiesen werden.

Diese Aufgabe wird erfindungsgemäß gelöst wie in den unabhängigen Ansprüchen angegeben.

Weitere vorteilhafte Ausgestaltungen und Weiterbildungen, die jeweils einzeln angewandt oder beliebig miteinander kombiniert werden können, sind Gegenstand der jeweilig abhängigen Ansprüche.

Um den obigen Gegenstand auszuführen, stellt die vorliegende Erfindung eine Bildkomprimierungsvorrichtung umfassend eine Bildsensoreinheit zur Konvertierung eines optischen Signals in ein elektrisches Signal; eine Bildsignalprozessoreinheit (ISP-Einheit, image signal processor unit) zum Empfangen des elektrischen Signals von der Bildsensoreinheit und zur Ausgabe digitalisierter Bilddaten; einen Autofokus-Digitalsignalprozessor (Autofokus-DSP, autofocus digital signal processor) zum Empfangen der Bilddaten vom ISP und zum Extrahieren der Randkomponenten der Bilddaten und zur Berechnung eines Fokussierungswertes durch Integration der Randkomponentenwerte eines Fenstereinstellungsbereiches und zur Berechnung eines maximalen Fokussierungswertes, während und/oder indem die Fokussierlinse einer Linseneinheit angesteuert wird; und ein Komprimierungsmodul zum Empfangen des maximalen Fokussierungswertes von der Autofokus-DSP und zur Durchführung der Bildkomprimierung während und/oder indem die Bilddaten, die von der ISP-Einheit eingegeben werden, unter Verwendung eines Quantisierungsparameters, der entsprechend dem empfangenen maximalen Fokussierungswert bestimmt wird, quantisiert werden.

Darüber hinaus stellt die vorliegende Erfindung ein Bildkomprimierungsverfahren zur Verfügung umfassend den Verfahrensschritt 1 einer kombinierten Bildsensor und ISP-Einheit zur Konvertierung eines optischen Signals in ein elektrisches Signal und zur anschließend Ausgabe digitalisierter Bilddaten; den Verfahrensschritt 2 eines Autofokus-DSP zum Empfangen der Bilddaten von der ISP-Einheit und zum Extrahieren der Randkomponenten und zur Berechnung von Fokussierungswerten durch Integration der Randkomponentenwerte eines Fenstereinstellungsbereiches; den Verfahrensschritt 3 des Autofokus-DSP zur Berechnung des maximalen Fokussierungswertes, indem und/oder während die Fokussierlinse einer Linseneinheit angesteuert wird; und den Verfahrensschritt 4 eines Komprimierungsmoduls zum Empfangen des maximalen Fokussierungswertes von der Autofokus-DSP und zur Durchführung der Bildkomprimierung, indem und/oder während die Bilddaten, die von der ISP-Einheit eingegeben werden, unter Verwendung eines Quantisierungsparameters, der entsprechend dem empfangenen maximalen Fokussierungswert bestimmt wird, quantisiert werden.

Weitere vorteilhafte Ausgestaltungen und Einzelheiten, die jeweils einzeln angewandt oder in geeigneter Weise kombiniert werden können, werden anhand der folgenden Zeichnungen, welche die Erfindung nicht einschränken sondern lediglich exemplarisch illustrieren sollen, näher erläutert. Es zeigen schematisch:

Ein Blockdiagramm zur Veranschaulichung des Aufbaus eines konventionellen Kameratelefons, bei dem ein Bildprozessor in einem Abdeckungsgehäuse bereitgestellt ist;

ein Blockdiagramm zur Veranschaulichung des Aufbaus eines konventionellen Kameratelefons, bei dem ein auf verbesserter Technologie basierender Bildprozessor in einem Abdeckungsgehäuse bereitgestellt ist;

ein Blockdiagramm zur Veranschaulichung des Aufbaus einer Bildkomprimierungsvorrichtung, die entsprechend einem Gegenstand der vorliegenden Erfindung eine vom Grad der Bildkomplexität abhängige variable Quantisierungsgröße hat;

ein Blockdiagramm zur Veranschaulichung des Aufbaus eines Autofokus-Digitalsignalprozessors aus ;

ein Blockdiagramm zur Veranschaulichung des inneren Aufbaus eines optischen Detektionsmoduls aus ;

ein Blockdiagramm zur Veranschaulichung des inneren Aufbaus eines Komprimierungsmoduls aus ;

ein Graph zur Veranschaulichung der Fokussierungswerte entsprechend den Bewegungslängen der Linse;

eine Darstellung zur Illustration der berechneten Werte der Bildformatierungseinheit aus ;

eine Darstellung zur Veranschaulichung eines in Blöcke unterteilten Bildsignals, das in die Frequenzkonvertierungseinheit aus eingegeben wird;

eine Darstellung zur Veranschaulichung der Verteilung der diskreten Kosinusformationskoeffizienten, die von der Frequenzkonvertierungseinheit aus ausgegeben werden;

eine Darstellung zur Veranschaulichung der Ausgabewerte des Quantisierers aus ausgegebenen Werte; und

ein Flussdiagramm zur Illustration eines Bildkomprimierungsverfahrens gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung.

Eine bevorzugte Ausführungsform der vorliegenden Erfindung wird im Folgenden detailliert mit Verweis auf die beigefügten Zeichnungen beschrieben.

ist ein Blockdiagramm zur Veranschaulichung des Aufbaus einer Bildkomprimierungsvorrichtung entsprechend einer bevorzugten Ausführungsform der vorliegenden Erfindung. Die Bildkomprimierungsvorrichtung umfasst ein Kameramodul 310 zum Extrahieren eines Fokussierungswertes und ein Komprimierungsmodul 320 zum Komprimieren eines Bildes durch das Einstellen eines variablen Quantisierungsparameters, in Abhängigkeit vom Fokussierungswert, welcher durch das Kameramodul 310 extrahiert wird, und anschließend zur Durchführung der Quantisierung.

Das Kameramodul 310 umfasst eine Linseneinheit 311, eine kombinierte Bildsensor- und Bildsignalprozessor-(ISP)-Einheit 312, einen Autofokus-Digitalsignalprozessor-(DSP) 310, einen Stellgliedtreiber (actuator driver) 314 und ein Stellglied (actuator) 315. Obwohl die kombinierte Bildsensor- und ISP-Einheit 312 in diesem Fall einen einheitlichen Aufbau bilden, können der kombinierte Bildsensor- und Bildsignalprozessor 312 in einen Bildsensor und einen Bildsignalprozessor aufgetrennt werden.

Die Linseneinheit 311 umfasst eine Zoomlinse und eine Fokussierlinse. Die Zoomlinse ist eine Linse zur Vergrößerung eines Bildes und die Fokussierlinse ist eine Linse zum Fokussieren eines Bildes.

Die kombinierte Bildsensor und ISP-Einheit 312 verwendet einen Ladungsspeicherbaustein-Bildsensor (CCD-Bildsensor, charge coupled device image sensor) oder einen CMOS-Halbleiter-Bildsensor (CMOS, complimentary metal Oxide semiconductor) zur Konvertierung eines optischen Signals in ein elektrisches Signal. Ein ISP verbessert die Bildqualität durch Konvertierung von Bilddaten, um die menschlichen visuellen Fähigkeiten zu berücksichtigen, und gibt Bilddaten mit verbesserter Bildqualität aus.

Der CCD-Bildsensor wird gebildet durch die Anordnung einer Mehrzahl von metallischen Elektroden einer sehr kleinen Größe auf einen Silikonwafer. Der CCD-Bildsensor ist zusammengesetzt aus einer Mehrzahl von Photodioden und wandelt ein optisches Signal in ein elektrisches Signal, wenn das optische Signal auf eine Mehrzahl von Photodioden gelenkt wird.

Da der CCD-Bildsensor in den pixelentsprechenden Photodioden generierte Ladungen an einen Verstärker durch vertikale und horizontale Transfer-CCDs unter Verwendung einer hohen Potentialdifferenz übermittelt, ist er durch einen hohen Energieverbrauch gekennzeichnet, jedoch ist er robust gegenüber Rauschen und führt eine gleichmäßige Verstärkung durch.

Im Gegensatz dazu wird der CMOS-Bildsensor durch die Anordnung von Photodioden und Verstärkern für einzelne Pixel gebildet. Der CMOS-Bildsensor hat einen niedrigen Energieverbrauch und kann in einer kleinen Größe hergestellt werden, jedoch weist er den Nachteil auf, dass seine Bildqualität niedrig ist.

Die CCD- und CMOS-Bildsensoren-Typen variieren und ihre ISP-Schnittstellen und Charakteristika sind entsprechend dem herstellenden Betrieb unterschiedlich. Dementsprechend wird ein Bildsignalprozessor für einen speziellen Sensor ausgelegt und hergestellt.

Der Bildsignalprozessor durchläuft Bildverarbeitung wie Farbfilterfeldinterpolation, Farbmatrizenverarbeitung, Farbkorrektur und Farbverstärkung.

In diesem Fall besteht ein Signal, das als das Synchronisationssignal eines jeden Bildrahmens (image frame) verwendet wird, aus einem vertikalen Synchronisationssignal Vsync, das den Anfang des Bildrahmens anzeigt, einem horizontalen Synchronisationssignal Hsync, das den aktuellen Zustand eines Bildes in jeder Zeile innerhalb eines Bildrahmens anzeigt, und einem Pixeltaktsignal pixel_clock, das die Synchronisation der Pixeldaten anzeigt. Pixeldaten werden hinsichtlich eines tatsächlichen Bildes in Form von pixel_data gebildet.

Darüber hinaus konvertiert die kombinierte Bildsensor- und ISP-Einheit 312 bildverarbeitete Daten in ein CCIR656- oder CCIR601-Format (YUV Raum) um, empfängt ein Haupttaktgebersignal (master clock signal) von einem Mobiltelefonzentralrechner 330 und gibt dann die Bilddaten Y/Cb/Cr oder R/G/B an den Mobiltelefonzentralrechner 330 zusammen mit einem vertikalen Synchronisationssignal Vsync, einem horizontalen Synchronisationssignal Hsync und Pixel_Clock aus.

Wie in gezeigt, ist der Autofokus-DSP 313 zusammengesetzt aus einem optischen Detektionsmodul (ODM, optical detection module) 410 und einer zentralen Verarbeitungseinheit (CPU, central processing unit) 420 zur Durchführung eines Autofokus-Algorithmus auf Basis der vom ODM 410 resultierenden Wert.

Wie in gezeigt, ist in diesem Fall der ODM 410 aus einem Hochbandpassdigitalfilter 411, einer Integrationsstufe 412 und einer Fenstereinstellungseinheit (window setting unit) 413 zusammengesetzt.

Der Autofokus-DSP 313 empfängt das V-Signal der Bilddaten, das von der kombinierten Bildsensor- und ISP-Einheit 312 übertragen wird und gibt es durch den Digitalfilter 411, so dass nur eine Randkomponente eines Bildes extrahiert wird.

In diesem Fall empfängt die Integrationsstufe 412 hinsichtlich des Fenstereinstellungsbereiches des Bildes die Anfangs- und Endpositionen eines Fensters von der Fenstereinstellungseinheit 413 und integriert die Ausgabewerte des Digitalfilters 411 hinsichtlich eines Bildes innerhalb des Fensters. Ein durch Integration erhaltener Fokussierungswert wird als Referenzinformation zum Einstellen des Fokus in dem Kameramodul verwendet.

Im Allgemeinen wird der Fokus für ein unbewegtes Bild durch das Bewegen der Linseneinheit 311 eingestellt. Für das gleiche Bild wird der Fokussierungswert hoch, wenn das Bild sich im Fokus befindet bzw. scharf ist. Im Gegensatz dazu wird der Fokussierungswert niedrig, wenn das Bild sich außerhalb des Fokus befindet bzw. unscharf ist.

Mit Bezug auf wird, wenn dasselbe Bild in eine Kamera eingegeben wird, ein niedriger Fokussierungswert generiert, wenn sich das Bild außerhalb des Fokus befindet bzw. unscharf ist (siehe Bereiche „A" oder „C") und ein hoher Fokussierungswert generiert, wenn sich das Bild im Fokus befindet bzw. scharf ist (siehe Bereich „B"). Während dessen ist der Fokussierungswert für ein komplexes Bild in der Bereich „B" höher und für ein einfaches Bild ist der Fokussierungswert in der Bereich „B" niedriger. Im Allgemeinen ist eine Kamera auf das Zentrum eines Bildes fokussiert und ein Fenster wird auf Basis des Zentrums platziert.

Um den maximalen Fokussierungswert eines Bildes zu finden, wird die Linseneinheit 311 durch den Betrieb des Stellglieds 315 unter Verwendung des Stellgliedstreibers 314 bewegt. Die Stelle, an welcher der Fokussierungswert, wie in gezeigt, maximal ist, muss durch Bewegen der Linseneinheit 311 festgestellt werden.

Das Kameramodul bestimmt, ob die Linseneinheit 311 vorwärts oder rückwärts bewegt werden soll, und kontrolliert den Stellgliedstreiber 314 durch Ausführung eines Algorithmus zur Feststellung des maximalen Fokussierungswertes in der CPU 420.

Während dessen komprimiert das Komprimierungsmodul 320 die von der kombinierten Bildsensor und ISP-Einheit 312 empfangenen Bilddaten und gibt die komprimierten Bilddaten aus. Das interne Blockdiagramm des Komprimierungsmoduls 320 wird in gezeigt. Das Komprimierungsmodul 320 umfasst eine Bildformatierungseinheit 510, eine Frequenzkonvertierungseinheit 515, eine Umstellungseinheit 520, eine Quantisierungseinheit 525 und einen variablen Längenkodierer 530.

Die Bildformatierungseinheit 510 empfängt die Ausgabe des Bildsignalprozessors und gibt pixel_data in YCbCr-4:2:2- oder YCbCr-4:2:0-Form (was CCIR656- oder CCIR601-Format entspricht) und die vertikalen und horizontalen Signale eines Rahmens (frame) aus, so dass eine geeignete Eingabe zur späteren Bildverarbeitung zur Verfügung gestellt wird.

Zu diesem Zweck führt die Bildformatierungseinheit 510 eine Farbkoordinatenkonvertierung durch, d. h. sie konvertiert RGB-Format-Daten in YCbCr- oder YUV-Format.

Beispielsweise werden Formeln zur CCIR-601-YCbCr-Farbraumkonvertierung wie folgt ausgedrückt: Y = (77R + 150G + 29B)/256 Range: 16~235 Cb = (–44R – 87G + 131B)/256 + 128 Range: 16~240 Cr = (131R – 110G – 21B)/256 + 128 Range: 16~240

Die Bildformatierungseinheit 510 führt eine Farbwertformatkonvertierung der wie oben beschrieben konvertierten YCbCr-Formatdaten durch, so dass YCbCr-4:4:4-Formatdaten in YCbCr-4:2:2-Formatdaten oder YCbCr-4:2:0-Formatdaten konvertiert werden und dann ausgegeben werden. zeigt YCbCr-Formatdaten, die ausgegeben werden, wenn die Zahl der Pixel eines Rahmens 640×480 beträgt.

In den 4:2:0-Formatdaten der wird ein Y-Signal in der Form von 640×480 Pixeln in der Reihenfolge der zugewiesenen Referenznummern ausgegeben, ein Cb-Signal wird in der Form von 320×240 Pixeln, die im Vergleich zum Y-Signal in jeder Dimension halbiert werden, ausgegeben und ein Cr-Signal wird auch in der Form von 320×240 Pixeln, die im Vergleich zum Y-Signal in jeder Dimension halbiert werden, ausgegeben.

Die Farbwertformatkonvertierung der Bildformatierungseinheit 510 basiert auf einer niedrigen, räumlichen Empfindlichkeit der Augen gegenüber Farben. Studien haben bewiesen, dass Farbkomponenten-subsampling unter Verwendung von vier Faktoren in horizontalen und vertikalen Richtungen angemessen sind. Folglich kann ein Bildsignal durch vier Leuchtdichtekomponenten (luminance components) und zwei Farbwertkomponenten (chrominance components) dargestellt werden.

Darüber hinaus umfasst die Bildformatierungseinheit 510 ein Frame Memory, insbesondere einen Datenübertragungsblockspeicher, und übermittelt die Daten eines zweidimensionalen 8×8-Blocks, indem und/oder während die Speicheradressen der Y/Cb/Cr-Pixeldaten, die in einer horizontalen Richtung eingegeben werden, variiert werden. Insbesondere übermittelt die Bildformatierungseinheit 510 ein Y/Cb/Cr-Packet basierend auf einer Makroblockeinheit, die durch eine Mehrzahl, insbesondere Vielzahl, von 8×8-Blöcken definiert ist.

Mit anderen Worten, die Bildformatierungseinheit 510 unterteilt, insbesondere blockt, das Eingabebildsignal in Übereinstimmung mit einem Einheitsbereich (einem Block), der aus einer vorbestimmten Zahl von Pixeln zusammengesetzt ist, in Blöcke und gibt das in Blöcke unterteilte Bildsignal aus. In diesem Fall stellt der Block einen Bereich mit einer vorbestimmten Größe in einem Bild dar, der eine Einheit eines Kodierungsprozess von Bildsignalen ist und aus einer vorbestimmten Zahl von Pixeln besteht.

Ein Konvertierungsbeispiel der Bildformatierungseinheit 510 wird in gezeigt, in der ein Eingabebildsignal in eine Mehrzahl, insbesondere Vielzahl, von 8×8-Blöcken unterteilt wird. In diesem Fall können 8 Bits als Wert jedes 8×8-Blocks genutzt werden.

Anschließend frequenztransformiert die Frequenzkonvertierungseinheit 515 die in Blöcke unterteilten Bildsignale unter Verwendung einer diskreten Kosinustransformation (DCT, discrete cosine transform) und gibt dann eine Frequenzkomponente aus, die zu jedem Block korrespondiert.

Die im obigen Fall benutzte DCT teilt unregelmäßig auf dem Bildschirm verteilte Pixelwerte durch Transformation der Pixelwerte in verschiedene Frequenzkomponenten, die sich von einer Niedrigfrequenzkomponente bis hin zu einer Hochfrequenzkomponente erstrecken, auf und konzentriert die Energie eines Bildes auf die Niedrigfrequenzkomponente.

DCT, das sich als Kerntechnik in vielen internationalen Standards, wie H.261, JPEG und MPEG etabliert hat, wird basierend auf einem 8×8-großen Block ausgeführt. Das Grundschema von DCT beruht auf dem Raumkonzept und DCT ist eine Kerntechnik von H.261, JPEG und MPEG, die multimediabezogene internationale Standards sind.

Das Grundschema von DCT teilt Daten mit einer hohen räumlichen Korrelation in eine Mehrzahl, insbesondere Vielzahl, von Frequenzkomponenten auf, die sich von einer Niedrigfrequenzkomponente zu einer Hochfrequenzkomponente erstrecken, unter Verwendung von Orthogonaltransformation auf und quantisiert einzelne Frequenzkomponenten unterschiedlich.

DCT verschiebt die Energie der Blöcke, so dass der größte Teil der Energie auf die Niedrigfrequenzkomponenten in einer Frequenzdomäne konzentriert wird und sich somit den Komprimierungseffekt erhöht. zeigt die Anordnung von DCT-Koeffizienten im Fall eines 8×8-Blocks, in welchem DC eine Niedrigfrequenzkomponente bezeichnet und ac01~ac77 Hochfrequenzkomponenten bezeichnen.

Die Umstellungseinheit 520 stellt die Eingabedaten von Niedrigfrequenzkomponenten zu Hochfrequenzkomponenten um und gibt die umgestellten Daten aus. Mit anderen Worten, die DCT-Koeffizienten werden unter Durchführung einer Zick-Zack-Abfrage entlang der gepunkteten Linie in in die Reihenfolge ac01, ac10, ac20 ... ac77 umgestellt.

Danach werden die umgestellten Daten in die Quantisierungseinheit 525 eingegeben und darin quantisiert. Der Quantisierungsparameter variiert entsprechend den einzelnen Blöcken in Bezug auf die einzelnen DCT-Koeffizienten.

In diesem Fall ist der Quantisierungsparameter ein Parameter, der die Größe des Quantisierungsschritts darstellt und der Quantisierungsschritt ist nahezu proportional zu dem Quantisierungsparameter. Das heißt, wenn der Quantisierungsparameter groß ist, wird der Quantisierungsschritt grob, so dass der Betrag der Quantisierungskomponente klein wird. Dementsprechend, da der Nullablauf (zero run) (die Länge von Komponenten, kontinuierlich angeordnet sind und einen Nullwert haben) der Quantisierungskomponente verlängert wird, sinkt der Betrag eines Niveauwertes.

Im Gegensatz dazu wird der Quantisierungsschritt fein, wenn der Quantisierungsparameter klein ist, und somit der Betrag einer Quantisierungskomponente groß wird. Dementsprechend wird der Nullablauf (zero run) verkürzt, so dass der Betrag des Niveauwertes groß.

Im Allgemeinen stellen Hochfrequenzkomponenten aufgrund des menschlichen Wahrnehmungsvermögens die Feinanteile eines Bildes dar. Da der Verlust einiger Hochfrequenzkomponenten kaum einen Effekt auf die Bildqualität im Wertbereich hat, in der Weise, dass das menschliche Auge ihn wahrnehmen könnte, werden Niedrigfrequenzkomponenten, die viele Informationen enthalten, mit einer herabgesetzten Quantisierungsgröße genau quantisiert, aber Hochfrequenzkomponenten werden mit einer erhöhten Quantisierungsgröße quantisiert, so dass die Komprimierungseffizienz unter nur geringem Verlust der Bildqualität maximiert werden kann.

Die vorliegende Erfindung empfängt den Quantisierungsparameter von einer Quantisierungsparameterbestimmungseinheit 535 und benutzt diese. Die Quantisierungsparameterbestimmungseinheit 535 empfängt einen Fokussierungswert und bestimmt den Quantisierungsparameter in Abhängigkeit vom Eingabefokussierungswert.

Das Verfahren zur Bestimmung des Quantisierungsparameters durch die Quantisierungsparameterbestimmungseinheit 535 variiert mit dem Fokussierungswert. Da ein großer Fokussierungswert bedeutet, dass ein zu quantisierendes Bild komplex ist, wird eine Feinquantisierung mit einem herabgesetzten Quantisierungsparameter durchgeführt. Im Gegensatz dazu wird, da ein kleiner Fokussierungswert bedeutet, dass ein zu quantisierendes Bild einfach ist, eine Grobquantisierung mit einem erhöhten Quantisierungsparameter durchgeführt.

Wie oben beschrieben weisen die in der Quantisierungseinheit 525 quantisierten Daten viele Daten, die in „0" umgewandelt werden, auf und werden in einen variablen Längenkodierer 539 eingegeben und dann darin in einen komprimierten Code umgewandelt. Zum Beispiel zeigt quantisierte DCT-Koeffizienten, umfassend DC, ac01, ac10, 0, 0, 0, ac03, 0, 0, ac31, 0, ac50, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, ac52, ..., das heißt, DC, ac01, ac10, drei Nullen, ac03, zwei Nullen, ac31 und eine Null ac50, vierzehn Nullen, ....

Der variable Längenkodierer 530 ordnet einen Kode den Quantisierungskomponenten zu, wobei er die numerischen Werte, welche die Größen der Quantisierungskomponenten repräsentieren, und eine Kodetabelle, welche die Übereinstimmung zum Kode repräsentiert, verwendet und die Quantisierungskomponenten individueller Blöcke in einen kodierten Datenstrom umwandelt.

ist ein Flussdiagramm zur Illustration eines Bildkomprimierungsverfahrens gemäß einem Gegenstand der vorliegenden Erfindung.

Die kombinierte Bildsensor- und ISP-Einheit 312 wandelt ein optisches Signal in ein elektrisch analoges Signal um, bearbeitet das analoge Signal um hochfrequentes Rauschen zu unterdrücken und die Amplitude anzupassen an, wandelt das analoge Signal in ein digitales Signal um und gibt das digitale Signal im Verfahrensschritt S110 aus.

Danach extrahiert der ODM 410 des Autofokus-DSP 313 die Randkomponenten eines Bildes und erhält anschließend den Fokussierungswert durch Akkumulation von Werten innerhalb des Fensterbereiches im Verfahrensschritt S112.

Danach empfängt die Quantisierungsparameterbestimmungseinheit 535 den Fokussierungswert, bestimmt den Quantisierungsparameter entsprechend des Eingabefokussierungswertes und gibt den Quantisierungsparameter im Verfahrensschritt S114 aus.

In diesem Fall variiert das Verfahren zur Bestimmung des Quantisierungsparameters durch die Quantisierungsparameterbestimmungseinheit 535 mit dem Fokussierungswert, wie oben beschrieben. Da ein großer Fokussierungswert bedeutet, dass ein zu quantisierendes Bild komplex ist, wird eine Feinquantisierung mit verminderten Quantisierungsparametern durchgeführt. Im Gegensatz dazu wird, da ein kleiner Fokussierungswert bedeutet, dass ein zu quantisierendes Bild einfach ist, eine Grobquantisierung mit erhöhten Quantisierungsparametern durchgeführt.

Danach komprimiert das Komprimierungsmodul 320 die Bilddaten, die von der kombinierten Bildsensor- und ISP-Einheit 312 eingegeben werden, und gibt Bilddaten aus. In diesem Fall führt die Quantisierungseinheit 525 des Komprimierungsmoduls 320 die Bildkomprimierung durch indem und/oder während der Durchführung der Quantisierung unter Verwendung des Wertes, der von der Quantisierungsparameterbestimmungseinheit 535 als Quantisierungsparameter übermittelte wird.

Wie oben beschrieben umfasst die Bildkomprimierungsvorrichtung entsprechend der vorliegenden Erfindung die Kamera und Komprimierungsmodule in dem Autofokussystem und kann daher komprimierte Daten an eine Bildvorrichtung, wie ein Mobiltelefon, übermitteln. Darüber hinaus bestimmt die Bildkomprimierungsvorrichtung, wenn die Bildkomprimierung durchgeführt wird, ob ein zu komprimierendes Bild komplex oder einfach ist. Dies geschieht unter Verwendung von Bildinformationen einer zur Durchführung der automatischen Fokuskomprimierung genutzten Bildverarbeitungsvorrichtung, wodurch die Komprimierung von komplexen und einfachen Bildern unterschiedlich ausgeführt wird.

Obwohl die bevorzugten Ausführungsformen der vorliegenden Erfindung für veranschaulichende Zwecke offenbart wurden, ist es dem Fachmann klar, dass verschiedene Modifikationen, Additionen und Substitutionen möglich sind, ohne von dem in den beiliegenden Ansprüchen definierten Umfang und Erfindungsgedanken abzuweichen.

Die Erfindung betrifft eine Bildkomprimierungsvorrichtung und ein Verfahren für ein mobiles Datenübertragungsendgerät. Die Bildkomprimierungsvorrichtung umfasst eine Bildsensoreinheit, einen Bildsignalprozessor (ISP, image signal processor), einen Autofokusdigitalsignalprozessor (Autofokus-DSP, autofocus digital signal processor) und ein Komprimierungsmodul. Die Bildsensoreinheit wandelt ein optisches Signal in ein elektrisches Signal um. Die ISP-Einheit empfängt das elektrische Signal von der Bildsensoreinheit und gibt digitalisierte Bilddaten aus. Der Autofokus-DSP empfängt die Bilddaten von dem ISP, extrahiert Randkomponenten von den Bilddaten, berechnet einen Fokussierungswert durch Integration der Randkomponentenwerte eines Fenstereinstellungsbereiches und berechnet einen maximalen Fokussierungswert, indem und/oder während die Fokussierlinse einer Linseneinheit angesteuert wird. Das Komprimierungsmodul empfängt den maximalen Fokussierungswert von dem Autofokus-DSP und führt die Bildkomprimierung durch, indem und/oder während die Bilddaten, die von der ISP-Einheit eingegeben werden, unter Verwendung eines entsprechend dem empfangenen maximalen Fokussierungswert bestimmten Quantisierungsparameters quantisiert werden.


Anspruch[de]
Bildkomprimierungsvorrichtung, umfassend

eine Bildsensoreinheit zur Konvertierung eines optischen Signals in ein elektrisches Signal;

eine Bildsignalprozessoreinheit zum Empfangen des elektrischen Signals von der Bildsensoreinheit und zur Ausgabe der digitalisierten Bilddaten;

einen Autofokus-Digitalsignalprozessor (313) zum Empfangen der Bilddaten von der Bildsignalprozessoreinheit und zum Extrahieren der Randkomponenten der Bilddaten und zur Berechnung eines Fokussierungswertes durch Integration der Randkomponentenwerte eines Fenstereinstellungsbereiches und zur Berechnung eines maximalen Fokussierungswertes, während eine Fokussierlinse einer Linseneinheit (311) angesteuert wird; und

ein Komprimierungsmodul (320) zum Empfangen des maximalen Fokussierungswertes vom Autofokus-Digitalsignalprozessor (313) und zum Durchführen der Bildkomprimierung, während die Bilddaten, die von der Bildsignalprozessoreinheit eingegeben werden, unter Verwendung eines Quantisierungsparameters, der in Abhängigkeit von dem empfangenen maximalen Fokussierungswert bestimmt wird, quantisiert werden, wobei das Komprimierungsmodul (320) umfasst:

eine Frame Memory aufweisende Bildformatierungseinheit (510) zur Klassifizierung der Eingabebilddaten entsprechend Rahmen, wenn die Bilddaten eingegeben werden, und zum Unterteilen jedes klassifizierten Rahmens in eine Mehrzahl von Blöcken vorbestimmter Größe und zur Ausgabe der in Blöcke unterteilten Daten;

eine diskrete Kosinustransformationseinheit (515) zur Durchführung einer diskreten Kosinustransformation der von der Bildformatierungseinheit (510) empfangenen, in Blöcke unterteilten Bilddaten und zur Ausgabe der diskreten Kosinustransformationskoeffizienten;

eine Umstellungseinheit (520) zur Umstellung der diskreten Kosinustransformationskoeffizienten, die von der diskreten Kosinustransformationseinheit (515) empfangen werden, von einer Niederfrequenzkomponente zu einer Hochfrequenzkomponente und zur Ausgabe der umgestellten diskreten Kosinustransformationskoeffizienten;

eine Quantisierungseinheit (525) zur Durchführung der Quantisierung der umgestellten diskreten Kosinustransformationskoeffizienten, die von der Umstellungseinheit (520) eingegeben werden, wobei die Quantisierungswerte auf die umgestellten Kosinustransformationskoeffizienten gemäß den Fokussierungswerten, die von dem Autofokus-Digitalsignalprozessor (313) empfangen werden, angewendet werden; und

einen variabler Längenkodierer (530) zur Durchführung variabler Längenkodierung auf quantisierte diskrete Kosinustransformationskoeffizienten unter Verwendung der Quantisierungseinheit (525) und zur Ausgabe der variabellängenkodierten, quantisierten, diskreten Kosinustransformationskoeffizienten.
Bildkomprimierungsvorrichtung nach Anspruch 1, wobei der Autofokus-Digitalsignalprozessor (313) umfasst:

ein optisches Detektionsmodul (410) zum Empfangen der Bilddaten von der Bildsignalprozessoreinheit und zum Extrahieren der Randkomponenten von den Bilddaten und zur Berechnung der Fokussierungswerte durch Integration der Randkomponentenwerte des Fenstereinstellungsbereiches; und

eine Zentralprozessoreinheit (CPU) (420) zum Empfangen des Fokussierungswertes von dem optischen Detektionsmodul (410) und zur Berechnung des maximalen Fokussierungswertes, während die Fokussierlinse einer Linseneinheit (311) angesteuert wird, und zur Durchführung der automatischen Fokuseinstellung.
Bildkomprimierungsvorrichtung nach Anspruch 2, wobei das optische Detektionsmodul (410) umfasst:

einen Hochbandpassfilter (411) zum Empfangen der Bilddaten von der Bildsignalprozessoreinheit und zum Extrahieren der Randkomponenten des Fenstereinstellungsbereiches;

eine Integrationsstufe (412) zum Empfangen der extrahierten Randkomponenten von dem Hochbandpassfilter (411) und zur Integration der extrahierten Randkomponenten von dem Fenstereinstellungsbereich und zur Ausgabe der Integrationsergebnisse; und

eine Fenstereinstellungseinheit (413) zum Übertragen der Anfangs- und Endadressen des Fenstereinstellungsbereiches, der durch die Integrationsstufe (412) eingestellt wird.
Ein Bildkomprimierungsverfahren umfassend:

den Verfahrensschritt 1 einer kombinierte Bildsensor- und Bildsignalprozessoreinheit (312) zur Konvertierung eines optisches Signal in ein elektrisches Signal und anschließend zur Ausgabe von digitalisierten Bilddaten;

den Verfahrensschritt 2 eines Autofokus-Digitalsignalprozessor (313) zum Empfangen der Bilddaten von der Bildsignalprozessoreinheit und zum Extrahieren der Randkomponenten und zur Berechnung der Fokussierungswerte durch Integration der Randkomponentenwerte eines Fenstereinstellungsbereiches,

den Verfahrensschritt 3 eines Autofokus-Digitalsignalprozessor (313) zur Berechnung eines maximalen Fokussierungswertes, während die Fokussierlinse einer Linseneinheit (311) angesteuert wird; und

den Verfahrensschritt 4 eines Komprimierungsmoduls (320) zum Empfangen des maximalen Fokussierungswertes von dem Autofokus-Digitalsignalprozessor (313) und zur Durchführung der Bildkomprimierung, während die Bilddaten, die von der Bildsignalprozessoreinheit eingegeben werden, unter Verwendung eines Quantisierungsparameters quantisiert werden, der entsprechend zu dem empfangenen maximalen Fokussierungswert bestimmt wird, wobei der Verfahrensschritt 4 umfasst:

den Verfahrensschritt 4-1 einer Bildformatierungseinheit (510) eines Komprimierungsmoduls (320), das mit einem Frame Memory ausgestattet ist, zur Klassifizierung der eingegebenen Bilddaten gemäß den Rahmen, wenn die Bilddaten eingegeben werden, und zum Unterteilen jedes klassifizierten Rahmens in eine Mehrzahl von Blöcken einer vorbestimmten Größe und zur Ausgabe der in Blöcke unterteilten Daten;

den Verfahrensschritt 4-2 einer diskreten Kosinustransformationseinheit (515) zur Durchführung einer diskreten Kosinustransformation der von der Bildformatierungseinheit (510) empfangenen, in Blöcke unterteilten Bilddaten und zur Ausgabe diskreter Kosinustransformationskoeffizienten;

den Verfahrensschritt 4-3 einer Umstellungseinheit (520) zur Umstellung der diskreten Kosinustransformationskoeffizienten, die von der diskreten Kosinustransformationseinheit empfangen werden, von einer Niederfrequenzkomponente zu einer Hochfrequenzkomponente und zur Ausgabe der umgestellten diskreten Kosinustransformationskoeffizienten;

den Verfahrensschritt 4-4 einer Quantisierungseinheit (525) zur Durchführung der Quantisierung der umgestellten diskreten Kosinustransformationskoeffizienten, die von der Umstellungseinheit eingegeben werden, während Quantisierungswerte auf die umgestellten diskreten Kosinustransformationskoeffizienten entsprechend den Fokussierungswerten angewendet werden, die von dem Autofokus-Digitalsignalprozessor (313) empfangen werden; und

den Verfahrensschritt 4-5 eines variablen Längenkodierers (530) zur Durchführung einer variablen Längenkodierung der quantisierten, diskreten Kosinustransformationskoeffizienten unter Verwendung der Quantisierungseinheit (525) und zur Ausgabe der variablen, längenkodierten, quantisierten, diskreten Kosinustransformationskoeffizienten.
Das Bildkomprimierungsverfahren nach Anspruch 4, wobei Verfahrensschritt 2 umfasst:

den Verfahrensschritt 2-1 eines optischen Detektionsmoduls (410) eines Autofokus-Digitalsignalprozessor (313) zum Empfangen der Bilddaten von der kombinierten Bildsensor- und Bildsignalprozessoreinheit (312) und zum Extrahieren der Randkomponenten des Fenstereinstellungsbereiches; und

den Verfahrensschritt 2-2 des optischen Detektionsmoduls (410) zur Berechnung der Fokussierungswerte durch Integration der Randkomponentenwerte des Fenstereinstellungsbereiches.






IPC
A Täglicher Lebensbedarf
B Arbeitsverfahren; Transportieren
C Chemie; Hüttenwesen
D Textilien; Papier
E Bauwesen; Erdbohren; Bergbau
F Maschinenbau; Beleuchtung; Heizung; Waffen; Sprengen
G Physik
H Elektrotechnik

Anmelder
Datum

Patentrecherche

  Patente PDF

Copyright © 2008 Patent-De Alle Rechte vorbehalten. eMail: info@patent-de.com