21.09.2006 • Security, Videosicherheit, Videoüberwachung

Trends in der intelligenten Bildanalyse-Technik

Die Videosensorik ist Schlüsselelement in Sicherheitsanwendungen, da der menschliche Beobachter die zunehmende Anzahl der Videokanäle ohne Hilfsmittel kaum noch bearbeiten kann. Neue, digitale Produkt- und Systemkonzepte mit intelligenten Video Codecs, intelligenten IP-Kameras und Netzwerk-Video-Recordern erlauben es, die Anlagenfunktionalität optimal auf den Bediener und das Umfeld abzustimmen. Die Wirksamkeit der Sicherheitsanlage wird optimiert, indem durch hochwertige und zuverlässige Bildanalyse potentielle Gefahrensituationen alarmiert, automatisch markiert und angezeigt werden. Das Sicherheitspersonal wird damit entlastet und kann die Aufmerksamkeit voll auf die dargestellte Situation lenken und entsprechende Entscheidungen treffen.

Pro-aktive Sicherheit im Bereich von Videoanwendungen bedeutet Vorfälle zu antizipieren, um damit im Vorfeld zielgerichtete Interventionen einzuleiten. Hierzu werden intelligente Videoanalyseverfahren benötigt, die ohne Ermüdungserscheinungen permanent die zur Verfügung stehenden Kamerasignale auf relevante Objekte untersuchen und den Beobachter von der Flut von Informationen entlasten. Ein Experiment in den USA zeigte, dass ein menschlicher Beobachter von zwei Monitoren mit automatischer Bildumschaltung nach zwölf Minuten bis zu 45 Prozent aller Aktivitäten in den Szenen übersieht. Nach 22 Minuten sind es schon bis zu 95 Prozent. Der Bedarf an intelligenter Bildanalyse in videobasierten Sicherheitssystemen wächst deshalb immer stärker. Eine aktuelle Studie des englischen Marktforschungsunternehmens IMS Research prognostiziert ein Marktwachstum von heute ca. 100 Millionen US-Dollar auf mehr als 800 Millionen US-Dollar im Jahr 2010. Dieser Nachfragesog und der Trend hin zu vollständig digitalen Videosystemen fordern von Herstellern neue Produkt- und Lösungskonzepte.

Umfeld und Prozesskette der Videotechnik
In der noch vorherrschenden Analogtechnik wird der Videosensor als eigenständige Geräteinheit der Videomatrix vorgeschaltet. Diese Sensoreinheit analysiert das anliegende Videosignal und blendet das Analyseergebnis üblicherweise in das Bild ein, beispielsweise durch grafische Umrahmung. Werden die Alarmbedingungen erfüllt, wird ein entsprechendes Alarmsignal (Kontakt, serielles Telegramm) an die Videomatrix übermittelt. Die Videomatrix stellt dabei die zentrale Steuereinheit dar, die neben der Anlagentopologieverwaltung auch die Alarmverarbeitung durchführt. Im Alarmfall werden entsprechende Bildaufschaltungen durchgeführt und bei Bedarf eine Videoaufzeichnung gestartet.

Durch den derzeit im Bereich Videosicherheit stattfindenden Paradigmenwechsel von der Analogtechnik zur Digitaltechnik ändert sich nun diese Prozesskette. In der digitalen Video-over-IP-Welt verschmelzen die vormals separat ausgeführten Gerätekonzepte zunehmend in so genannten intelligenten Video Codecs (Siemens Sistore CX-Reihe). Diese Gerätegattung zeichnet sich dadurch aus, dass die eingehenden Videosignale in Echtzeit digitalisiert und idealerweise in MPEG-4-Format komprimiert werden. Auf Basis der digitalisierten Daten werden in einem Gerät die Aufgaben Sensorik (Bildanalyse), Speicherung (lokal auf interner Festplatte oder im Netzwerk-Recorder) und Weiterverteilung (Video-Streaming über das Netzwerk) integriert. Durch die Integration dieser drei Disziplinen in einer Geräteeinheit lässt sich nun auch durch entsprechende Dosierung der Einzeldisziplinen (Konfiguration der Bildrate und Bildauflösung je Disziplin) die zur Verfügung stehende Verarbeitungsleistung des Gerätes optimal auf den jeweiligen Einsatzfall anpassen, womit wiederum ein optimales Preis/Leistungsverhältnis erreicht wird.

Durch den fortschreitenden Wandel wird die Digitaltechnik immer höher integriert werden und weiter in die Feldebene verlagert. IP-Kameras werden damit zunehmend leistungsfähiger und können stets aufwändigere Bildverarbeitungsroutinen ausführen. Die Kamera wird damit zum höchst integrierten Videosensor. Zudem werden Netzwerk- Videorecorder (NVR) ebenfalls leistungsfähiger werden und neben der Möglichkeit der intelligenten Suche in gespeicherten Bilddaten auch Datenströme von IP-Kameras in Echtzeit auswerten können (NOOSE Network of optical Sensors).

Aufbau von Videosensoren
Mit dem digitalen Wandel ändert sich auch der innere Aufbau der Sensoren. An die Stelle, wo bisher die Sensorik mit speziellen Hardwareaufbauten (programmierbare Logik wie FPGA, die nur einfache Rechenoperationen ausführen können und die aufwändig zu programmieren sind), treten heute leistungsfähige digitale Signalprozessoren (DSPs), die wesentlich anspruchsvollere Softwarealgorithmen ausführen können. Diese DSPs bilden heute den Verarbeitungskern von intelligenten Video Codecs, der sich in Kombination mit einem Embedded-Host-Prozessor für die allgemeinen Verwaltungs-, Speicher- und Netzwerkaufgaben die Arbeit teilt. Solch eine Hybridarchitektur lässt sich heute sehr kompakt aufbauen und fertigen.

Daneben existieren auch PC-basierte Videosensorsysteme, die sicherheitsrelevante Aufgaben wahrnehmen und die Bildverarbeitung über so genannte Framegrabberkarten oder das IP-Streamingsignal durchführen. Mit PCs wird heute aufgrund der hohen Taktrate von 3 GHz und mehr ebenfalls eine sehr gute Leistung bei der Bildverarbeitung erreicht. Gerade bei hoch spezialisierten Algorithmen oder im Hochschulbereich erlaubt diese Plattform schnelle Implementierungen. Leider sind die Lebenszyklen der PC-basierten Systeme heute eher kurz, sodass sich die im Video-Produkt und Systemgeschäft nötige Verfügbarkeit und Servicefähigkeit als problematisch erweist.

Diese Situation verstärkt den Trend in Richtung hoch integrierter Video Codecs, die mit spezialisierten Signalprozessoren und mit auf Media-Anwendungen optimierter Struktur (niedrigere Taktraten ~300Mhz bis 1 GHz), mindestens die gleiche Verarbeitungsleistung wie PCs erreichen. Ein wesentlicher Vorteil ist dabei die typischerweise geringere Verlustleistung von <10 Watt/Kanal eines DSP-basierten Codec-Systems, gegenüber der eines PC-basierten Systems (50-100W/Kanal Verlustleitung), da bei gleicher Bildauflösung, Bildrate und Verarbeitungskomplexität ein PC selten mehr als 4-8 Kanäle verarbeiten kann. Für die weitere Entwicklung in der Evolution der Signalprozessoren ist abzusehen, dass neben der bereits in manchen Prozessoren realisierten Hardwarebeschleunigung der MPEG-Videokompression in Zukunft auch Chips mit vorgefertigten Algorithmen für die Bildanalyse verfügbar sein werden.

Einsatzgebiete der Videosensorik
Aufgrund der heute und in naher Zukunft verfügbaren Videosensoren existiert in der Bildverarbeitung kein Universalalgorithmus, der die gesamte Breite der Einsatzgebiete der Videoanalyse (z.B. Kennzeichenerkennung, Gesichtserkennung, Objektverfolgung, Raucherkennung) abdeckt. Trotzdem werden heute gute Ergebnisse erzielt, wenn bereits im Vorfeld der Entwicklung von Videosensoren Einsatzgebiete definiert und abgegrenzt werden. Typischerweise wird die zu beobachtende Szene über ein Set von Grundannahmen beschrieben. Grundsätzlich gilt bei Sicherheitsanwendungen die Annahme, dass es sich um ortsfeste Kameras in fixer Ausführung oder mit Schwenk-Neige-Zoom handelt.

Einsatzszenarien lassen sich grob in eine Gruppe von unbelebten oder belebten Szenen einteilen. Bei unbelebten Szenen handelt es sich um traditionelle Zaun-, Freiland oder Fassadenüberwachung für den Perimeterschutz. Hier besteht die Annahme im Regelfall darin, dass es sich um statistisch seltene Ereignisse in einer bekannten Szene handelt und das zu erkennende Objekt sich höchst „unkooperativ“ verhält und sich tarnt. Bei dieser Anwendung ist es aber besonders wichtig, unerwünschte Alarme zu vermeiden. Denn häufige Fehlalarme senken das Vertrauen in das System und gefährden damit die Sicherheit insgesamt. Solche Anwendungen sind bei Justizvollzugsanstalten, Kraftwerken, Raffinerien oder Industriegeländen anzutreffen und müssen folgende Anforderungen erfüllen:
  • Erkennung von bewegten Objekten vor einem bekannten Hintergrund
  • Hohe Empfindlichkeit zur Erkennung getarnter Objekte
  • Schnelle Detektion (<1s) einer Alarmsituation
  • Unterscheidung von Objekten anhand der Objektgröße und Geschwindigkeit
  • Klassifizierung von Objekten anhand des Bewegungsmusters (Insekten vor der Kamera, Vögel, Herumlungern)
  • Erkennung von Sabotageversuchen an der Kamera (Defokussierung, Verdrehen, Besprühen, Abdecken)
Im Anwendungsbereich Perimeterschutz werden Industrieparks oder öffentliche Gebäude immer offener gestaltet. Es ist ein Trend zu beobachten hin zu flexiblen Überwachungsmethoden von Gebäudeaußenhaut, Fassade, Fenster, Ein- und Ausgängen und weg von statischen Einrichtungen wie Zäune.

Bei belebten Szenen wie auf Bahnsteigen oder in Besucherhallen handelt es sich zwar auch um eine bekannte Szene, diese wird aber permanent von sich bewegenden Objekten überlagert. Hier gilt es entweder zuverlässig eine Veränderung im Hintergrund zu erkennen (zurück gelassene Gegenstände; Gegenstände, die unberechtigt entfernt werden) oder aber statistische Kennzahlen beziehungsweise Verhaltensmuster abzuleiten aus der Masse der im Vordergrund sich bewegenden Objekte (Personendichte, Zählen von Personen, Verhalten von Personen).

Schwenk-Neige-Zoom Kameras
Die Videosensorik für Schwenk-Neige-Zoom-Kameras (PTZ – Pan-Tilt-Zoom) wird normalerweise nicht zur Alarmauslösung, sondern eher zur automatischen Kamerasteuerung als Unterstützung für den Bediener eingesetzt. Einsatzfall ist hier die automatische Nachverfolgung von Objekten, die entweder manuell vom Bediener ausgewählt (Click-and-Track) oder von einer zweiten Sensorkamera detektiert werden. Im letzteren Fall werden die Koordinaten des Objektes zur weiteren Objektverfolgung an die der PTZ-Kamera vorgeschalteten „Tracking-Sensorik“ übertragen. Dadurch soll der Prozess der Überwachung für den Bediener effektiver gestaltet werden, indem er nicht mehr die entsprechende PTZ- oder Dome-Kamera aufschalten und das Objekt manuell (Joystick) nachverfolgen muss. Der Bediener wählt nur noch ein Objekt beziehungsweise quittiert die Verfolgung. Durch geeignete Platzierung weiterer PTZ-Kameras wird beim Verlassen des Sichtbereichs einer Kamera das Objekt automatisch an die Folgekamera zur Weiterverfolgung übergeben.

Aber auch für die Detektion ergeben sich für PTZ-Kameras in Kombination mit der Digitaltechnik ganz neue Anwendungen. So kann mit einer PTZ-Kamera über den Schwenkbereich das gesamte Umfeld abgescannt und zu einem Gesamtbild, einer Art Panoramabild, zusammengefügt werden. Indem dieser Vorgang periodisch wiederholt wird, können auch hier Bildänderungen detektiert oder Objekte verfolgt werden.

Echtzeitanalyse oder Archivrecherche

In manchen videobasierten Anwendungen kann es vorkommen, dass Alarmkriterien nicht im Vorfeld definiert werden können. So werden bei der Überwachung von Warenlagern Vorgänge über einen längeren Zeitraum digital aufgezeichnet. Zur Recherche entwendeter Waren werden dann die gespeicherten Videodaten mit Hilfe einer Offline-Videosensorfunktion analysiert. Auch hier steht wieder die Effektivität für den Benutzer im Vordergrund. Er definiert nur noch die Art und den Bereich der Analyse. Alle relevanten Ereignisse werden mit Hilfe der Sensorik automatisch erkannt, und das Durchsehen langer Videosequenzen entfällt.

Ob die Sensorik für Echtzeitereignisse oder im Offline-Betrieb zur nachträglichen Suche in Videoarchiven angewendet wird, hat vor allem Auswirkungen auf die notwendige Verarbeitungsgeschwindigkeit der Algorithmen. Im Echtzeitbetrieb muss die Verarbeitung innerhalb einer Zeitspanne von 40 ms je Bild erfolgen, um mit den permanent eingehenden Videodaten Schritt zu halten. Beim Durchsuchen von Videoarchiven besteht diese Grenze nicht, hier wird erwartet, dass die Verfahren deutlich schneller arbeiten als eine Analyse von Hand. Smart-Search-Funktionen wie bei Sistore CX arbeiten ca. 50-mal schneller als eine manuelle Suche.

Für die Recherche in Bildarchiven werden in Zukunft aber noch effizientere Möglichkeiten verfügbar sein. Während der Bildaufnahme werden die Bilder in Echtzeit vorverarbeitet und die Analysedaten als Metadaten zu den Bilddaten (z.B. im MPEG-7- Format) abgelegt. Es wird damit eine Indizierung relevanter Bildinhalte vorgenommen. Intelligente IP-Kameras, könnten Meta-Informationen über alle erkannten Objekte (Bewegungsvektoren, Form, Farbe) online den Videodaten hinzufügen. Eine nachträgliche Suche nach Ereignissen oder Objekten reduziert sich dann auf eine Filterung der Metadaten (MPEG-7), ohne dass eine aufwändige Analyse erfolgen muss.

Mustererkennung und Verifikation
Neben dem klassischen Einsatz von Videosensoren für Sicherheitsanwendungen gibt es eine Reihe von Applikationen, die ihren Ursprung eigentlich im Bereich der Automatisierung haben. Beispiele sind Mustererkennung (Objektkennzeichnungen wie Nummernschilder, Gefahrgutzeichen, Containeraufschrift) oder Bildanalyseverfahren im Bereich Biometrie (Gesichtslokalisierung, Gesichts-, Iris- oder Fingerabdruckerkennung). Im Gegensatz zu den traditionellen Sicherheits-Anwendungen geht man hier von einer Kooperationsbereitschaft des zu detektierenden Objektes aus. Für solche Anwendungen wird mittels Videoverifikation meist eine Aktion zu Gunsten des Objektes ausgelöst, beispielsweise die Zufahrt eines Fahrzeugs mit berechtigtem Kennzeichen.

Funktionsweise von Videosensoren
Moderne Sensoren wie Sistore CX sind heute in der Lage, Bilder pixelgenau in Echtzeit zu verarbeiten. Typischerweise wird dabei in der so genannten CIF-Auflösung (Common Intermediate Format) von 352x288 Pixel gearbeitet. Damit werden nun mehr als 100 000 Bildpunkte pro Bild in Echtzeit (40 ms) verarbeitet. In Abhängigkeit der zur Verfügung stehenden Verarbeitungsleistung und der gewünschten Bildrate für die Auswertung können auch höher aufgelöste Bilder verarbeitet werden. Hier geht der Trend im Rahmen des digitalen Wandels in Richtung Megapixelauflösung.

Typischerweise arbeiteten Videosensoren bislang nach dem Prinzip der Differenzbildverarbeitung. Bei diesem Verfahren werden die Grauwerte zweier aufeinander folgender Videobilder voneinander subtrahiert und alle statischen Bildanteile (Hintergrund) aus dem Bild entfernt. Alle sich bewegenden Objekte erzeugen aber eine messbare Differenz, überwiegend an den äußeren Objekträndern. Die erzielte „Signalstärke“ hängt dabei sehr von der Bildrate der Auswertung (~25 Bilder/s) und der Objektgeschwindigkeit ab. Je schneller sich das Objekt bewegt, umso höher die Signalstärke der Änderung. Damit aber auch langsame Objekte zuverlässig erkannt werden, muss eine hohe Empfindlichkeit für den Sensor eingestellt werden, womit aber auch Störungen oder kleine, schnelle Objekte eher zu Fehlalarmen führen können.

Bei Verfahren, wie beispielsweise bei Sistore CX EDS eingesetzt, wird nicht nur die Differenz zweier Bilder berechnet und zur Analyse herangezogen. Die höhere Leistungsfähigkeit der Videoprozessoren wird durch den Einsatz von statistischen Verfahren ermöglicht, die über eine längere Zeitspanne die komplette Bildfolge Bild für Bild analysieren. Mit dieser Analyse verschafft sich der Sensor einen Eindruck über den „Normalzustand“ der Szene und er adaptiert sich auf den Hintergrund. Damit wird nicht mehr die Bild zu Bild Differenz, sondern aktuelles Bild zu Hintergrund ermittelt. Vordergrundobjekte werden damit als kompaktes Ganzes extrahiert und nicht mehr nur die Objektränder. Diese Vorgehensweise bietet gegenüber den Differenzbildverfahren eine Reihe von Vorteilen:

  • Es wird zwar nach wie vor eine Grundempfindlichkeit für die jeweilige Szene konfiguriert, der Algorithmus ermittelt aber für jedes einzelne Pixel einen individuellen, optimalen Schwellwert für die Objekterkennung. Damit wird auch unabhängig von den Kontrastverhältnissen und der Helligkeitsverteilung über das ganze Bild eine sichere Detektion möglich, auch im Bereich von Helligkeitsübergängen.
  • Die statistische Analyse wird während des Betriebes kontinuierlich fortgeführt, d.h. der Algorithmus optimiert seinen Arbeitspunkt permanent und passt sich den jeweiligen Szenenverhältnissen an (Beleuchtungsänderungen, Autoscheinwerfer, Blitze, Wetteränderungen), und Kamera- oder Signalrauschen werden automatisch kompensiert.
  •  Die Sensorempfindlichkeit ist unabhängig von der Objektgeschwindigkeit. Objekte werden immer kompakt als Ganzes erkannt, nicht nur die Objektränder, wodurch die Grundempfindlichkeit geringer ausfallen kann und sich der Sensor an die in den Szenen vorherrschenden Kontrastverhältnisse anpasst.
  •  Daraus resultiert eine zuverlässigere Detektion von Objekten bei sehr geringerer Fehlalarmanfälligkeit.
Im Vergleich zum Differenzbildverfahren bietet diese Art der Algorithmik mehr Anwendungsmöglichkeiten wie Bewegungserkennung und Objektverfolgung, Detektion von zurückgelassenen oder entfernten Gegenständen sowie das Erkennen von Sabotageversuchen. Zudem lassen sich aus der Information der Objektverfolgung (Trajektorie) noch typische Bewegungsmuster von Objekten ableiten (Herumlungern oder Gruppenbildung von Personen, Insekten, Vögel oder fliegende Blätter vor der Kamera, Schneefall oder starker Regen, Klassifizierung von Objekten beispielsweise in Fahrzeugen und Personen). Insgesamt bietet dieses Verfahren im Bereich der professionellen Sicherheit heute eine sehr robuste und zuverlässige Art der Objekterkennung durch Videosensorik.

Konfiguration
Aber nicht nur die Arbeitsweise hat sich verbessert, auch die Konfiguration, das Einrichten des Videosensors, hat sich stark vereinfacht. Die Schritte zur Modellierung der Szenengeometrie und die Anzahl der nötigen Grundparameter konnten stark reduziert werden und führen zu höherer Detektionssicherheit. So werden die perspektivischen Verhältnisse eines Geländes in waagerechte und senkrechte Ebenen für Freiflächen und Fassaden modelliert. Dazu lassen sich Sensorelemente wie statische und dynamische virtuelle Stolperdrähte frei im Bild platzieren. Als Grundparameter sind nur ein paar wenige, leicht verständliche Größen zur Feineinstellung des Algorithmus an die jeweilige Szene nötig (Adaptionsgeschwindigkeit für Hintergrundänderungen, Grundempfindlichkeit des Sensors, minimale zu detektierende Objektgröße, maximale zulässige Objektgeschwindigkeit).

Störeinflüsse und unerwünschte Meldungen
Trotz aller Fortschritte gibt es auch in der Videotechnik kein Sensorsystem ohne unerwünschte Meldungen. Wichtig ist, dass sich der Benutzer darüber bewusst ist und sich entsprechend darauf einstellt. Bei der Videoanalyse werden wie bei der visuellen Beurteilung eines Bildes die Echtalarm-Detektionsrate und die Falschalarm-Detektionsrate immer in einer negativen wechselseitigen Abhängigkeit stehen. Je höher die geforderte Empfindlichkeit oder Toleranz gegenüber unvollständigen oder verrauschten Objekten in nicht immer optimaler Umgebung sein soll, je höher ist ungewollt auch die Möglichkeit von unerwünschten Meldungen durch Ähnlichkeit mit anderen Objekten oder visuell ähnlichen Effekten. Eine bestimmte Detektionssicherheit ist immer abhängig von einer minimalen Faschalarmrate.

Grundsätzlich kann Videosensorik nur optimal funktionieren, wenn die Kamera im „linearen Bereich“ des Bildaufnehmers betrieben wird. Das bedingt eine Szenenbeleuchtung, die weder zu Übersteuerung (Blendung) noch zu Unterbelichtung im Bild führt. Beide Fälle erhöhen die Möglichkeit einer unerwünschten Meldung. Auch die neuesten Verfahren unterliegen den Grundsätzen der Optik. Einige Störeinflüsse können aber heute über die statistische Analyse von Bildfolgen wesentlich besser unterdrückt werden. Dazu gehören globale Lichtänderungen, Lichtkegel und Schlagschatten, Wolkenzug, Bildrauschen sowie Regen oder Schnee.

Ausblick und weitere Entwicklung

Der Integrations- und Miniaturisierungstrend wird sich weiter fortsetzen. Bald werden intelligente Kameras zum Einsatz kommen, die ähnliche Verarbeitungsleistungen für die Videosensorik aufweisen, wie sie heute nur intelligente Video Codecs bieten. Auch ist mit in Zukunft mit CMOS-Bildaufnahmesensoren zu rechnen, die parallel zur Bilderzeugung eine Vorverarbeitung der Videodaten durchführen können.

In einem Netzwerk von Sensoren und der dreidimensionalen Erkennungsfähigkeit ergeben sich für Managementsysteme neue Anforderungen. Die Objektkoordinaten können beispielsweise als dynamische Icons in Lagepläne eingeblendet werden, sodass der Bewegungsverlauf eines Objektes auch auf einem Lageplan leicht verfolgt werden kann. Dabei werden ähnliche Objekte mit gleichen Icons im Lageplan dargestellt. Als unbedenklich „gute“ klassifizierte Objekte zeigen sich beispielsweise in der Farbe grün, alarmrelevant „böse“ klassifizierte Objekte werden in roter Farbe angezeigt. Kritische Objekte werden gelb angezeigt, bevor sie einen Alarm auslösen.

In dem gegenwärtig fortschrittlichen Stand der Algorithmik werden Objekte noch durch Häufung und Clustering von einzeln detektierten „Vordergrundpixeln“ definiert. Als nächste Herausforderung gilt es, eine Nachbarschaftsbeziehung der Pixel eines Objektes bei der Videosensorik zu berücksichtigen. Dazu werden für jedes Pixel nicht mehr nur isolierte Einzel-Pixel, sondern auch immer die umgebenden Bildpunkte mit analysiert. Aus dieser Umgebung können relevante Strukturmerkmale mit Hilfe von Bildverarbeitungsroutinen abgeleitet werden und generieren aus einer Anzahl von Merkmalen so genannte „Merkmalsvektoren“. Es muss damit nicht mehr nur ein 8-Bit- Grauwert je Pixel bewertet werden, sondern ein ganzes Set von Werten, je nach der betrachteten Umgebung 9, 25 oder sogar mehr Werte, wobei die notwendige Verarbeitungsleistung des Sensors stark ansteigt.

Auf der Basis dieser Merkmalsvektoren können bereits in der Entwicklungsphase typische Objekte wie Personen, Hunde, Autos oder Fahrradfahrer als Ganzes gelernt werden. Bei der Analyse durch den Sensor im Feld ordnet der Algorithmus dann jedes Pixel den Klassen der gelernten Objekte zu und kann so direkt die zuvor gelernten Objekte identifizieren. Damit können statische Objekte oder Objekte in Standbildern erkannt und überlappende Objekte können vereinzelt werden. Auch Schlagschatten von Objekten kann die Analyse nicht beeinflussen.

Solche und ähnliche neue Technologien zur Objekterkennung werden zurzeit im akademischen Bereich erforscht, beispielsweise für Personenzählungen in stark belebten Szenen, wo sich Objekte stark überlappen. Ziel ist, sich schrittweise von der reinen Pixelverarbeitung in Richtung Bildverstehen zu bewegen.

Bei Siemens Building Technologies arbeiten 1400 Personen an der Forschung und Entwicklung von innovativen Produkten. Sie haben dabei die Möglichkeit, sich mit
60 000 Experten aus 30 Ländern innerhalb des Konzerns auszutauschen. Die Innovationsschwerpunkte liegen bei den klassischen Gebieten Steuern, Regeln, Sensorik und Aktuatorik und werden immer stärker ergänzt durch Systemtechnik, Kommunikationstechnologie und Mensch-Maschine-Interface-Technologie zum Bedienen und Beobachten von durchgängigen Gebäudeautomationslösungen.

Vorteile von intelligenten Codecs:

 Integration von drei Gerätegattungen in einer Einheit:
  • Lokale Speicherung der Videodaten - DVR-Funktion
  • Video-over-IP-Streaming - „virtuelle Matrix“
  • Bildauswertung - Videosensor
  • Hohe Packungsdichte 2-4 Kanäle - je 19 Zoll Höheneinheit
  • Geringe Leistungsaufnahme, <10W / Kanal (+ HDD-Leistungsaufnahme)
  • Sehr gute Skalierbarkeit - 1/4/8 Kanaleinheiten
  • Zentrale als auch dezentrale Konzepte über LAN realisierbar
  • Einfache Wartung durch Betriebssoftware auf Flash-Rom
  • Hohe IT-Sicherheit durch embedded OS (Operating System)
  • Hohe Betriebssicherheit durch Temperaturmanagement, Schutz vor Zerstörung
  • Hohe Ausfallsicherheit


Diese Produktinformation
ist aus unserem Archiv!

Aktuelle Produkte finden Sie über die Suche ...
gradient arrows

Siemens AG - Industry Sector

Friesstraße 20
60388 Frankfurt

Tel: +49 (0)800 100 76 39
Fax: +49 (0) 69/797-8 15 90