Gehen Sie direkt zum Inhalt der Seite Gehen Sie zur Hauptnavigation Gehen Sie zur Forschung

In einem zunehmend offenen, atomisierten und virtualisierten Umfeld wird die Kontrolle der Datenströme zu einer kritischen Herausforderung für die verschiedenen Akteure in der Immobilien-Wertschöpfungskette. Ziel ist der Übergang von einem passiv erduldeten Big Data-Umfeld zu einem aktiv kontrollierten Smart Data-Management.

Ohne Daten keine intelligenten Gebäude. Das Haus von morgen kann große Datenmengen produzieren, verarbeiten, speichern und importieren. Was passiert mit dieser Masse an Informationen? Wie wird sie verwaltet? Wo gespeichert? Wie weitergegeben? Kurz gesagt, wo soll die Intelligenz eines Gebäudes sitzen? In den vernetzten Objekten oder Anlagen? In den Servern? In der Cloud?

Die Antworten auf diese Fragen hängen natürlich von der Standortkonfiguration ab (Größe, einer oder mehrere Standorte), der technischen Komplexität (Implementierung von IoT-Anwendungen, Dichte und Umfang der Netzwerke), der Funktion (Hauptverwaltung oder Zweigniederlassung, Art der im Gebäude ausgeübten Aktivitäten) sowie den vor Ort vorhandenen Akteuren (Nachunternehmerlandschaft).

Allerdings, so Julien Delbecchi, Leiter IT bei VINCI Facilities (VINCI Energies), „unterliegt die Datenspeicherung unabhängig von der jeweiligen Situation immer drei festen, strategischen Anforderungen: Sicherheit, Leistungsfähigkeit, Kostenkontrolle. Von diesen drei Zielen müssen die jeweiligen Entscheidungen abhängig gemacht werden, und nicht etwa von einer möglichst einfachen Logistik.“

Aber das ist gar nicht so einfach! Man muss nämlich nicht nur mit den immer zahlreicheren Datacentern innerhalb und außerhalb der Gebäude zurechtkommen, sondern vor allem mit der exponentiellen Vervielfachung der Cloudanwendungen. Den je „smarter“ ein Gebäude ist, desto mehr Nervenbahnen gibt es zwischen zentralen Datenbanken, Rechenzentren, ausgelagerten SaaS-Anwendungen und Fachanwendungen des Unternehmens (Geschäfts- und Lohnbuchhaltung, gemeinsame Terminkalender, CRM).

„Shadow IT“…

Schlimmer noch: diese Massenvermehrung der Verbindungen geschieht häufig völlig unbemerkt und unkontrolliert. Dabei handelt es sich um das berühmte Phänomen der „Shadow IT“, eine Art „toter Winkel“ von IT-Systemen, der über 30 % der IT-Kosten ausmachen kann.

Während man davon ausgeht, dass sich ein Unternehmen üblicherweise auf zwei oder drei große öffentliche Cloud-Infrastrukturen stützt (Amazon Web Services, Microsoft Azure, Google Cloud Platform), zeigt eine 2017 vom französischen „Club der IT-Sicherheits- und Digitalisierungsexperten“ (Cesin) durchgeführte Studie, dass eine Firma durchschnittlich etwa 1.700 SaaS-Anwendungen nutzt.

„Ziel ist, dass die Kundendaten soweit möglich beim Kunden und somit im Gebäude bleiben. “

Um das Leistungsoptimum der Gebäude zu gewährleisten und bedarfsgerecht Instandhaltungs- oder Serviceleistungen auslösen zu können, muss das Facility Management nicht nur in der Lage sein, eigene Anwendungen wie Gebäudeleittechnik und CMMS mit den Anwendungen der Kunden, Betreiber und/oder Gebäudenutzern zu verknüpfen, sondern auch die Gewissheit haben, dass es die jeweils stichhaltigsten, nützlichsten Daten abrufen kann, die bei den verschiedenen Einsätzen auch tatsächlich gebraucht werden.

In dieser nebulösen Multi-Cloud geht es also darum, (wieder) die Kontrolle über die Daten zu übernehmen und von einem passiv erduldeten Big Data-Umfeld zu einem aktiv kontrollierten Smart Data-Management zu gelangen.

„Ziel ist, dass die Kundendaten soweit möglich beim Kunden und somit im Gebäude bleiben. Wir wollen die Daten zunächst organisieren, strukturieren und erst dann soweit notwendig an externe Datenbanken weiterleiten. Dabei müssen vordefinierte Kriterien wie Kritizität, Nutzen und Dringlichkeit gelten“, erläutert Delbecchi.

… und „Edge Computing“

Die Lösung könnte durchaus im Edge Computing liegen, einem verteilten, offenen Netzwerk aus Mikro-Datacentern. Wie funktioniert das? Die Daten werden direkt an ein kleines, lokales Peripheriegerät übermittelt. Dort werden sie gespeichert, verarbeitet und aufbereitet, bevor sie an die Cloud oder ein ausgelagertes Rechenzentrum gehen. „Wir implementieren derzeit in Kooperation mit dem Start-up SpinalCom eine Architektur, mit der wir ausgehend von generischen Objekten lokale Zentren unserer Kunden und unsere eigenen Datenbanken verbinden können. Unser Ziel ist aber nicht, einen neuen Standard durchzusetzen, sondern eine gemeinsame Sprache zu schaffen, so dass wir unsere Lösungen schnell, einfach und kostengünstig in verschiedenen Gebäuden implementieren können“, so Delbecchi.