Enterprise Mobility Management in der Praxis: So gelingt moderne Geräteverwaltung im Unternehmen

In vielen Unternehmen verschlingt die Verwaltung des hauseigenen Smartphone- und Tablet-Pools jede Menge interne Ressourcen. Die Beschaffung und Konfiguration der Geräte seitens der IT-Abteilung dauert oft tagelang und wird auch als Enterprise Mobility Management (EMM) bezeichnet.

Hier erfahren Sie, wie eine solche Geräte-Registrierung in der Praxis abläuft und worauf Sie achten sollten, falls Sie sich nicht für eine vollständig verwaltete Komplett-Lösung entscheiden.

 

Was ist Enterprise Mobility Management? 

Enterprise Mobility Management (EMM) beschreibt einen vollumfänglichen Ansatz zur Verwaltung des Gerätepools in Unternehmen. Die Verwaltung erfolgt mithilfe umfangreicher Softwarelösungen, sogenannter EEM-Suites. Diese Programme enthalten unter anderem Funktionen zum Mobile-Device-Management, Mobile-Application-Managment sowie zum Identity-und-Acces-Management.

EMM-Suites werden wahlweise auf einem Unternehmensserver oder in einer Cloud betrieben. Auf Wunsch können Sie die Verwaltung Ihrer mobilen Endgeräte vollständig an einen externen Dienstleister überantworten. EMM-Dienstleister wie Vodafone konfigurieren für Sie auf Wunsch Ihre mobilen Endgeräte so vor, dass alle benötigten Apps bereits installiert sind und Ihre Mitarbeiter:innen sämtliche Funktionen sofort nutzen können. Außerdem nimmt der Dienstleister eventuelle Sicherheitseinstellungen am Gerät vor, die Ihre hausinternen Compliance-Regeln vorschreiben. Manche Anbieter versenden die Geräte dann außerdem für Sie direkt an die entsprechenden Mitarbeiter:innen.

Eine EM-Management-Plattform bietet Ihrem Unternehmen folgende Vorteile:

  • Verhindern von Datenverlusten durch Speicherung in der Cloud
  • Höhere Produktivität und optimierte Arbeitsabläufe
  • Sicherheit und Datenschutz auch bei Einbindung privater Geräte
  • Sicherer Datenzugriff von allen verwalteten Geräten
  • Hohe Skalierbarkeit und schnelle Einbindung von neuen Geräten

 

EMM in der Praxis: Schritt für Schritt erklärt

Es gibt verschiedene Möglichkeiten, ein Endgerät in den Gerätepool Ihres Unternehmens zu integrieren. Diese richten sich nach dem jeweiligen betrieblichen Szenario bei Ihnen im Hause:

BYOD: Das sogenannte  BYOD-Modell („Bring your own device”) bedeutet: Mitarbeiter:innen bringen einfach ihre Geräte von zuhause mit und zeigen diese beim/bei der Administrator:in vor. Diese:r prüft die BYOD-Geräte dann auf mögliche Schadsoftware und Sicherheitsrisiken und gibt sie – nach eventuellen Anpassungen – für den Gebrauch im Unternehmen frei.

COBO: Die Geräte werden zentral angeschafft und verteilt, jedoch als „Company-owned, business only” betrieben. Die gesamte Administration und Verwaltung erfolgt über das Unternehmen und eine private Nutzung ist untersagt.

COPE: Im Rahmen des „Company-owned, personally enabled”-Modells stellt das Unternehmen den Mitarbeiter:innen Geräte aus einem hauseigenen Gerätepool zur Verfügung. Die Nutzung ist dabei nicht auf unternehmensbezogene Zwecke begrenzt, sondern kann auch privat sein.

Je nach Betriebskonzept haben Ihre IT-Administratoren unterschiedliche Möglichkeiten, Einfluss auf der gesteuerte Endgerät zu nehmen. So oder so ist es jedoch notwendig, die Geräte zentral zu registrieren, um auf deren Zustand und die installierten Apps Einfluss nehmen zu können:

 

Registrierung der Endgeräte an der Plattform

Die meisten EM-Management-Plattformen von Herstellern wie VMware, Intune, MobileIron und Blackberry kommunizieren mit den Endgeräten über eine App. Diese läuft auf den jeweiligen Smartphones, Tablets oder Notebooks konstant im Hintergrund, nimmt die „Befehle“ der zentralen Plattform entgegen und lädt selbstständig Updates und Patches.

Für gewöhnlich müssen Ihre Mitarbeiter:innen die App auf deren Endgeräten selbst einrichten. Ein Prozess, der unter Umständen viel Zeit kostet. Doch diesen Vorgang können Sie beschleunigen: Vodafone übernimmt für Sie die Installation sowie die anschließende Registrierung.

In den folgenden Videos zeigt unser Gerätemanagement-Experte Mario Bohum am Beispiel der Programme Workspace One und MobileIron Go, wie Enterprise Mobility Management funktioniert und welche Vorteile es für Ihr Unternehmen hat. In einem ersten Schritt geht es um die Registrierung von Geräten an der verwendeten EMM-Plattform:

Das EM-Management-System liest bei privat genutzten Smartphones nur die Aktivitäten der Apps aus, die für die geschäftliche Nutzung vorgesehen sind. Privat installierte Apps kann das EM-Management-System nicht überwachen. Dies gilt auch für die Standortüberwachung: Sie können nur die Standorte derjenigen Endgeräte ermitteln, die Ihr EM-Management-System vollumfänglich steuert.

Zentrale Remote-Konfiguration aller Endgeräte

Mithilfe der EMM-Plattform können Ihre IT-Administrator:innen die mobilen Endgeräte in Ihrem Unternehmen aus der Ferne warten und konfigurieren. Die Plattform ermöglicht den Zugriff auf mehrere Geräte gleichzeitig. Kommen neue Smartphones oder Tablets zu Ihrem Gerätepool hinzu, müssen Sie nicht mehr jedes einzelne Endgerät händisch neu konfigurieren.

Die Einstellungen für einzelne Endgeräte oder ganze Gerätegruppen sind zentral gespeichert und Smartphones sowie Tablets können diese Informationen automatisch abrufen.

Die EMM-Plattform bietet Ihnen darüber hinaus die Möglichkeit, Profile getrennt nach Betriebssystemen anzulegen. So steuern Sie beispielsweise bequem alle iPhones oder iPads in Ihrem Gerätepool übersichtlich über ein eigenes Profil, während Sie Android-Geräte mit einem separaten Profil managen.

Trennung von privat und geschäftlich auf Android und iOS

Wollten Ihre Mitarbeiter:innen ihr privates Smartphone auch dienstlich nutzen, mussten IT-Techniker:innen in der Vergangenheit meist einen sogenannter Container auf dem Gerät installieren. Dieser Container schützt beispielsweise geschäftlichen Telefonnummern vor einem ungewollten Auslesen durch Messenger-Apps wie WhatsApp und Co.

Moderne EMM-Lösungen machen Container jedoch überflüssig. Die EM-Management-Plattform „kennzeichnet“ auf dem Endgerät installierte Apps und Daten nach gemanaged (geschäftlich) und nicht gemanaged (privat). Diese Funktion hilft Ihnen, Zeit und Geld zu sparen.

User-Management und Verknüpfung mit zentralen Datenbanken

Sie können alle im System vermerkten Endgeräte-Nutzer:innen einer bestimmten Berechtigungsebene zuordnen. Darüber hinaus erteilen Sie auch Admin-Rechte an bestimmte Geräte- oder Personengruppen mit Hilfe der EMM-Plattform.

Berechtigungsebenen legen Sie analog zu den Organisationsstrukturen innerhalb Ihres Unternehmens an. Denn: Unterschiedliche Positionen in Ihrem Unternehmen benötigen verschiedene Zugriffsmöglichkeiten auf Funktionen der mobilen Endgeräte. Ein Beispiel: Mitarbeiter:innen Ihrer IT-Abteilung erteilen Sie für gewöhnlich wesentlich umfassendere Zugriffsrechte zu bestimmten Funktionen als solchen, die vielleicht nur stundenweise Ihren Empfang betreuen.

EMM als Teil des Device Lifecycle Managements: Sie sparen Kosten und Zeit

Bei vielen Anbietern ist das Endgerätemanagement Teil eines umfassenden, sogenannten Device Lifecycle Management-Pakets (DLM). Wenn Ihr Unternehmen veraltete Endgeräte austauscht, müssen Ihre Mitarbeiter:innen die Smartphones, Tablets oder Notebooks auf Vollständigkeit und Funktion prüfen. Befinden sich auf dem zurückgegebenen Gerät möglicherweise sensible Daten, müssen Sie diese auf sichere Art löschen.

Unbefugte Dritte dürfen auf keinen Fall später die Möglichkeit haben, auf Ihren vermeintlich gelöschten Datenbestand zuzugreifen. Werden funktionsfähige Altgeräte beispielsweise weiterverwendet oder -verkauft, besteht dieses Risiko durch allzu einfache Datenwiederherstellung mit Hilfe von Tools. Daraus folgt: Gerätemanagement und Staging sind personal- und damit kostenintensiv.

Das DLM schafft Abhilfe: Es deckt den kompletten Lebenszyklus eines Geräts von der Anschaffung bis hin zur Ausbuchung ab. In der Folge sinken Ihre Gesamtkosten (Total Cost of Ownership) auf ein Minimum. An die Stelle von fixen Personalkosten in der IT-Abteilung treten planbare monatliche Kosten für DLM als externe Dienstleistung.

Enterprise Mobility Management: eine Zusammenfassung

  • Enterprise Mobility Management ist ein System zur Verwaltung des Gerätepools in Unternehmen.
  • Die meisten EM-Management-Plattformen kommunizieren mit den Endgeräten über eine App. Diese läuft auf den jeweiligen Endgeräten konstant im Hintergrund und nimmt Befehle der zentralen Plattform entgegen. Die Apps laden selbstständig Updates und Patches.
  • EMM-Systeme lesen bei privat genutzten Smartphones nur die Aktivitäten der Apps aus, die für die geschäftliche Nutzung vorgesehen sind. Private Apps überwacht kann das EMM-System nicht überwachen.
  • Viele Anbietern bieten Endgerätemanagement als Teil eines umfassenden, sogenannten Device Lifecycle Management-Pakets (DLM) an.

Quelle:

https://www.vodafone.de/business/featured/digitales-business/enterprise-mobility-management-in-der-praxis-so-gelingt-moderne-geraeteverwaltung-im-unternehmen/

Das Auto der Zukunft: So könnte individuelle Mobilität bald aussehen

Deutlich umweltfreundlicher, signifikant sicherer und noch komfortabler: Das Auto der Zukunft soll uns geschickt um Staus lotsen, möglichst keine Abgase erzeugen, Unfälle vermeiden und uns noch mehr Komfort auf unseren Fahrten von A nach B bieten. Wie das Auto der Zukunft funktioniert, welche Hersteller dabei auf welche Technologien setzen und warum für die Autos der Zukunft der Mobilfunkstandard 5G überlebenswichtig ist – lesen Sie hier.

Was haben wir nicht schon alles über das Auto der Zukunft gelesen: Es ist verwandelbar, reinigt sich selbst, ist unzerstörbar, fährt von selbst und kann sogar fliegen. Sogar Zeitreisen sind schon möglich – zumindest in der Hollywood-Trilogie „Zurück in die Zukunft“ mit einem modifizierten DeLorean DMC-12. Nicht alles davon ist realistisch.

Aber zumindest am autonom fahrenden Auto und am fliegenden Auto arbeiten die Entwickler:innen vieler Hersteller und Zulieferer derzeit. In welchen Stufen Autos autonom unterwegs sind und welche Eigenschaften das Connected Car schon heute hat und bald haben wird, haben wir für Sie bereits an anderer Stelle im V-Hub beschrieben. Auch bei den sogenannten Flugautos gibt es viele Fortschritte, in Form von Drohnen. Wie viel „Auto“ diese Fluggeräte beim ersten Serieneinsatz in ein paar Jahren bieten werden, bleibt indes noch abzuwarten.

Vorausschauend fahren und bremsen – ohne Echtzeitkommunikation im Auto der Zukunft unmöglich

Um Funktionalität und Sicherheit jederzeit sicherzustellen, muss das Auto der Zukunft vor allem eines: Jede Menge Daten verarbeiten, beziehungsweise einen Zugriff auf haben. Dazu muss jedes Fahrzeug in der Lage sein mit anderen Fahrzeugen, seiner Infrastruktur und seiner Umwelt zu kommunizieren.

Dadurch kann beispielsweise ein hinterherfahrendes Auto umgehend informiert werden, wenn weiter vorne ein anderes Fahrzeug bremst. Das sogenannte ACC-System (Abstandsregeltempomat) kann dann vorausschauend agieren. Aktuelle Systeme (Stand 04/2022) berücksichtigen anhand der an Bord befindlichen Navigationskarten die Topographie der Straße. Das Schlagwort hierfür: Konnektivität, beispielsweise über 5G-Lösungen, die sichere V2X-Verbindungen in Echtzeit erlauben.

 

Assistenzsysteme im Auto der Zukunft: Das planen die Hersteller

Um mehr Komfort und vor allem Sicherheit zu bieten, werden noch weitere Assistenzsysteme in unsere Autos einziehen. Sie werden uns den Umgang mit unserem Auto einfacher und angenehmer gestalten. Sie sind aber auch für viele autonome Fahrfunktionen nötig. Neue Sensoren und Kameras werden die Umgebung noch besser erfassen. Durch die Vernetzung können sich die Autos beispielsweise gegenseitig warnen. „Erfassen die Sensoren eines Pkw beispielsweise mangelnde Bodenhaftung durch Glatteis oder Aquaplaning, werden die Informationen sofort an nachfolgende Fahrzeuge gesendet – und deren Fahrer gewarnt“, erläutert Thorsten Rechtien, Kfz-Experte bei TÜV Rheinland.

Damit sich Autofahrer:innen in immer komplexer werdenden Verkehrssituationen zurechtfinden, arbeiten Autohersteller an neuen Informationssystemen. So hat beispielsweise Mercedes-Benz Augmented-Reality-Funktionen in seine Navigation integriert und verbindet auf diese Weise die reale mit der virtuellen Welt. Mercedes nutzt dazu die Windschutzscheibe als Display und blendet grafische Navigations- und Verkehrshinweise in die realen Live-Bilder ein. Die Fahrer:innen haben so die wichtigsten Informationen direkt in ihrem Sichtfeld.

 

Aktuelle Innovationen bei Tesla

Tesla setzt aktuell (Stand: April 2022) bei seinen Fahrzeugen auf bis zu acht Kameras zur Umfeldüberwachung in bis zu 250 Metern Entfernung. Ergänzt wird das System von 12 Ultraschallsensoren. Radarsensoren kommen bei künftigen Modellen von Tesla nicht mehr zum Einsatz: Sie sind dem US-Unternehmen zu störempfindlich und zu teuer. Zu den Tesla-Innovationen gehören Software-Updates „over the air”, also auf Basis von Mobilfunk oder WLAN. Mit ihnen will Tesla die Funktionalität seiner Assistenzsysteme stetig ausbauen und verbessern. An vergleichbaren Systemen arbeiten auch andere Autohersteller wie BMW, Mercedes-Benz und der Volkswagen-Konzern.

Volvo: Abschalten von Assistenzsystemen bald nicht mehr möglich

Fahrzeuge von Volvo gelten bei vielen Autofahrer:innen als besonders sicher. Das schwedische Unternehmen bietet in seinen Fahrzeugen nahezu alle gängigen Assistenzsysteme an. Seit 2020 begrenzt Volvo bei allen Fahrzeugen zudem die maximal mögliche Höchstgeschwindigkeit auf 180 km/h. Und demnächst legt der Hersteller noch einmal nach: Laut Volvo-Chefentwickler Henrik Green werden die Fahrer:innen in einem Volvo relevante Sicherheitssysteme nicht mehr abschalten können. Dazu zählt Green beispielsweise das elektronische Stabilisierungsprogramm, das ein ausbrechendes Fahrzeug durch gezielten Bremseinsatz an einzelnen Rädern wieder in die Fahrspur manövrieren kann. Denkbar sind aber auch der Spurhalteassistent, der Toter-Winkel-Assistent und der Abstandsassistent.

 

Geht auch Google demnächst unter die Autohersteller?

In vielen Medienberichten tauchte monatelang das Google-Auto auf. Tatsächlich hat der Suchmaschinenriese viel und intensiv in diese Richtung entwickelt – ein Auto von Google wird es aber in naher Zukunft nicht geben. Der Mutterkonzern Alphabet konzentriert sich inzwischen lieber auf das Geschäft mit anderen Autoherstellern und schmiedet strategische Allianzen, beispielsweise mit dem US-Autobauer Ford. Ab 2023 werden Fahrzeuge von Ford Clouddienste, Karten-App und Sprachassistenten des Internet-Konzerns nutzen. Für andere Hersteller entwickelt Google komplette Entertainment- und Bediensysteme, die Smartphones mit dem Google-eigenen Betriebssystem Android optimal einbinden. Neben Ford setzen auch Volvo, Polestar, Renault und Nissan auf Android Auto.

 

Vodafone OneNumber Car: Nahtlose Mobilfunkintegration mit dem Fahrzeug

Ein wegweisendes Konzept, das Mobilfunk und Mobilität auf intelligente Weise vereint, stellt Vodafone zusammen mit BMW mit der OneNumber Car-Tarifoption vor. Zwar gibt es auf dem Markt bereits verschiedene Ansätze und Produkte für die Mobilfunknutzung im Auto. Diese sind aber meist entweder kompliziert, was das Thema Buchung angeht, bieten eher begrenzten Komfort, oder haben nur einen eingeschränkten Funktionsumfang.

Beispielsweise war bislang für die Mobilfunknutzung im Fahrzeug immer auch ein Smartphone notwendig – durch Vodafone OneNumber Car entfällt dies dank einer (zusätzlichen) sogenannten eSIM, die im Fahrzeug fest verbaut ist. Hierdurch wird der bestehende Mobilfunkvertrag des/der Kund:innen um Konnektivität im Fahrzeug „verlängert” – und das Auto wird gewissermaßen zum Smartphone.

Wesentliche Vorteile von Vodafone OneNumber Car sind unter anderem:

  • Schwierige Empfangsbedingungen und Gesprächsabbrüche im Fahrzeug (beispielsweise durch beschichtete Autoscheiben und eine insgesamt niedrigere Signalstärke als außerhalb) gehören der Vergangenheit an.
  • Die Gesprächsqualität und die Qualität der Datenverbindung sind ebenfalls deutlich besser als bei herkömmlicher Verwendung eines Smartphones im Fahrzeug. Das System ist sogar 5G-fähig.
  • Für Connectivity im Fahrzeug ist kein zusätzlicher Vertrag notwendig. Die Tarifoption kann bequem über den Mobilfunkvertrag bezahlt werden und ist jederzeit kündbar.
  • Die Option kann auch in (entsprechend kompatible) Autos mitgenommen werden und ist somit flexibel nutzbar.

 

Mit OneNumber Car werden somit fahrerbezogene Angebote und Funktionen über die Kunden-eSIM, fahrzeugbezogene Dienste wie Mobilitätsunterstützung hingegen über die Fahrzeughersteller-eSIM abgewickelt. Die Integration von Mobilfunktechnologie in das Fahrzeug bereits ab Werk macht somit schon jetzt den Weg frei für das teil- oder vollautonome Fahren mit 5G-Unterstützung. Mit der buchbaren Option Vodafone OneNumber Car wird der BMW iX gewissermaßen zum Smartphone auf Rädern.

 

Automatische, individuelle Sitzanpassung und Multimedia-Auswahl

Neben Effizienz und Sicherheit steht auch der Komfort für die Insassen im Fokus der Fahrzeugentwickler. Über selbstlernende Nutzerprofile lassen sich viele Einstellungen bei Audi, Mercedes-Benz & Co. schon heute mit einem Fingerabdruck abrufen. Dazu gehören die Sitzeinstellung nach Körpergröße, die Klimatisierung, die Ambientebeleuchtung im Innenraum sowie die Musik und sogar der Wunschduft. Je nach Hersteller stehen neben dem Fingerabdruck auch andere biometrische Erkennungsverfahren wie Gesichtsscan oder Stimmerkennung zur Wahl.

 

Eine selbstlernende Software wiederum erfasst wiederkehrende Stimmungen und Strecken, ordnet sie bestimmten Szenarien zu und macht den Fahrer:innen entsprechende Vorschläge. Das kann ein bestimmtes Navigationsziel sein, ein bestimmtes Hörbuch und eine bestimmte Telefonnummer, beispielsweise um zuhause die Ankunft anzukündigen.

 

Der Clou: Mehrere Nutzer:innen können sich ein Auto teilen und es sich mit einem Fingerdruck jederzeit nach ihren Vorlieben konfigurieren. Das Nutzerprofil kann auch in andere Fahrzeuge übertragen werden, beispielsweise in ein Carsharing-Fahrzeug oder Mietwagen am Urlaubsort. Diese Technologie wird laut Anbieterinformationen auch in kleineren Fahrzeugklassen verfügbar sein.

Mehr Sicherheit auch im Falle eines Falles: Mit e-Call++

Zusätzlich gibt es ein neues Sicherheitskonzept. Sensoren messen Vitalwerte wie Puls oder Sauerstoffgehalt im Blut der Passagiere sowie die Luftqualität inner- und außerhalb des Autos. Diese könnten im Falle eines Unfalls über die IoT-SIM-Karten direkt an Rettungsleitstellen übermittelt werden (e-Call++).

Wenn dann künftig noch eine Drohne benachrichtigt wird, die das Unfallgeschehen schon einmal dokumentiert, können die Rettungskräfte schon auf dem Weg einen 360°-Blick auf das Vor-Ort-Geschehen werfen und somit wertvolle Minuten sparen. Hier spielen die Connectivity mit Diensten wie Vodafone ID oder einer Drohnen-Vernetzung zusammen.

Antriebsarten für das Auto der Zukunft: Welche werden sich durchsetzen?

Eine der wichtigsten Fragen beim Blick auf das Auto der Zukunft ist: Welche Antriebsart ist die beste? Die Antwort erscheint zunächst banal, weil alle Hersteller davon sprechen und teilweise ganze Produktpaletten austauschen: der Elektroantrieb. Doch dazu später mehr. Schauen wir uns zunächst einmal die anderen bekannten Antriebsarten genauer an.

Haben Diesel und Benziner noch eine Zukunft?

Mittelfristig wird es einen Fahrzeugmarkt ohne Benzin- und Dieselantriebe nicht geben. Selbst in Deutschland steht aktuell deutlich zu wenig Strom zur Verfügung, um den kompletten Pkw-Bestand umzustellen. Würden alle Anwohner:innen einer Wohnstraße in einer Kleinstadt ihre Fahrzeuge am Abend aufladen, würde dort die Stromversorgung wegen Überlastung zusammenbrechen.

Aktuell stehen in Deutschland und vielen anderen Staaten zudem nicht ausreichend Ladesäulen zur Verfügung – in weiten Teilen der Welt nicht einmal ansatzweise, beispielsweise in südamerikanischen oder afrikanischen Staaten. Selbst in den USA und Kanada stellt ein flächendeckendes Ladenetz ein großes Problem dar. Zudem werden moderne Benzin- und Dieselmotoren immer sauberer. Allerdings ist die Abgasreinigung besonders aufwendig. Diesel sind deshalb schon heute kaum noch in Kleinwagen zu finden – in Zukunft nach Einschätzung von Expert:innen auch nicht mehr in der Kompakt- und Mittelklasse.

 

Erdgasautos: Ein Schritt in die richtige Richtung?

Benzinmotoren können in der Regel auch mit Erdgas als Kraftstoff betrieben werden. Erdgas ist zwar wie Benzin und Diesel ein fossiler Brennstoff, bei der Verbrennung entstehen aber bis zu 80 Prozent weniger Schadstoff-Emissionen. Auf dem Weg in die CO2-freie Mobilität dürfte es Erdgas als Treibstoff für das Auto der Zukunft jedoch schwer haben. Zumal auch nur wenige Autohersteller überhaupt Fahrzeuge mit Erdgasantrieb anbieten.

 

Hybridfahrzeuge: Auf dem Weg zur Elektromobilität

Bei einem Hybridantrieb kommen ein Verbrennungs- und ein Elektromotor (für den Antrieb und als Generator) gemeinsam zum Einsatz. Das macht derart ausgerüstete Fahrzeuge allerdings auch teuer. Für Menschen, die sich den Schritt zu einem reinen Elektroauto bislang nicht zutrauen, denen das Angebot an Ladesäulen noch nicht ausreicht und/oder denen die elektrische Reichweite eines Elektroautos noch immer zu niedrig ist, könnte ein Fahrzeug mit Hybridantrieb die Alternative sein. Wobei man zwischen einem Hybridantrieb und einem Plug-in-Hybrid unterscheiden muss.

Bei einem Hybridfahrzeug lädt der Antriebsakku ausschließlich über den Generator des Fahrzeugs. Er ist deswegen relativ klein und ermöglicht rein elektrisches Fahren nur auf wenigen Kilometern. Im Vergleich dazu beträgt die rein elektrische Reichweite bei einem modernen Plug-in-Hybrid-Fahrzeug immerhin bis zu 100 Kilometer.

Das Elektroauto – das Auto der Zukunft?

Für viele gilt der Elektromotor als der Antrieb der Zukunft – entweder zunächst als Fahrzeug mit Hybrid- oder direkt einem rein elektrischen Antrieb. Momentan setzen die Fahrzeughersteller nahezu ausschließlich auf einen Akku als Stromspeicher. Wird der Strom aus erneuerbaren Energien erzeugt – beispielsweise aus einer Photovoltaikanlage –, fahren diese Elektroautos ohne Emissionen.

Ein Elektroauto kann den nötigen Strom aber auch selbst an Bord erzeugen, beispielsweise durch einen Generator, der von einem mit gleichmäßiger Drehzahl laufenden Verbrennungsmotor angetrieben wird. Dieser arbeitet zwar nicht komplett emissionslos, aber stets im optimalen Drehzahlbereich und damit besonders emissionsarm. Eine weitere Alternative ist die Brennstoffzelle, die über einen chemischen Prozess aus Wasserstoff Strom erzeugt. Als einziges Abgas entsteht Wasserdampf. Allerdings sind die Herstellung, der Transport und die Lagerung von Wasserstoff bislang sehr aufwendig.

 

Der Treibstoff für das Auto der Zukunft: Wasserstoff, Biogas, Erdgas oder Strom?

Momentan läuft alles auf Strom für Pkw und mit Wasserstoff betriebene Brennstoffzellen in Lkw und schweren Bau- und Transportmaschinen bis zu Lokomotiven hin. Erd- und Biogas sind nicht CO2-frei. Eine Alternative könnten synthetisch hergestellte Kraftstoffe wie das sogenannte E-Fuel sein. Es wird mithilfe von Strom aus erneuerbaren Energien aus dem umweltschädlichen CO2 hergestellt. Dabei würde eine Art CO2-Kreislauf entstehen. Allerdings ist der Prozess sehr energieaufwendig und der Anteil an regenerativ erzeugten Strom deutschland- und weltweit aktuell viel zu niedrig.

 

Vom Wertewandel in der Fahrzeugindustrie

Egal, auf welchen Antrieb ein Automobilhersteller setzt, wird es für ihn und seine Wettbewerber deutlich schwieriger, seine Autos zu verkaufen – zumindest in den bisherigen Regionen und an die bisherigen Kunden. Einen großen Anteil daran hat der Wertewandel in der Gesellschaft. Das Auto ist in vielen Bevölkerungsschichten längst kein Statussymbol mehr. Alternative Fortbewegungsmittel, gesetzliche Auflagen gerade in Ballungsräumen und nicht zuletzt immer weiter steigende Kraftstoffpreise wirken sich auf den Absatz aus.

So besitzen in den USA inzwischen beinahe 30 Prozent der 19-Jährigen gar keinen Führerschein mehr. Die junge Zielgruppe macht sich rar. Ihnen geht es auch gar nicht mehr darum, ein Auto zu besitzen. Ihnen reicht es, wenn sie eines zur Verfügung haben, wenn sie es benötigen. Car- oder Ridesharing-Angebote reichen ihnen in der Regel aus, notfalls tut es auch ein Mietwagen. Kein Wunder also, dass diese innovativen Mobilitätsangebote weltweit in Mega-Citys boomen. Übrigens initiieren und betreiben die Autohersteller selbst häufig solche Angebote – so wird die Autoindustrie zu ihrem besten Kunden.

 

Das 5G-Netz bringt dem Auto der Zukunft den Durchbruch

Viele dieser neuen Mobilitätsdienste setzen dabei auf eine Kommunikation in Echtzeit. Das reicht vom Überprüfen der Verfügbarkeit eines Car- oder Ridesharing-Angebot über das Buchen bis hin zum Bezahlen. Und sind die Fahrzeuge erst einmal vollständig autonom unterwegs – beispielsweise als sogenannte Robo-Taxen –, sind sie für einen sicheren und zuverlässigen Betrieb auf 5G und V2X angewiesen. PwC Global Automotive Leader Felix Kuhnert und Automobil-Experte Dietmar Ahlemann gehen davon aus, dass es 2030 bis zu 16 Millionen 5G-fähige Fahrzeuge geben wird.

Quelle:

https://www.vodafone.de/business/featured/technologie/das-auto-der-zukunft-so-koennte-individuelle-mobilitaet-bald-aussehen/

DDoS-Angriffe: Was dahinter steckt und wie Sie sich wirksam vor Attacken schützen

Ein DDoS-Angriff oder Distributed-Denial-of-Service-Angriff ist eine verteilte Attacke auf Dienste oder Server. Sie findet meist über das öffentliche Internet statt. Der Angriff besteht dabei aus mehreren einzelnen Angriffen der Art „Denial-of-Service (DoS)”. Dabei werden einzelne Ports von Routern, Servern oder Services mit Anfragen so lange geflutet, bis die Dienste oder Rechner nicht mehr oder nur noch stark eingeschränkt verfügbar sind. Wie funktioniert so ein DDoS-Angriff und wie können Sie sich davor schützen?

Das Ziel von DDoS-Attacken ist es eigentlich immer, Server oder Webdienste zum Ausfall zu bringen. Gelingt den Angreifer:innen die Blockade von Servern, Diensten oder Schnittstellen, fordern die Cyber-Kriminellen in der Regel Geldzahlungen (meist in Kryptowährung), um die Blockade zu beenden. In wenigen Fällen stellen sie auch politische Forderungen.

Dabei stehen nicht nur populäre Dienstleister wie Amazon, Yahoo und eBay im Fokus der Angreifer. Häufig sind es auch kleinere Unternehmen, deren Server und Dienstleistungen sie außer Gefecht setzen. Gerade solche IT-Infrastrukturen sind nicht immer optimal geschützt und stellen ein leichtes Angriffsziel dar.

Dabei beobachten Expert:innen verstärkt Angriffe auf Unternehmen und eine Verschärfung der Bedrohungslage. Sowohl die bei DDoS-Attacken verwendete Bandbreite als auch die Komplexität der Vorgehensweise haben im Vergleich zum Vorjahr deutlich zugenommen. Bei der maximal eingesetzten Bandbreite verdoppelte sich das Volumen innerhalb der vergangenen 12 Monate.

Wie der DDoS-Attack-Report von Radware für das Jahr 2021 zeigt, hatte weltweit jedes KMU im ersten Quartal 2021 fast 5.000 bösartige Attacken mit einem Volumen von 2,3 Terabyte pro Monat zu blockieren und abzuwehren. Im zweiten Quartal 2021 stieg die Anzahl der blockierten Angriffe pro Unternehmen um mehr als 30 Prozent, wobei das Datenvolumen durch diese Angriffe im Vergleich zum zweiten Quartal 2020 um mehr als 40 Prozent zunahm.

Die aktuelle Radware-Studie zeigt auch, dass es im zweiten Quartal 2021 zunehmend außergewöhnliche und global organisierte DDoS-Angriffe gab. Was können Unternehmen also tun, um nicht Opfer einer solchen Attacke zu werden – oder zumindest den Schaden zu begrenzen? Der Schutz von Unternehmen vor Cyberattacken hat überall oberste Priorität.

Was sind DDoS-Angriffe?

Wenn Denial of Service-Angriffe aus mehreren, eigentlich voneinander unabhängigen („verteilten”) Quellen konzentriert ein System mit Anfragen fluten, spricht man von einem Distributed-Denial-of-Service oder kurz DDoS-Angriff. Ein DDoS-Angriff besteht somit aus unzähligen einzelnen DoS-Attacken, die im Verbund durch mehrere Rechner oder ganze Rechnersysteme gleichzeitig ausgeführt werden.

 

So funktioniert ein DDoS-Angriff

Potenzielle Ziele für DDoS-Attacken sind Router, Webserver, Mailserver, DNS-Server oder Dienste und Schnittstellen im Netzwerk. Meist befinden sich diese im (öffentlich zugänglichen) Internet und beantworten Systemanfragen der unterschiedlichsten Art wie beispielsweise Webservices, E-Mail-Dienste oder Datenserver.

Zum Start eines DDoS-Angriffs muss eine ganze Reihe von „Attackern” (Angreifern) zur Verfügung stehen. Durch Sicherheitslücken wurden die bis dato harmlosen Systeme mit Schadcode infiziert und dienen nun dazu, auf ein Signal hin am DDoS-Angriff teilzunehmen.

Meist verwenden die Cyber-Kriminellen Bot-Netze, um massenhaft Rechnersysteme für den Angriff zu vereinen und damit selbst Hochleistungsserver in die Knie zu zwingen. Computer oder allgemeiner infizierte Geräte, die an so einem Botnet-Angriff beteiligt sind, bezeichnet man als „Bot“, „Zombie“ oder auch „Slave“. Diese nehmen häufig nicht nur am Angriff selbst teil, sondern sorgen auch für die Verbreitung der Malware.

Über diese Botsysteme ist es den Cyberkriminellen überhaupt erst möglich, DDoS-Attacken zu steuern, um beispielsweise massenhaft Anfragen an andere Rechner zu senden. Ein angegriffenes System, das über keinerlei Schutzvorrichtung gegen solche Attacken verfügt, ist meist innerhalb von Sekunden nicht mehr in der Lage, die Last zu bewältigen. Die Folgen sind ein eingeschränktes Antwortverhalten oder der komplette Ausfall von Systemen. Im Zuge dieser Eliminierung von Systemen folgen häufig nachgelagerte Attacken durch andere Malware, was den Schaden erheblich vergrößert.

DDoS-Angriffe: Diese Arten gibt es

Cyber-Kriminelle nutzen unterschiedliche Arten von DDoS-Angriffen, wobei die Methoden nach den Netzwerkschichten des OSI-Modells (Open Systems Interconnection Modell für Netzwerkprotokolle, kurz OSI-Modell) klassifiziert sind. Das OSI-Modell kennt insgesamt sieben Schichten. Jede Schicht des OSI-Modells repräsentiert einen bestimmten Teil des Netzwerks. Angreifer:innen zielen auf verschiedene Ebenen ab; je nachdem, welche Art von web- oder internetbezogenen Ressourcen sie stören möchten.

Die einfachste Form des Angriffs besteht darin, Systemressourcen oder Netzwerkbandbreiten zu überlasten. Dabei werden die Netzwerk- und die Transportschicht des Netzwerks (Layer 3 und 4) blockiert. Die Angreifer:innen setzen hierbei auf Volumen und Masse der Anfragen, um ihre Ziele zu erreichen. Die Menge des erzeugten Traffics führt dabei zu einer Überlastung der Systeme.

Protokollangriffe hingegen ziehen sich durch mehrere Schichten des OSI-Modells. Über die klassischen Internet-Protokolle (XMPP, https, DNS, SMTP, TCP, UDP usw.) versuchen Angreifer:innen, die Rechenkapazität verschiedener Netzwerkinfrastrukturressourcen wie Router, Server oder Firewalls zu überlasten.

Weit verbreitet ist auch die Blockade auf Anwendungsebene (Layer 7). Die Angriffsmuster von DDoS-Attacken ändern sich jedoch ständig und stehen im Wettbewerb mit immer besseren Schutzmaßnahmen. Diese orientieren sich ebenfalls an aktuellen Angriffsmustern und werden laufend weiterentwickelt.

DDoS-Angriff: So können Unternehmen eine Attacke abwehren

Anbieter, die sich auf die Abwehr von DDoS-Attacken spezialisiert haben, bezeichnet man auch als DDoS-Mitigation-Dienstleister. Mitigation bedeutet „Abschwächung“ – und so bezeichnet DDoS-Mitigation Techniken und Tools, um mit dem Internet verbundene Netzwerke gegen DDoS- und DoS-Angriffe abzuschirmen oder deren Folgen zumindest abzumildern.

Lösungen zur DDoS-Mitigation oder DDoS-Protection arbeiten auf unterschiedlichen Ebenen. Einige sorgen durch Drosselung der verfügbaren Bandbreite für den Schutz der Systeme. Andere DDoS-Schutzlösungen gewährleisten durch Filterung des eingehenden Traffics, dass Botnet-Anfragen blockiert und nur gültige Pakete im Netz beantwortet werden. Je nach Anwendungsfall sind manche Schutzmechanismen permanent aktiv, wobei andere Lösungen sich nur im akuten Angriffsfall aktivieren.

Checkliste beim Vorgehen gegen DDoS-Angriffe

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat eine Checkliste für Unternehmen entwickelt, um DDoS-Angriffen wirksam zu begegnen:

  • Berichten Sie den Vorfall entsprechend Ihrer internen Richtlinien zur Eskalation an das Management.
  • Binden Sie den eigenen Internet-Service-Provider (ISP), beziehungsweise Hosting-Provider frühzeitig ein.
  • Schalten Sie Ihre Rechtsabteilung oder Ihren Anwalt ein und stellen Sie Strafanzeige bei der örtlichen Polizei.
  • Für die Presse- und Öffentlichkeitsarbeit müssen Sie Informationen zum Vorfall aufbereiten, um bei möglichen Presseanfragen auskunftsfähig zu sein.
  • Sie sollten Vertragspartner und/oder Kunden zeitnah informieren über die möglichen Einschränkungen bei der Verfügbarkeit von Diensten und eventuelle Datenverluste.
  • Berichten Sie den Vorfall an das BSI: Das BSI ist als zentrale IT-Sicherheitsbehörde bei größeren DDoS-Angriffen an Berichten der Betroffenen interessiert, um die aktuelle IT-Bedrohungslage in Deutschland analysieren zu können. Diese Berichte erfolgen auf freiwilliger Basis und werden vertraulich behandelt.

Quelle: Bundesamt für Sicherheit in der Informationstechnik (BSI), www.bsi.bund.de

 

DDoS-Mechanismen und deren Abwehr

DDoS-Schutzanbieter haben eine Palette von Möglichkeiten, um bei akuten Angriffen zu reagieren und Gegenmaßnahmen einzuleiten. Diese zielen darauf ab, die Auswirkungen eines Distributed-Denial-of-Service-Angriffs zu stoppen und möglichen Schaden zu verringern. Eine Möglichkeit ist es, Server und Dienste in die Cloud zu verlegen. Cloud-basierter DDoS-Schutz bietet umfassende Sicherheit in großem Maßstab, auf dem neuesten Stand und mit modernsten Methoden. In der Folge bleiben Ihre Backend-Infrastruktur und internetbasierte Dienste verfügbar, auch wenn es zu einem Angriff kommt.

Einen wirksamen Schutz gegen DDOS-Attacken bietet auch die so genannte DDoS-Mitigation. Diese wird durch Umleitung des Datenverkehrs auf ein sogenanntes Scrubbing-Center realisiert. Hier werden alle Daten bereinigt und erst im unkritischen Zustand an den eigentlichen Ziel-Server weitergeleitet. Durch diese Vorgehensweise lassen sich Webservices und andere IP-Dienste vor Angriffen schützen. Die Umleitung ins Scrubbing-Center kann entweder via DNS oder für ganze IP-Adressbereiche erfolgen.

Eine sehr effektive Möglichkeit bietet außerdem die Auswertung des Datenverkehrs im Backbone des Netzwerkes. Im Angriffsfall lassen sich darüber angreifende IP-Adressen oder auch ganze Subnetze mit Bot-Aktivität sperren. Provider können DDoS-Angriffe jedoch erst abwehren, wenn eine DDoS-Attacke bereits läuft. Das BSI empfiehlt, mit dem Provider entsprechend vorher Methoden und Strategien zu vereinbaren und Notrufnummern auszutauschen, um im Bedarfsfall schnell reagieren zu können. Entsprechende DDoS-Schutzpakete der Provider sollten neben technischen Maßnahmen und Toolkits auch Verfahrensregeln für den Notfall enthalten.

SYN-Flood: DDoS-Attacke auf Protokollebene

Bei den DDoS-Angriffen auf Protokollebene ist die SYN-Flood-Attacke eine der bekanntesten Angriffsarten. Um die Methode zu verstehen, ist es notwendig, sich mit den Netzwerkprotokollen und speziell mit TCP-Verbindungen zu befassen. Das weithin verbreitete Transmission Control Protocol (TCP) ist das Protokoll der Wahl, wenn es darum geht, dass Systeme sich miteinander über das Internet verbinden.

Zum Aufbau einer TCP-Verbindung auf Layer 4 sendet der Client ein Paket. Der Server empfängt das SYN-Paket, notiert den Empfang in einer Verbindungstabelle und schickt ein SYN-ACK-Paket zurück. Der Client sendet dann ein ACK-Paket (von englisch acknowledgement, also als Quittierung) als Empfangsbestätigung an den Server, um den Verbindungsaufbau abzuschließen. Dieser Vorgang wird als „Drei-Wege-Handshake” bezeichnet.

Während eines SYN-Flood-Angriffs sendet der von Malware befallene Client eines Botnetzes massenhaft SYN-Pakete, jedoch niemals eine Bestätigung zum Abschluss des Handshakes. Dadurch wartet der Server auf eine Antwort für diese halboffenen TCP-Verbindungen, wobei er ständig neue Verbindungen durch ankommende Pakete offen halten muss. Nach kurzer Zeit ist es nicht mehr möglich, weitere Verbindungen herzustellen – und die Website ist nicht mehr erreichbar.

HTTP-Flood: Eine DDoS-Attacke auf Anwendungsebene

DDoS-Attacken auf der Anwendungsschicht (Layer 7) basieren auf bereits aufgebauten Verbindungen und haben sich zu einer der häufigsten Angriffsformen entwickelt. Sie zielen darauf ab, die Überlastung einer Webapplikation durch eine Flut von HTTP-Anfragen hervorzurufen – daher auch der Name „HTTP-Flood”.

Attacken auf der Applikationsebene werden häufig nicht sofort bemerkt, da es sich um Standard-URL-Anfragen handelt, die sich wie regulärer Traffic verhalten. Nur entsprechende Layer-7-Schutzmaßnahmen und Zugriffsauswertungen, die automatisch auf ungewöhnliche Auslastung reagieren, bieten hier wirksamen Schutz und können einen Angriff tatsächlich abwehren.

DNS-Amplification: DDoS-Angriff zur Überlastung des Datennetzes

Beim DNS-Amplification-Angriff (engl. „amplification” für Verstärkung) konzentrieren Angreifer:innen gezielt DNS-Datenströme auf den Internetanschluss der Zielsysteme, um diese damit zu blockieren. Sie nutzen dabei den Effekt, dass Namensserver in bestimmten Fällen auf kurze Anfragepakete mit sehr langen Paketen antworten. Je nach DNS-Anfrage sendet der Server unterschiedlich lange Pakete zurück. Solch eine Anfrage kann beispielsweise die nach der Adresse zu einem bestimmten Namen sein. Durch diese Methode ist es möglich, aus einer 60 Bytes umfassende Anfrage eine mehr als 3.000 Bytes lange Antwort provozieren. Das Datenvolumen vergrößert sich also um den Faktor 50.

Bei einem dokumentierten Angriffsfall auf die Antispam-Organisation „spamhaus.org” führte eine 36-Byte-Anfrage zu Antworten von über 3.000 Zeichen, was fast einer Vergrößerung um den Faktor 100 entspricht. Besonders heimtückisch bei dieser Angriffsart ist, dass für Opfer derartiger Angriffe meist nur die IP-Adressen der Nameserver sichtbar sind, nicht aber die des oder der eigentlichen Angreifer:in.

DRDoS: Die Sonderform der DDoS Attacke

Bei einer Distributed-Reflected-Denial-of-Service-Attacke (DRDoS) handelt es sich um eine Sonderform des DoS-Angriffs. Hierbei werden der betroffene Server oder die Website nicht direkt, sondern über einen Dritten angegriffen. Meist handelt es sich dabei reguläre Internetdienste, die durch IP-Spoofing oder andere Techniken manipuliert werden, um Traffic auf das jeweilige Ziel zu leiten.

Beim IP-Spoofing werden einzelne IP-Pakete mit gefälschter Absender-IP-Adresse an das Zielsystem geschickt. Ähnlich dem DoS-Angriff besteht auch hier das Prinzip darin, massenhaft Anfragen zu verschicken, bis sie die betroffenen Systeme blockiert oder lahmgelegt haben.

DDoS-Bedeutung in der Zukunft

DoS-Angriffe sind für Unternehmen weitaus verheerender als noch vor ein paar Jahren. Der Erfolg des Internets der Dinge (IoT) dürfte diesen Trend weiter verstärken. Dabei gibt es wirkungsvolle Schutzlösungen, die DDoS-Gefahren effektiv bannen. Statische, regelbasierte Angriffstaktiken gehören inzwischen der Vergangenheit an. Die Zukunft gehört deshalb Lösungen, die KI-gestützt automatisch und permanent Datenströme analysieren und adaptive Sicherheitsstrategien ableiten.

Die Entwicklung dieser Security-Lösungen steht dabei im ständigen Wettbewerb mit zunehmend ausgefeilteren Angriffsmethoden. Doch wenn Unternehmen und Security-Dienstleister die Abwehrmechanismen ständig an die Bedrohungslage anpassen, lassen sich Sicherheitspannen und damit verbundene Geschäfts- und Reputationsverluste auch in Zukunft vermeiden. Ein vielversprechender Weg zu insgesamt sichereren Systemen ist die Bündelung von Sicherheitsanforderungen und Aktualisierungen in der Cloud. Das entlastet nicht nur die hauseigene IT-Abteilung, sondern hält auch alle verwendeten Systeme automatisch auf dem neuesten Stand.

Quelle:

https://www.vodafone.de/business/featured/digitales-business/digitale-geschaeftsprozesse/ddos-angriffe-was-dahinter-steckt-und-wie-sie-sich-wirksam-vor-attacken-schuetzen/

Das Vorhängeschloss der Zukunft: mehr Effizienz, Sicherheit und Kontrolle durch Digitalisierung

Wenn bewegliche Wirtschaftsgüter gestohlen werden, sind sie meist schon nach kurzer Zeit sprichwörtlich „über alle Berge”. Ein herkömmliches Vorhängeschloss – und sei es noch so dick und robust ausgeführt – hält Langfinger dabei kaum auf: Mit entsprechendem Werkzeug sind diese in Sekundenschnelle geknackt. Oft kommt sogar direkt das komplette Wirtschaftsgut, beispielsweise ein Container mit Werkzeugen, abhanden, ohne dass das Schloss zunächst aufgebrochen wurde. Das wird dann in aller Ruhe zu einem späteren Zeitpunkt beispielsweise in einer Halle erledigt. Neuartige smarte Schlösser sollen das ändern: Sie registrieren zuverlässig nicht nur Diebstahlversuche durch den verbauten Bewegungssensor, sondern benachrichtigen im Falle eines Alarms den Eigentümer und geben auch ihre eigene Position durch.

Doch damit nicht genug: Auch das Öffnen solcher sogenannter Smart Locks wird komfortabler und gelingt inzwischen per Smartphone-App. Der gute alte physische oder „analoge” Schlüssel hat hier schon ausgedient. So können Sie ganz digital Zugriffsrechte für Mitarbeiter oder Dritte einrichten und ihnen so permanenten oder temporären Zugang zu Ihrem Smart Lock am Wirtschaftsgut ermöglichen. Das macht solche Schlösser auch für Verleihfirmen interessant.

 

Diebstahlsicherung 4.0: Mit GPS, Mobilfunk und einem webbasierten Dashboard

Mehr als 300.000 Einbrüche und fast vier Milliarden Euro Schaden mussten Handel, Industrie und Versicherer im Jahr 2018 wegstecken. Grund genug für Vodafone und ABUS, sich dem Thema eingehend zu widmen.

Bis heute verlassen sich viele Baufirmen, Verleiher oder Logistiker auf das gute alte Vorhängeschloss. Wird dieses über Nacht aufgebrochen, bemerken die Mitarbeiter den Schaden oft erst am Folgetag oder sogar noch später. Bis dahin ist der Inhalt natürlich längst auf Nimmerwiedersehen verloren. Im schlimmsten Fall sind sogar gleich der ganze Container oder das Wirtschaftsgut mitsamt Schloss weg. Was folgt, sind häufig lange Diskussionen mit der Versicherung, das Heraussuchen verbleibender Schlüssel und jede Menge Papierkram. Von möglichem Verzug im Bauplan oder bei der Auslieferung bestellter Ware einmal abgesehen.

Ein Schloss der neuesten Generation, wie das Vodafone Smart Lock, bietet gleich mehrere Vorteile auf einmal:

  • Diebstahlschutz: Kommt es zu unberechtigten Öffnungsversuchen, die durch eine Bewegung am Schloß entdeckt werden, wird ein akustischer Alarm ausgelöst und der Schloß-Eigentümer per Push-Nachricht informiert.
  • Location Tracking: Ist Tracking aktiviert, übermittelt das Schloss regelmäßig seinen Standort. Die Tracking-Route kann dann in der App oder dem Kundenportal eingesehen werden. Optional kann ein sogenannter Geofence eingestellt werden, der einen Alarm auslöst, sobald das Schloss einen vorher definierten Bereich verlässt oder „betritt”.
  • Einfache Verwaltung: Verwalten Sie den Zugang zu Ihren Schlössern als Teil Ihres Sicherheitskonzepts über die App oder ein einfach zu bedienendes Dashboard, das optional erhältlich ist. Schlüsselkopien sind nicht mehr notwendig und es entfällt die Schlüsselübergabe vor Ort, da dies digital geschieht.
  • Unterschiedliche Bauformen, eine Baureihe: Je nach Einsatzzweck kann das Smart Lock als Bügelschloss in zwei Stärken, mit Kette oder Kabel bestellt werden. Die verschiedenen Formfaktoren können flexibel eingesetzt werden.
  • Öffnen via App: Das Schloss wird einfach per BLE (Bluetooth Low Energy)-Schnittstelle mit der Smart Lock App geöffnet. Zusätzlich kann das Schloss über das Kundenportal aus der Ferne geöffnet werden, ohne die App zu nutzen.
  • Erleichterter Nachweis: Gegenüber Versicherungen lässt sich ein Diebstahl einfacher nachweisen, da es keine „echten” Schlüssel gibt und jede Aktivität am Schloss in der App und in einem optionalen Kundenportal dokumentiert wird. Somit weiß man jederzeit wer zuletzt das Schloss bedient hat und ob es auch tatsächlich verschlossen wurde.

So funktioniert das Vorhängeschloss der Zukunft aus technischer Sicht

Neben seiner besonders widerstandsfähigen und wetterfesten Robustheit verfügt das Vodafone Smart Lock-Vorhängeschloss (Partner: ABUS) in seinem Innenleben über jede Menge High-Tech. Darunter sind:

  • ein integrierter IoT SIM-Chip, der neben dem Vodafone Mobilfunknetz auch in Fremdnetzen roamt
  • ein Bluetooth-Modul zur Steuerung via App
  • ein GPS-Modul zur zuverlässigen Positionsbestimmung im Freien
  • ein Bewegungssensor
  • ein leistungsstarker Akku

Jedes Smart Lock ist im Grunde sofort einsatzbereit. Registrieren Sie es zunächst via Bluetooth in der Smart Lock-App für Android oder iOS und legen Sie wichtige Betriebsparameter wie z.B. Alarmierung fest. Mit ein paar Klicks verschaffen Sie weiteren Nutzern Zugang zum Schloss.

Bringen Sie nun das Schloss an Ihrem Wirtschaftsgut an und steuern Sie den Zugriff bequem via App oder mit Hilfe eines webbasierten Dashboards. Geschieht etwas Unerwartetes, können Sie sowohl einen akustischen Alarm, als auch eine Push-Signalisierung am Smartphone und in der App auslösen lassen.

Ein Schloss – viele Anwendungsbereiche

Für das Vodafone Smart Lock gibt es jede Menge denkbare Einsatzbereiche. So können Sie mit seiner Hilfe nicht nur klassische Container, Gitterboxen, Schränke, Kisten, Tore, Spinde und Baumaschinen auf moderne Art und Weise sichern. Das Vodafone Smart Lock kann überall zum Einsatz kommen, wo Sie bislang konventionelle Schlösser nutzen. Auch auf Veranstaltungen leisten solche Schlösser ebenfalls hervorragende Dienste, da dort häufig jede Menge teures Equipment zeitweise eingelagert wird.

Auf unserer Vodafone Smart Lock-Produktseite erfahren Sie mehr über die Zukunft des Vorhängeschlosses und werden individuell und unverbindlich zu Ihrem Bedarf beraten.

Quelle:

https://www.vodafone.de/business/featured/technologie/das-vorhaengeschloss-der-zukunft-mehr-effizienz-sicherheit-und-kontrolle-durch-digitalisierung/#keyfact-anchor-1

Firewalls einfach erklärt: Definition, Arten und Einsatzzwecke im Überblick

So gut wie jedes IT-System mit direkter oder indirekter Internetanbindung wird heutzutage durch eine oder mehrere Firewalls geschützt. Dabei handelt es sich um IT-Systeme, die ein- und ausgehenden Datenverkehr untersuchen – und ihn nach bestimmten Regeln entweder erlauben oder verbieten. Sie sind gewissermaßen das Herzstück der IT-Sicherheit (nicht nur) in Unternehmen.

46 Prozent der deutschen Unternehmen wurden laut einer Statista-Befragung im Jahr 2021 Opfer einer oder mehrerer Cyber-Attacken. Dass diese in den meisten Fällen glimpflich ausgehen, ist nicht zuletzt gut funktionierenden Firewall-Systemen zu verdanken. Sie sorgen dafür, dass „böser” Datenverkehr von „gutem” unterschieden wird. Schließlich sollen Rechner und Firmennetzwerke im beruflichen Alltag genau das machen, was sie sollen – ohne dabei plötzlich von Fremden gekapert oder ausspioniert zu werden.

Doch wie funktioniert eine Firewall eigentlich und warum ist es bei Systemen ohne einen solchen Schutz nur eine Frage der Zeit, bis sie infiziert werden? Das und noch einiges mehr rund um die digitalen „Brandmauern” im Internet erfahren Sie in diesem Beitrag.

 

Was ist eine Firewall und warum ist sie für Unternehmen so wichtig?

Der Begriff der Firewall an sich ist schnell erklärt. Es handelt sich um eine Analogie aus dem Englischen, die übersetzt so viel wie „Brandmauer” oder „Brandschutzwand” bedeutet. Dabei liegt der Definition von Firewalls die Idee zugrunde, dass das öffentliche Internet nicht nur für „harmlosen” Datenverkehr genutzt wird, sondern es auch Kriminelle für ihre Zwecke missbrauchen. Diese legen gewissermaßen Brände im Internet, die ohne funktionierende Firewall allzu schnell auf weitere ungesicherte Rechner übergreifen.

Das Schlimme hieran ist: Selbst, wenn niemand aktiv Daten aus dem Internet abruft, prüfen Kriminelle mithilfe sogenannter Port-Scanner fortlaufend zufällig ausgewählte IP-Adressen und die zugehörigen, gängigen oder auch alle Ports auf Verwundbarkeit. Es reicht also, dass ein Rechner – oder ein Rechnerverbund – „ungeschützt“ eingeschaltet und mit dem Internet verbunden ist. Der Besuch durch ungebetene Gäste ist dann letztlich nur eine Frage der Zeit.

Bei Firewall-Systemen gibt es die grundsätzliche Unterscheidung zwischen „Personal Firewalls“ für einzelne Rechner und „Hardware Firewalls“ für ganze Netzwerke und externen Datenverkehr. Ihnen gemein ist: Sie beurteilen anhand bestimmter Regeln, ob ein Datenpaket als vertrauenswürdig gilt oder nicht. Bei modernen Firewall-Systemen können Sie diese Regeln dynamisch anpassen bzw. die Firewall lernt fortlaufend dazu, um bessere Entscheidungen zu treffen.

Dementsprechend sind Firewalls wesentlicher Bestandteil eines jeden IT-Sicherheitskonzepts. Sie sollten sie jedoch nicht allein einsetzen; um Systeme zu schützen. Stattdessen ist immer eine ganzheitliche IT-Sicherheitsstrategie notwendig.

Wie funktioniert eine Firewall aus technischer Sicht?

Um zu verstehen, wie eine Firewall funktioniert, ist es zunächst wichtig, die Funktionsweise der Datenübertragung im Internet zu kennen. Sämtlicher Datenverkehr wird im Grunde stets in Form sogenannter Pakete abgewickelt. Hierbei handelt es sich um Informationseinheiten fester Größe, die je nach verwendetem Übertragungsstandard (Protokoll) unterschiedlich festgelegt ist. Ein solches Paket besteht in aller Regel sowohl aus den eigentlichen Daten, als auch aus Informationen zu Absender und Empfänger. Des Weiteren erfolgt die Kommunikation je nach Übertragungsprotokoll über sogenannte Ports – bei Webseiten meistens Port 80 (unverschlüsselt) oder Port 443 (verschlüsselt).

Ist nun einen Rechner ohne jeglichen Firewall-Schutz an das öffentliche Internet angeschlossen, ist dessen Netzwerkkarte im Grunde sämtlichem Internet-Datenverkehr ausgesetzt. Diese prüft lediglich anhand der weltweit eindeutigen IP-Adresse des Zielrechners, ob Pakete für diesen Rechner dabei sind oder nicht. Ist dies der Fall, werden die Pakete geöffnet und der Inhalt auf dem Bildschirm des Anwenders angezeigt, beispielsweise eine Webseite. Es liegt auf der Hand, dass so relativ problemlos auch Schadcode auf den Rechner gelangen kann.

In der Praxis ist für die Verbindung eines einzelnen Rechners mit dem Internet ein Router erforderlich, der meist bereits über einen eingebauten, mehr oder weniger rudimentären Firewall-Schutz verfügt. Auch Windows verfügt über eine eingebaute Software-Firewall, die dubiose Datenpakete herausfiltert.

Das ist insbesondere, aber nicht nur dann der Fall, wenn die Kommunikation mit dem Zielrechner auf einem anderen geöffneten Port erfolgt. Hierin liegt auch der wesentliche, mehr oder weniger passive Schutz einer Firewall: Sie schließt im Grunde sämtliche Ports für den externen (und häufig auch internen) Datenverkehr, die nicht benötigt werden. Will nun eine bestimmte Software auf einen solchen Port zugreifen, muss dieser explizit und nur für dieses Programm in der Firewall freigegeben werden.

Im Idealfall sind auf einem Rechner also immer nur diejenigen Ports geöffnet, die für die Netzwerkkommunikation zwingend erforderlich sind. Eingehende Datenpakete an andere Ports werden nicht angenommen und somit verworfen. Ähnliches gilt für den ausgehenden Datenverkehr. So werden Cyberangriffe zwar nicht grundsätzlich verhindert, aber zumindest deutlich erschwert.

 

Diese Arten von Firewalls gibt es

Wie bereits erwähnt, werden Firewalls zunächst einmal nach dem Ort ihrer Verwendung unterschieden. „Personal Firewalls“ kommen auf einem bestimmten Rechner zum Einsatz. Dabei kann es sich auch um ein Smartphone oder Tablet handeln. „Hardware Firewalls“ hingegen laufen eingebettet in technische Systeme wie beispielsweise Router oder auch als Server-Komponenten.

Ein weiteres Unterscheidungskriterium ist die Funktionsweise. Während klassische Firewalls vor allem nicht benötigte Ports (siehe Infokasten) schließen, gehen moderne Firewalls (auch in Mischformen) deutlich weiter. Die wichtigsten Firewall-Arten nach ihrer Funktionsweise sind derzeit:

  • Port-Firewall: klassischer Ansatz
  • Proxy-Firewall: Analyse von Paketinhalten
  • Stateful-Firewall: kontextbezogene Datenanalyse
  • Next-Generation-Firewall: NGFW, mit erweiterten Funktionen
  • Unified Threat Management: UTM, häufig als Dienstleistung angeboten
  • Web-Application-Firewall: WAF, zum Schutz von Web-Angeboten

Was hinter diesen einzelnen Firewall-Arten steckt und wie diese funktionieren, erfahren Sie in den nachfolgenden Abschnitten.

Proxy-Firewall

Eine Proxy-Firewall, die auch als Gateway-Firewall bezeichnet wird, analysiert bei eingehenden Datenpaketen nicht nur den adressierten Port, sondern auch den Paketinhalt. Um das zu erreichen, kommen sogenannte Application-Gateways oder Application-Gateway-Firewalls zum Einsatz. Sie liegen in der Regel auf separaten Servern, da die Anforderungen an die Hardware-Performance für diese zusätzliche Prüfung nicht unerheblich sind. Durch dieses zusätzliche Konstrukt ist die Proxy-Firewall in der Lage, auch auf Anwendungsebene schädlichen von nicht schädlichem Traffic zu unterscheiden – sofern sie korrekt konfiguriert.

Der Begriff Proxy („Stellvertreter”) wiederum resultiert daher, dass die Proxy-Firewall insgesamt als „dazwischen geschaltete Ebene” fungiert. Sie fängt eingehende Anfragen ab, prüft diese im Application-Level-Gateway und leitet sie weiter oder blockiert sie. Da die Proxy-Firewall im Gegensatz zur klassischen Firewall als eigenständiger auftritt, „kennt” sie sozusagen auch die Anwendungsebene und die dort verwendeten Protokollsysteme. Sie handelt somit nicht stur nach festgelegten Regeln für jeden Port, sondern bezieht auch die kommunizierende Anwendung mit ein. Außerdem ist sie in der Lage, Anomalien bei der Verwendung der gängigen Übertragungsprotokolle wie https, smtp oder DNS zu erkennen.

Im bekannten ISO-/OSI-Schichtenmodell setzt die Proxy-Firewall somit arbeitet somit zwar gegebenenfalls langsamer, aber auch deutlich zielgerichteter und zuverlässiger als eine klassische Port-Firewall, die sich auf die Ebenen Drei und Vier beschränkt.

Zu den Vorteilen der Proxy-Firewall gehören:

  • erhöhte Sicherheit
  • detailliertere Analysemöglichkeiten
  • eine weitreichende Abschottung der zu schützenden Netzwerkarchitektur vom öffentlichen Internet

Außerdem verfügen Proxy-Firewalls meist über umfangreiche Logging-Funktionen. Anhand dieser lassen sich Angriffe gut auswerten und schnell identifizieren.

Wesentliche Nachteile der Proxy-Firewall hingegen liegen darin, dass die Firewall nicht immer jede Anwendung und deren Protokolle optimal „versteht“. Hinzu kommt, dass für jede zu schützende Anwendung eine eigene Proxy-Instanz notwendig ist. Das kann zu erheblichem Wartungsaufwand und hohen Anforderungen an die benötigte Rechenleistung führen. Auch der Einsatz von VPN-Verbindungen über proxybasierte Firewalls ist häufig nicht oder nur über Umwege möglich. Fällt die Proxy-Firewall einmal aus, liegt außerdem zumeist die gesamte Kommunikation brach.

 

Stateful-Firewall

Das Prinzip der zustandsorientierten („stateful”) Firewall basiert auf der Idee, dass in vertrauenswürdigen Umgebungen keine fortlaufende, detaillierte Prüfung der ein- und ausgehenden Datenpakete durchgeführt werden muss. Voraussetzung hierfür ist jedoch, dass die Kommunikation mit der „Gegenstelle” als vertrauenswürdig eingestuft wurde. Das spart in der Praxis Ressourcen und beschleunigt die Kommunikation zwischen Endpunkten. Können ein- oder ausgehende Datenpakete hingegen keiner gültigen Anwendung zugeordnet werden oder entsprechen sie schlicht nicht den Kriterien für eine sichere Verbindung, werden sie wie bei anderen Firewall-Arten auch

Die zugrundeliegende Paketfiltertechnik ist als „Stateful Packet Inspection (SPI)“ bekannt. Die Analyse der Datenpaket-Segmente erfolgt im ISO-/OSI-Schichtenmodell auf Ebene Drei. Die entsprechenden Zustände werden firewallseitig in Tabellen gespeichert und für eine gewisse Zeit aufrechterhalten. Findet länger keine Kommunikation zwischen den Endpunkten statt, wird die Verbindung (Session) geschlossen und muss erst neu hergestellt werden. Alternativ bleibt sie mit Hilfe sogenannter

Was in der Praxis einfach und logisch klingt, erfordert softwareseitig durchaus Aufwand. Denn immerhin müssen Firewalls je nach verwendetem Übertragungsprotokoll verschiedene mögliche Zustände in der Datenkommunikation berücksichtigen. Ein Beispiel für eine clientseitige Stateful-Firewall ist die Firewall-Komponente des Windows Defenders.

Zu den Vorteilen der Stateful-Firewall gehören:

  • gute Performance im Alltag
  • eine intelligente und präzise Arbeitsweise bei der Paketfilterung
  • Vorteile bei der Abwehr bekannter Schadensquellen

Ein Nachteil ist eine mögliche falsch-positive Identifikation von Datenverkehr, also das fälschliche Einstufen einer Kommunikation als vertrauenswürdig. Ist dies der Fall, werden die nachfolgenden Datenpakete von der Stateful-Firewall einfach durchgeleitet. Das macht die sie vergleichsweis anfällig für DDoS-Angriffe, da jedes eingehende, nicht vertrauenswürdige Paket zunächst ausführlich geprüft wird. Eine stets aktuelle und korrekte Konfiguration der Stateful-Firewall ist also grundlegend dafür, dass sie optimal arbeiten kann. Das macht sie vergleichsweise teuer im Betrieb, wenn es um die Absicherung von Rechnerverbünden geht. Abhilfe können hier jedoch ein Application-Layer-Gateway auf separater Hardware oder eine cloudbasierte Firewall .

NGFW: Firewall der nächsten Generation

Wie der Name bereits andeutet, ist eine „Next Generation Firewall (NGFW)“ eine wesentliche Weiterentwicklung klassischer Firewall-Typen. Ihre Funktionsweise geht deutlich über die Analyse von Datenpaketen auf Protokoll- und Port-Ebene hinaus. Ebenso wie Proxy- und Stateful-Firewalls analysiert ein NGFW ein- und ausgehende Daten auf Anwendungsebene. Allerdings sind die zugrundeliegenden Regelsätze nicht mehr statisch, sondern dynamisch und werden fortlaufend angepasst.

Ein wichtiger Grund, die bisherige Idee hinter dem Firewall-Prinzip kontinuierlich weiterzuentwickeln ist die Tatsache, dass ein Großteil des Internet-Datenverkehrs inzwischen über den https-Port 443 für sichere Webseiten abgewickelt wird – und somit über einen einzigen Port. Das liegt vor allem daran, dass früher separat laufende Dienste wie ftp (Dateitransfer) oder smtp (E-Mails) inzwischen häufig Bestandteil von Webangeboten sind und vollständig in der Cloud laufen. Gibt man nun in einer klassischen Firewall den Port 443 ohne weitere Prüfmechanismen frei, lässt man bei fehlenden, weiteren Prüfmechanismen im Zweifel auch eintreffende Datenpakete mit schädlichem Inhalt durch, was unbedingt zu verhindern ist.

Trotzdem überprüft natürlich auch eine Next Generation Firewall sowohl das im Datenverkehr verwendete Protokoll als auch den eingesetzten Port. Gleichzeitig prüft das NGFW-System aber auch das Verhalten der beteiligten Nutzer:innen und entscheidet anhand weiterer Kriterien (Policies), was als verdächtig gilt und was nicht.

Außerdem beinhalten viele „bedrohungsorientierte” Next-Generation-Firewalls sowohl einen Virenschutz als auch Mechanismen gegen Spam, anstößige Inhalte und einiges mehr. Zu den optionalen Funktionen einer NGFW zählen außerdem VPN-Lösungen, sowohl auf IPSec- als auch auf SSL-Basis. In der Summe lösen Firewalls der „nächsten Generation“ also sukzessive bislang einzeln aufgesetzte Lösungen wie Intrusion-Protection-Systeme (IPS) zum Schutz vor Eindringlingen, Proxies und Ähnliches ab.

Gängige (weitere) Funktionen von NGFW sind:

  • Deep Packet Inspection (DPI): Dieser Mechanismus prüft nicht nur Datenpakete über dessen Header hinaus, sondern bietet auch die Möglichkeit, Bandbreiteneinschränkungen auf Anwendungsbasis zu konfigurieren.
  • SSL/TLS-Termination: Insbesondere verschlüsselte Kommunikation lässt sich nur schwerlich auf schädlichen Inhalt hin überprüfen, wie es bei SSL- und TLS-Übertragungen der Fall ist. Einige NGFW sind so konfiguriert, dass sie auch diese Inhalte lesen und mithilfe einer neuen Verschlüsselung dann weiterleiten können. Datenschutzrechtlich bleiben hier allerdings offene Fragen. Das liegt daran, dass nicht der eigentliche Empfänger, sondern die Firewall die Daten ausliest. Und zu dieser gibt es immer auch mindestens einen, meist jedoch mehrere Administrator:innen. Diese könnten absichtlich oder unabsichtlich vertrauliche Kommunikation mitlesen.
  • Sandboxing: Ob ein bestimmter Code, ein E-Mail-Anhang oder andere Daten schädlich sind, lässt sich häufig erst durch Ausführen ermitteln. Hierzu bieten einige NGFWs eine sogenannte Sandbox-Umgebung, in der die Firewall möglichen Schadcode gefahrlos und so auf mögliche Malware untersucht. Entsprechend großzügige Hardware-Ressourcen sind hier allerdings Voraussetzung, um den Datenverkehr nicht erheblich zu verzögern. Denn ein solches System kann eine Menge Rechenleistung beanspruchen.

Der NGFW-Ansatz wird fortlaufend erweitert und derzeit vor allem in Richtung Kontextsensitivität, Cloud-Unterstützung sowie virtuelle Umgebungen angepasst. Immerhin sind herkömmliche Firewalls in der Vergangenheit nicht selten durch falsch-positive Filterung von Datenverkehr aufgefallen. Solche Situationen sind zwar nicht so schlimm wie nicht erkannte Angriffe, können aber im Arbeitsalltag durchaus zu Frustration führen.

Damit eine Firewall präzise und zuverlässig arbeitet, ist es also offensichtlich notwendig, auf Bedrohungen intelligent zu reagieren und sich von statischen Regeln weitgehend zu verabschieden. Eine wesentliche, aktuelle Bedrohung stellen dabei sogenannte APT-Angriffe („Advanced Persistent Threats“) dar. Bei dieser Angriffsform investieren Hacker:innen oder ganze Gruppen von ihnen erheblichen, teils erheblichen manuellen Aufwand, um bestehende Firewall-Systeme zu umgehen. Derartige Angriffe zuverlässig und dauerhaft abzuwehren, bleibt eine wesentliche Herausforderung auch für NGFWs.

Zu den Vorteilen der NGFW gehört vor allem, dass sie die wichtigen Eigenschaften klassischer Firewall-Ansätze mit modernen Sicherheitsmechanismen vereint. Die Firewall-Anbieter erweitern sie außerdem fortlaufend, da sich die Bedrohungslage ständig verändert.

Zu den Nachteilen der NGFW zählt, dass diese nicht immer einfach zu konfigurieren, zu administrieren und aktuell zu halten sind. Eine Ausnahme sind Managed Services, also solche unter „fremder“ Verwaltung. .

 

UTM-Firewall: Ist Unified Threat Management eine Alternative zur NGFW?

Einen etwas anderen Ansatz zum umfassenden Schutz von Netzwerksystemen stellt das sogenannte Unified Threat Management (UTM) dar. Es basiert ebenso wie die NGFW auf der Annahme, dass eine wirksame Abwehr von Bedrohungen nur über ein ganzheitliches System gelingen kann. Allerdings arbeitet eine UTM-Firewall sozusagen top-down und stellt eine umfassende Lösung auf Enterprise-Niveau ohne zusätzlichen Management-Aufwand bereit. Diese können Sie dann individuell anpassen, indem Sie beispielsweise einzelne Aspekte aus Relevanz- oder Kostengründen streichen.

Ein großer Vorteil des UTM-Ansatzes ist die einfache und schnelle Implementierbarkeit. Kommerzielle Expert:innen kümmern sich sowohl um die Implementierung als auch die Aktualisierung der entsprechenden Lösung.

Nachteilig sind die meist vergleichsweise hohen Kosten. Hier sollten Sie genau darauf achten, was Sie tatsächlich benötigen und was nicht.

In der Praxis nähern sich NGFW-Lösungen den UTM-Komplettlösungen einander immer mehr an. Die Entscheidung für den einen oder anderen Ansatz ist somit häufig eine Frage der vorhandenen IT-Expertise und der entsprechenden personellen Ressourcen im Unternehmen.

 

Web Application Firewall (WAF): So sichern Sie Ihre Web-Anwendungen sinnvoll ab

Wie bereits erwähnt, findet ein Großteil des derzeitigen Internet-Datenverkehrs auf Basis von Web-Anwendungen statt. Dazu zählen neben E-Mail-Clients auch und vor allem Shop-Systeme, Self-Service-Administration-Toolkits oder Web-Oberflächen bekannter Messenger-Dienste wie Teams, Slack und Co.

Kaum verwunderlich also, dass Hacker:innen inzwischen auch Web-Anwendungen ins Visier nehmen. Zu den typischen Bedrohungen, gegen die eine Web Application Firewall (WAF) Schutz bieten soll, zählen beispielsweise Injection-Angriffe (LDAP, SQL), Cross-Site-Scripting (XSS), Parameter-Veränderungen, Cookie-Manipulationen und Pufferüberlaufangriffe. Bei einer WAF handelt es sich um eine Firewall auf Anwendungsebene, die insbesondere bei Betreiber:innen großer Webseiten zu den kaum verzichtbaren Lösungen zählt.

Die Funktionsweise ähnelt dem üblichen Firewall-Prinzip: Eine WAF untersucht im Hintergrund fortlaufend sämtliche Anfragen an und Antworten des Web-Servers, den sie schützen soll. Verdächtige Inhalte oder Anfragen wehrt die WAF im Idealfall umgehend ab. Um jedoch zuverlässig arbeiten zu können, muss die webbasierte Firewall zunächst eine „Lernphase“ durchlaufen.

Dabei wird mithilfe eines Anwendungs-Sicherheitsscanners (Application Security Scanner) analysiert, welche Aktionen als typisch gelten können und welche nicht. Im laufenden Betrieb wiederum analysieren interne oder externe Administrator:innen fortlaufend die Logdateien des Systems, um verdächtige Aktivitäten und Schwachstellen in der eigenen Konfiguration zu erkennen und zeitnah zu reagieren.

Zu den Vorteilen der Web Application Firewall zählt, dass sie einen zusätzlichen Schutz vor gängigen Bedrohungen im Web bietet. Dieser Schutz gilt auch für Systeme, die selbst keine Updates mehr erfahren, aber im Hintergrund einer Webseite weiterhin aktiv sind.

Zu den Nachteilengehört, dass WAFs in Unternehmen mitunter für eine trügerische Sicherheit sorgen. Außerdem führen Unterschiede in der Bearbeitung von eingehenden Anfragen zu möglichen neuen Sicherheitsrisiken, die Hacker:innen ausnutzen könnten. Nicht zuletzt muss auch eine WAF fortlaufend aktuell gehalten werden, was in der Praxis Aufwand und Kosten verursacht – oder eben Sicherheitslücken eröffnet.

 

Das Wichtigste zum Thema Firewalls in Kürze

Eine Firewall sichert Ihr internes Firmennetzwerk gegen Angriffe von außen ab und ist demnach ein wesentlicher Bestandteil jedes IT-Sicherheitskonzepts.Anbieter sowie Standardisierungsgremien haben Firewalls über die Jahre fortlaufend technologisch weiterentwickelt und an die veränderte Bedrohungslage im Internet angepasst. Dabei unterscheiden sich Firewall-Systeme hinsichtlich ihrer Entwicklungsstufen, Einsatzgebiete sowie ihres Leistungsumfangs:

  • Eine reine Port-Firewall sichert ein- und ausgehende Verbindungen auf rudimentäre Art, indem sie bestimmte Ports auf einem Rechner oder innerhalb eines Rechnerverbunds je nach dessen Aufgabe(n) blockiert oder freischaltet.
  • Eine Proxy- oder Gateway-Firewall fungiert als zwischengeschaltetes Stellvertreter-System und ist in der Lage, Datenpakete auch auf Anwendungsebene zu untersuchen.
  • Eine Stateful-Firewall sichert die ein- und ausgehende Kommunikation zusätzlich auf der Basis von geprüften Sitzungen und vertrauenswürdigem Datenverkehr ab.
  • Die Next-Generation-Firewall (NGFW) ist in der Lage, noch mehr Aspekte des Datenverkehrs zu überwachen, wie beispielsweise das typische Nutzungsverhalten. Sie kann gegebenenfalls sogar verschlüsselte Kommunikation auslesen.
  • Mithilfe von Unified Threat Management (UTM) sichern sich Unternehmen mit einer ganzheitlichen, verwalteten Sicherheitslösung gegen Bedrohungen von außen ab. NGFW und UTM sind dabei eng verwandt.
  • Eine Web Application Firewall wiederum kennt typische Nutzungs- und Bedrohungsszenarien in webbasierten Systemen und schützt somit Webanwendungen gezielt vor Bedrohungen.

Quelle:

https://www.vodafone.de/business/featured/technologie/firewalls-einfach-erklaert-definition-arten-und-einsatzzwecke-im-ueberblick/

DECT-Telefone: So funktioniert schnurlose Festnetzkommunikation

Das gute alte Telefon, das per Kabel mit dem Basisteil verbunden wurde, ist aus vielen Privathaushalten nahezu verschwunden. Auch in Unternehmen haben sich kabellose Telefone längst durchgesetzt: Die sogenannten DECT-Telefone sind aus dem Arbeitsalltag moderner Firmen nicht mehr wegzudenken.

Was DECT-Telefonie bedeutet, wie die Technologie dahinter funktioniert und welche Vorteile kabellose Telefonie für Ihr Unternehmen hat, erklären wir im Folgenden.

 

Was bedeutet DECT?

Die Abkürzung DECT steht für die englischen Wörter „Digital Enhanced Cordless Telecommunications“, also kabellose Kommunikation, die auf dem in Europa geläufigen Frequenzbereich zwischen 1880 und 1900 Megahertz funkt. Der Funkstandard DECT wurde im Jahr 1993 eingeführt und hieß ursprünglich „Digital European Cordless Telephony“.

DECT-Telefone bestehen für gewöhnlich aus einem Mobilteil und einer Basisstation. Im Gegensatz zu gängigen Mobilfunksystemen ist DECT daraufhin ausgelegt, dass wenige Teilnehmer mit mehreren Mobilteilen über ein Gateway (die Basisstation) Zugang zu einem Basisnetz erhalten.

Reichweite von DECT-Telefonen

Die Reichweite eines DECT-Telefons innerhalb eines Gebäudes beträgt bei den meisten Geräten zwischen 30 und 50 Meter – im Freien bis zu 300 Meter. Nicht alle auf dem Markt erhältlichen Geräte haben die gleiche Reichweite – lassen Sie sich also am besten vor dem Kauf beraten, wie weit die Reichweite Ihres jeweiligen Wunschgerätes angelegt ist. Sollten Sie bereits ein DECT-Telefon besitzen und unzufrieden mit dessen Empfangsverhalten sein, können Sie diese mit einem sogenannten Repeater verstärken.

 

Sprachqualität

Moderne DECT-Telefone bieten gute HD-Sprachqualität ohne Störgeräusche. Dafür muss Ihr Mobilteil den Audio-Codec G.722 verwenden sowie über eine Basisstation telefonieren, die wiederum den sogenannten CAT-iq-Standard unterstützt. Diese Technik ermöglicht DECT-Telefonen volle Kompatibilität mit IP-Netzen. Darüber hinaus muss Ihr Gesprächspartner natürlich ebenfalls über eine Ausrüstung zur HD-Telefonie verfügen.

 

Akkulaufzeit

Ein großer Vorteil von DECT-Telefonen gegenüber etwa WLAN-Telefonen ist die vielfach längere Laufzeit des Mobilteils. So beträgt die durchschnittliche Standby-Zeit eines Smartphones innerhalb eines WLAN-Netzes etwa 100 Stunden – bei DECT-Mobilteilen hingegen sind es rund 400 Stunden. Die durchschnittliche maximale (Dauer-)Gesprächszeit bei WLAN-Telefonen und Smartphones beträgt etwa 5 Stunden, bei DECT-Geräten sind es bis zu 12 Stunden.

 

Was bedeutet DECT-GAP?

In den ersten Jahren nach Einführung des DECT-Standards mussten sowohl Mobilteil als auch die Basisstation meist vom selben Hersteller stammen. War das Mobilteil defekt, konnten Nutzer nicht einfach ein neues Gerät eines anderen Herstellers als Ersatz kaufen. Dies änderte sich mit Einführung des Signalisierungsprotokolls „Generic Access Profile“ (GAP).

Dieser Standard ermöglicht es, dass DECT-Geräte verschiedener Hersteller miteinander kommunizieren können – beispielsweise mehrere unterschiedliche Mobilgeräte an einer Basisstation.

Telefonie über den WLAN-Router

Die meisten WLAN-Router bieten heutzutage die Möglichkeit, dank integrierter DECT-Schnittstelle als vollwertige Basisstation für mehrere DECT-Mobilteile zu dienen – einschließlich eines Anrufbeantworters. Für größere Unternehmen sind jedoch professionelle Basisstation-Lösungen besser geeignet, beispielsweise von Herstellern wie Siemens, Snom, Cisco oder Yealink. Diese Geräte verfügen über mehr Funktionen und sind flexibler erweiterbar als DECT-Basisstationen oder WLAN-Router für Privatnutzer.

 

Strahlungsarme DECT-Telefonie

Bei der Anschaffung von DECT-Telefonen empfehlen wir, dass Sie möglichst strahlungsarmen Geräte kaufen, die über einen sogenannten Eco-Modus verfügen. Zwar bedeutet die Aktivierung des Eco-Modus etwa 20 Prozent weniger Sendeleistung Ihres Gerätes, doch neben einer geringeren Strahlung spart dieser Modus auch Strom. Dies wirkt sich logischerweise positiv auf die Laufzeit des Geräte-Akkus aus.

Quelle:

https://www.vodafone.de/business/featured/technologie/dect-telefon-2021-so-funktionieren-schnurlose-telefone-heute/

 

Quantencomputer: So funktioniert er, das kann er

Ein einzelner Prozessor, der in Sekunden schafft, wofür Supercomputer viele tausend Jahre brauchen würden? Eine Rechenlogik, die komplexe Strömungsverläufe oder Wetterphänomene in bisher unbekannter Präzision vorhersagt? Schon bald könnten auf sogenannten Qubits basierende Quantencomputer die Computertechnik revolutionieren – und damit auch unser Wissen über die Welt.

In den letzten 70 Jahren hat die Computertechnik große Fortschritte gemacht. Gemäß dem Mooreschen Gesetz, benannt nach Intel-Mitbegründer Gordon Moore, verdoppelt sich die Leistung von Prozessoren und Speichersystemen etwa alle 18 Monate: Jedes Smartphone verfügt heute über die millionenfache Rechenleistung des Bordcomputers der Mondlandefähre von 1969.

Die Quantentechnik könnte das Mooresche Gesetz noch einmal um mehrere Zehnerpotenzen übertreffen – und ganz neue Hard- und Software hervorbringen, die sogar mit Überlichtgeschwindigkeit arbeitet. Wie ist das möglich?

Quantencomputer: Was steckt dahinter?

Herkömmliche Computer auf Siliziumbasis verarbeiten Daten mittels elektronischer Schaltungen. Zahlenwerte speichern sie in Form von Bits. Diese kleinsten Informationseinheiten der Digitaltechnik können die Werte „1“ (Strom fließt) oder „0“ (Strom fließt nicht) annehmen. Zwei verbundene Bits können die vier Werte „00“, „01“, „10“ und „11“ annehmen. Längere Bitreihen speichern entsprechend größere Zahlen.

Im Unterschied hierzu nutzen Quantenprozessoren keine elektronischen Schaltungen, sondern Zustände aus der Quantenmechanik als Datenspeicher. Das sind beispielsweise Energieniveaus in Atomen oder Molekülen, die Drehrichtung eines Elektrons („Spin“) oder die Flussrichtung des elektrischen Stroms innerhalb eines kreisförmigen Supraleiters.

Solche Datenspeicher werden auch als Quantenbits oder Qubits bezeichnet. Wie beim digitalen Bit sind auch hier grundsätzlich zwei Zustände möglich. Ein Stromfluss im Uhrzeigersinn oder der Up-Spin eines Elektrons kann dann als Wert „1“ definiert werden. Ein Stromfluss in Gegenrichtung oder der Down-Spin eines Elektrons wird entsprechend als Wert  “0” definiert. Damit entspräche das Qubit noch dem digitalen Bit herkömmlicher Computer.

Weil aber in der Quantenmechanik besondere Gesetzmäßigkeiten gelten, können Qubits viel mehr als klassische Bits. Zwei quantenmechanische Effekte machen sie zu perfekten Rechenwerkzeugen:

  • Superposition: Quantenmechanische Zustände können sich überlagern. Ein Qubit kann somit gleichzeitig die Werte „1“ und „0“ annehmen und außerdem auch alle Zustände dazwischen. Erst zum Zeitpunkt des Auslesens wird sein Wert eindeutig.
  • Verschränkung: Mehrere Qubits können miteinander verbunden („verschränkt“) sein und sich gegenseitig beeinflussen – und das sogar schneller, als sich das Licht bewegt.

Diese Besonderheiten der Quantenmechanik, die in der herkömmlichen elektronischen Datenverarbeitung nicht auftreten, machen Quantencomputer zu extrem schnellen Rechenmaschinen für entsprechend optimierte Anwendungen.

Ein Quantencomputer ist nicht zu verwechseln mit einem Supercomputer. Unter dem Begriff Supercomputer versteht man besonders leistungsfähige Computer, die zum Beispiel für Wettervorhersagen und Simulationen genutzt werden. Supercomputer arbeiten in der Regel rein elektronisch. Allerdings könnte es zukünftig auch Quanten-Supercomputer geben oder Hybrid-Computer, die beide Technologien verbinden.

Quantenrechner: So rechnen Quantencomputer

Die Quantenmechanik verleiht Quantencomputern ganz besondere Fähigkeiten: Im Unterschied zu herkömmlichen elektronischen Recheneinheiten arbeiten sie ihre Aufgaben nicht mehr linear ab. Sie können dank Superposition und Verschränkung unzählige Lösungswege für ein Problem zur selben Zeit vergleichen und sofort den besten Weg unter Billionen von Möglichkeiten herausfinden.

Bei einfachen Aufgaben ist dieser Zeitvorteil gegenüber bisherigen Computern noch vernachlässigbar. Doch wie bei einem Schachspiel vervielfacht sich die Anzahl der Möglichkeiten mit jedem zusätzlichen Zug und jeder weiteren Variable, die zu betrachten ist. Auf herkömmlichen Computern steigt hierdurch die benötigte Rechenzeit exponentiell an. Bei Quantencomputern hingegen wird für jede weitere Variable lediglich ein zusätzliches Qubit benötigt, das zeitgleich mit allen anderen Qubits ausgelesen wird.

Eine typische Quantenanwendung ist es beispielsweise, alle Parameter eines technischen Prozesses als Qubits darzustellen. Die quantenmechanische Recheneinheit findet dann einen optimalen Ablauf für diesen Prozess und ermittelt für jeden Parameter den Wert, der am Ende zum besten Ergebnis führt. So lassen sich Ressourcen sparen und technische Prozesse nachhaltiger gestalten. Chemiker:innen und Materialforscher:innen wollen mittels Quantentechnologie ganz neue Werkstoffe mit bisher unbekannten Materialeigenschaften entdecken.

Auch Mathematik und Informatik könnten von der Quantenrechnung profitieren: Sicher ist beispielsweise, dass der Grover-Algorithmus zum Sortieren von Datenbanken gegenüber klassischen Computern nur einen Bruchteil der Zeit benötigt, um riesige Datenbestände in eine gewünschte Ordnung zu bringen.

Alle diese Anwendungen müssen speziell für Quantencomputer und ihre besonderen Fähigkeiten der Superposition und Verschränkung programmiert werden. Klassische Algorithmen und Programmiersprachen könnten zwar grundsätzlich auf Quantenprozessoren ausgeführt oder für diese angepasst werden. Doch dafür wären Zwischenschritte nötig; und damit gingen die großen Geschwindigkeitsvorteile der Quantenmechanik verloren. Quantencomputer benötigen deshalb eigene Sprachen und Programmier-Paradigmen, um schnell zu sein. Mit Qiskit gibt es bereits ein erstes, offenes Entwicklerkit für Quantenprozessoren von IBM.

Heutige Quantencomputer sind meist noch Prototypen. Sie verfügen in ihren Rechenwerken nur über wenige Qubits. Das limitiert die Anzahl der Variablen, die sie verarbeiten können. Gleichungen mit 20 oder 30 Variablen sind auch mit klassischen Computern noch in akzeptabler Zeit zu kalkulieren. Doch wenn die ersten Quantencomputer 100 oder mehr frei programmierbare Qubits zusammenschalten können, sind sie bei bestimmten Rechenaufgaben uneinholbar schnell.

Quantencomputer sollen einmal mathematische Berechnungen in wenigen Sekunden ausführen, für die ein aktueller Supercomputer viele tausend Jahre benötigen würde. Diese Eigenschaft  wird als Quantenüberlegenheit bezeichnet.

Google nimmt für seinen Quanten-Prozessor Sycamore in Anspruch, diese Überlegenheit bereits bei bestimmten mathematischen Aufgaben erreicht zu haben. Ob dies tatsächlich der Fall ist, ist unter Expert:innen umstritten.

 

Quanten-PC: Gehören Rechenfehler bald der Vergangenheit an?

Quantencomputer sind technisch sehr komplex. Ihr Inneres muss nach dem Einschalten auf minus 271 Grad Celsius heruntergekühlt werden, was in der Regel mehrere Tage dauert. Die Technik zum Auslesen der Rechengitter aus Qubits ist störanfällig. Mehrere sogenannte Quantengatter sind notwendig, um den Zustand eines Qubits auszulesen. Diese Gatter werden aufwendig über Mikrowellenimpulse angesteuert.

Meist stehen Quantencomputer daher in eigenen Gebäuden mit besonderer Klimatechnik. Die Fundamente dieser Rechenzentren werden von der Umgebung abgekoppelt, um störende Erschütterungen zu vermeiden.

Trotz dieses hohen Aufwandes bleiben Qubits auch unter Idealbedingungen nur für Bruchteile von Millisekunden stabil, weil beispielsweise die im Atomkern als Qubit-Träger ausgelesenen Elektronen sehr schnell mit Teilchen aus ihrem Umfeld reagieren. Zwei Effekte behindern Quantencomputer bei ihrer Arbeit:

  • Relaxation: Subatomare Teilchen sind bestrebt, ein thermisches Gleichgewicht mit ihrer Umwelt herzustellen. Nach einer gewissen Zeit kann ein Qubit dadurch unkontrolliert seinen Zustand wechseln, also von „0“ zu „1“ oder umgekehrt.
  • Dekohärenz: Qubits neigen dazu, ihre Superpositionseigenschaft zu verlieren. Sie verhalten sich dann wie gewöhnliche Bits aus einem klassischen Computer.

Um Ablesefehler zu minimieren und die Zuverlässigkeit zu erhöhen, werden gegenwärtig noch bis zu sieben weitere Qubits mit derselben Berechnung beauftragt und ausgelesen. Erst durch diese Kontrollrechnungen gilt ein Ergebnis als sicher. Quantencomputer sind heute also noch sehr fehleranfällig. Der Wartungs- und Betriebsaufwand, um zuverlässige Rechenergebnisse zu erhalten, ist darüber hinaus enorm.

Ein Blick in die Geschichte der elektronischen Computer zeigt allerdings: Auch Relais, Röhren und Magnetkernspeicher in frühen Computern waren extrem fehleranfällig und hatten nur sehr kurze Laufzeiten zwischen zwei Reparaturintervallen (MTBF = Mean Time Between Failures). Erst mit dem Aufkommen der Transistortechnik sowie der Festplatten und optischen Speichermedien verbesserte sich die Zuverlässigkeit. Es spricht viel dafür, dass auch Quantencomputer in wenigen Jahren deutlich einfacher zu bauen und zu betreiben sind als heute.

Aufgabengebiete in der Praxis

Obwohl die Quantentechnik noch an ihren Anfängen steht, gibt es bereits eine Vielzahl sehr konkreter Aufgabengebiete für ihre Nutzung:

Bionik: Noch immer sind viele komplexe Prozesse aus der Natur im Labor nicht reproduzierbar, weil viele Zwischenschritte unbekannt sind. Quantencomputer könnten beispielsweise helfen, einen schonenden und energiesparenden Weg zu finden, um Ammoniak für die Düngemittelherstellung zu synthetisieren. In der Natur gibt es einen solchen Weg bereits, etwa in Pilzen und Pflanzen. Doch sein genauer Verlauf ist unbekannt.

Epidemiologie: Forschende diskutieren, wie sich die Ausbreitung ansteckender Krankheiten oder deren Übertragung vom Tier zum Menschen bestmöglich verhindern lassen. Vergleichende Modelle könnten zeigen, mit welchen Maßnahmen sich die Ausbreitung von Erregern bestmöglich eindämmen oder zumindest verlangsamen ließe.

Künstliche Intelligenz: Die meisten Lernprozesse und Auswertungsverfahren der künstlichen Intelligenz sind sehr rechenintensiv. Viele davon ließen sich durch den Einsatz von Quantencomputern massiv beschleunigen. Denkbar wäre hierbei auch eine Mischung von klassischen Computern mit Quantenprozessoren. Autonome Fahrzeuge könnten zeitaufwendige Berechnungen beispielsweise per Mobilfunk an Quantencomputer weiterleiten, die sehr günstig an Netzknoten aufgestellt sind. Die per Qubits ermittelten Rechenergebnisse würden dann in Echtzeit wieder bei den Fahrzeugen landen. Schon heute zeigt das Multi-Access Edge Computing (MEC), wie eine solche Aufgabenteilung aussehen könnte. Hierbei übernehmen kleine Echtzeit-Rechenzentren in aktueller Computerarchitektur direkt am Mobilfunkmast die Datenverarbeitung für alle Verkehrsteilnehmer: vom autonomen Fahrzeug bis zur Transportdrohne.

Kybernetik: Die Lehre von den Systemen sucht stetig nach neuen Rechenmodellen, um auch komplexe Zusammenhänge abzubilden und zu betrachten. Soziolog:innen und Mediziner:innen erhoffen sich durch Quantencomputer neue Erkenntnisse zu folgenden Fragen: Welche politischen Entscheidungen bei Bildung, Erziehung und Gesundheit müsste eine Gesellschaft treffen, um die Lebensqualität und Lebenserwartung für alle zu erhöhen? Was müsste eine Gesellschaft verändern, um ein Maximum an Nachhaltigkeit in möglichst vielen Lebensbereichen zu erreichen?

Medizin und Pharmazie: Moderne Medikamente haben lange Entwicklungszeiten. Am Computer und in aufwendigen Laborversuchen werden Millionen von Molekülen auf ihre Wirksamkeit in Bezug auf zu behandelnde Krankheiten untersucht. Simulationen per Quantencomputer könnten der Forschung Hinweise liefern, wie ein gesuchter Wirkstoff für eine bestimmte Therapie auszusehen hätte.

Meteorologie: Aktuell setzen Wissenschaftler:innen auf immer größere Supercomputer, um Wettermodelle zu erstellen und deren Genauigkeit zu erhöhen. Zukünftig könnten Quantencomputer in Echtzeit Vorhersagen liefern und dabei langjährige Entwicklungen in gemeinsame Rechenmodelle integrieren. Dazu gehören beispielsweise die Temperaturschwankungen der Ozeane mit kurzzeitigen Entwicklungen wie der Bildung von Hochs oder Tiefs.

Mobilfunk: Durch den Einsatz von Quantencomputern ließen sich Mobilfunknetze und die dahinter liegende Infrastruktur optimieren. Die Technik könnte ermitteln, wie und wo Standorte zu errichten wären und welche Netzanbindung und Rechenleistung dort beispielsweise für IoT-Anwendungen bereitzustellen wäre.

Quantencomputer und klassische Computer im Vergleich

Auch wenn es überraschend klingen mag: Grundsätzlich sind klassische Prozessoren und Quantenprozessoren austauschbar. Denn klassische Digitalcomputer können über sogenannte Matrix-Vektor-Multiplikationen alle Berechnungen ausführen, die auch mit einem Quantencomputer möglich sind.

Umgekehrt können Quantencomputer alle Schaltkreise eines klassischen Prozessors als NAND-Logik (Nicht-Und-Gatter) nachbilden. Somit könnte also auch ein Quantensystem einen klassischen Prozessor vollständig simulieren und damit alle seine Programme ausführen. Entsprechende Simulationen wären allerdings extrem aufwendig und die Anzahl dafür benötigter Qubits riesig. Für die Praxis hat diese gegenseitige Simulierbarkeit somit keine Relevanz.

Erst beim Rechentempo und beim Einsatz entsprechend optimierter Software zeigen sich die großen Stärken der Quantenmechanik. Je vieldimensionaler ein Problem ist, desto größer ist der Zeitvorteil gegenüber der herkömmlichen Technik.

Noch aber bietet der klassische Computer viele Vorteile gegenüber der Quanten-Konkurrenz:

  • Verwendung einfacher, etablierter Technik
  • Höherer Miniaturisierungsgrad
  • günstigerer Preis
  • keine Kühlung nahe dem absoluten Nullpunkt notwendig
  • höhere Robustheit gegen Außeneinflüsse
  • Software für viele Anwendungen bereits verfügbar

In den kommenden Jahren dürften Quantenprozessoren in vielen dieser Bereiche aufholen und zuverlässiger und robuster werden. Das sogenannte Rauschen, eine bedeutende Fehlerquelle bei Quanten-Berechnungen, wurde beispielsweise in der Grundlagenforschung schon erheblich gesenkt. Aktuell arbeiten Forscher:innen an Quantencomputern auf Silizium-Basis. Damit wären sehr kleine und stabile Qubits herstellbar.

Andere Forschende setzen auf Qubits aus Elektronen von Stickstoffatomen, die in Diamantgittern gefangen sind. Solche Qubit-Fallen aus Edelstein wären äußerst stabil und damit möglicherweise auch bei Raumtemperatur zu betreiben – und darüber hinaus mobil.

 

Wann sind erste Quantencomputer alltagstauglich?

Nachdem Quantencomputer viele Jahre lang nur ein theoretisches Konstrukt waren, schreitet die Entwicklung seit den 1990er-Jahren rasant voran. Zur Jahrtausendwende liefen die ersten Systeme mit wenigen, parallelen Qubits. 2019 hat Google mit seinem Sycamore einen Quantenprozessor mit 53 Qubits vorgestellt. Ein Jahr später setzte IBM mit dem Hummingbird das Limit auf 127 Qubits herauf – und kündigte für 2023 einen Quantencomputer mit 1000 Qubits an.

In Jülich hat der kanadische Hersteller D-Wave 2022 mit dem Modell Advantage eine Sonderform eines Quantencomputers gebaut. Dieser sogenannte Quantenannealer hat 5000 Qubits in seinem Inneren. Allerdings ist er nicht so frei programmierbar wie andere Quantenprozessoren und daher nur begrenzt mit diesen vergleichbar.

Aktuell werden viele unterschiedliche Quantentechnologien parallel erforscht und es ist unklar, welche davon sich durchsetzen wird. Möglicherweise wird es weiterhin sehr unterschiedliche Systeme geben, die jeweils für einzelne Anwendungen optimiert sind.

Fast alle Forschenden kämpfen derzeit noch mit der schlechten Skalierbarkeit von Qubit-Gittern. Sie suchen nach Wegen, um mehr Qubits zu verschränken und dabei gleichzeitig die Fehlerraten der Maschinen zu senken. Schon jetzt sind viele dieser Systeme praktisch einsetzbar, doch erst mit wachsender Qubit-Zahl pro Rechner kann die Technik ihre theoretischen Vorteile gegenüber digitalen Rechnern auch praktisch ausspielen.

Einsatz der Technologie in Unternehmen

Derzeit sind Quantencomputer noch ähnlich teuer wie Supercomputer. Dienstleister wie Google möchten das Quantencomputing daher als Cloud-Dienstleistung etablieren. Auch die Fraunhofer-Gesellschaft bietet derzeit die Mitbenutzung ihres 2021 in Stuttgart errichteten Quantencomputers IBM Quantum System One mit 27 Qubits an. Rigetti Computing aus Kalifornien hat schon 2017 seine Quanten-Computer über die Forest Cloud Computing Plattform für Anwender:innen aus dem Netz geöffnet.

Bald könnte es damit für viele Unternehmen bereits interessant werden, das Rechnen mit Quantenprozessoren als Software-as-a-Service oder Function-as-a-Service über das Netz einzukaufen. Ein Logistikunternehmen könnte dann beispielsweise mittels Quantentechnologie alle möglichen Standorte für seine Warenlager durchrechnen lassen und mit einem Ideal-Netz Transportwege und Fahrtzeiten minimieren. Finanzdienstleister oder Energieversorger könnten Bewegungen an Wertpapier- und Strom-Börsen in Echtzeit analysieren und hieraus strategische Maßnahmen ableiten. Die Industrie 4.0 eröffnet schon jetzt viele neue Einsatzgebiete für die Quantentechnologie, etwa bei der künstlichen Intelligenz im IoT oder der Verarbeitung von Big Data.

Auch Hybridanwendungen für Quantensysteme und klassische Computer sind denkbar, sobald es entsprechende Programmiersprachen und Distributionsmodelle für Rechenzeit gibt. Denn auch wenn das Arbeiten mittels Quanten offensichtliche Vorteile bietet, so wird es das Rechnen mit Bits und Bytes voraussichtlich nicht ersetzen, sondern eher ergänzen und erweitern.

Quantum Computing: Risiken für aktuelle Verschlüsselungsverfahren

Viele gängige Verschlüsselungsverfahren bauen darauf, dass das Zerlegen großer Zahlen in ihre Primfaktoren auch für schnelle Computer immer noch sehr zeit- und rechenaufwendig ist. Für die Quantentechnologie gelten diese Einschränkungen jedoch nicht. Bereits 1994 hat der Mathematiker Peter Shor den nach ihm benannten Shor-Algorithmus entwickelt, mit dem Quantencomputer auch große Zahlen extrem schnell zerlegen könnten. Mangels der hierfür benötigten Hardware ist dieser Codebrecher-Algorithmus bisher noch nicht zum Einsatz gekommen.

Doch zukünftige Quantencomputer könnten die Verschlüsselungstechnologie damit auf ein neues Niveau heben und Codes knacken, die herkömmliche Computer auch in Jahren oder Jahrzehnten nicht entschlüsseln können.

Im Umkehrschluss würde dies auch bedeuten, dass fast alle Codes, die mit elektronischen Computern erzeugt werden, gegen die Rechengewalt der Quantencomputer keine Chance mehr hätten.

Um Informationen weiterhin vor unerlaubtem Mitlesen zu sichern, wären dann andere Verfahren notwendig. Dazu gehören etwa die Verwendung geschützter Übertragungswege und biometrisch gesicherter Endgeräte sowie das Ablegen sensibler Daten in sicheren Cloud-Speichern.

Was kann der Quantencomputer der Zukunft

Fortschritte in Materialwissenschaft und Kybernetik, das sehr schnelle Sortieren großer Datenmengen oder das Lösen mathematischer Probleme: Die Erwartungen, die Unternehmen und Wissenschaft an die Quantentechnik haben, sind groß.

Grafikkarten mit Quantenchips an Bord könnten neue künstliche Welten schaffen, indem sie perfekte Simulationen der Außenwelt kreieren. Besonders realistische Simulatoren für Luft- und Raumfahrt wären damit ebenso möglich, wie neue Virtual-Reality-Anwendungen für Einsatzzwecke wie Ausbildung und Prototyping in Unternehmen.

Besonders die künstliche Intelligenz (KI) könnte von Quantenprozessoren profitieren. Bisher müssen viele rechenintensive KI-Anwendungen noch innerhalb des Netzes in die Cloud verlagert oder als Edge AI  ausgeführt werden. Mobile Quantencomputer könnten zukünftig direkt in autonomen Fahrzeugen verbaut werden – ganz ohne Kühlung und robust gegen Störungen von außen.

Damit wären die Autos von morgen in der Lage, besser und schneller mit ihrer Umgebung zu interagieren. So könnten sie beispielsweise mögliche Unfälle per Simulation vorhersehen und vermeiden. Und das sind nur einige von vielen möglichen Einsatzzwecken für die superschnellen Qubit-Rechner der Zukunft.

 

Quantencomputer im Überblick

  • Quantencomputer nutzen für ihre Berechnungen Gesetzmäßigkeiten der Quantenmechanik.
  • Simulationen und Modellrechnungen können von Quantensystemen sehr schnell umgesetzt werden.
  • Die technische Entwicklung von Quantenprozessoren schreitet schnell voran. Die Zahl der parallelen Qubits wächst.
  • Viele Branchen könnten von der Leistungsfähigkeit zukünftiger Quantencomputer profitieren.
  • Firmen wie Google wollen Quantenberechnungen als Service für ihre Cloud-Kunden etablieren.
  • Viele bisherige Verschlüsselungsverfahren werden durch die Quantentechnologie knackbar und müssen angepasst werden.

Quelle:

https://www.vodafone.de/business/featured/technologie/quantencomputer-so-funktioniert-er-das-kann-er/

Der Handy-Virenschutz: So sichern Sie Ihre Mobilgeräte gegen Schadsoftware

In den App Stores für Smartphones und Tablets gibt es viele kostenlose Apps für das Arbeiten unterwegs. Doch das bringt auch Risiken mit sich. Denn manche App installiert unerkannt Malware, Crapware und Exploits auf Ihrem Gerät. Was sich hinter diesen Begriffen verbirgt und wie Sie sich davor schützen, lesen Sie hier.

Von der Business-App, die Ihre Excel-Tabellen in andere Formate konvertiert bis zum praktischen Terminplaner, der Besprechungen mit Ihrem Google Kalender abgleicht: Rund 40 Apps sind im Durchschnitt auf jedem Smartphone installiert.

Die meisten dieser Apps sind ungefährlich und machen auf Ihrem Telefon genau das, wofür sie vorgesehen sind. Doch manche Anwendungen schleusen heimlich Malware ein und greifen Ihr Unternehmen von dort an, wo es besonders verwundbar ist: von innen heraus.

Zwar sind Antivirenprogramme heute auf fast allen Firmencomputern installiert. Auch Server und Router für den Internetzugang sind in Unternehmen üblicherweise per Firewall geschützt. Doch wirklich lückenlos ist der Schutz meist nicht. Denn in vielen Firmen fehlt ein Sicherheitskonzept für Mobilgeräte. Das kann böse Folgen haben.

So ermittelte das Beratungsunternehmen IDC in einer Befragung im Jahr 2017, dass rund 65 Prozent aller deutschen Unternehmen bereits Erfahrungen mit Angriffen auf mobile Endgeräte gemacht haben. 26 Prozent der befragten Firmen berichteten sogar, dass diese Angriffe Schäden in einer Höhe von mindestens 100.000 Euro verursacht haben.

 

Mobile Security: Was bedeutet mobile Sicherheit?

Unter Mobile Security verstehen Sicherheitsexperten ein Schutzkonzept für mobile Technik, also für internet- oder netzwerkfähige Geräte, die entweder zeitweise Ihr Unternehmensgelände verlassen; oder sich per Mobilfunk, WLAN oder eine andere Funktechnologie mit Netzen außerhalb Ihres gesicherten Firmennetzes verbinden.

Darunter fallen in erster Linie Smartphones, Tablets und Laptops sowie Kleingeräte wie Smartwatches oder andere Wearables wie Fitnessarmbänder und smarte Brillen. Aber auch Diagnosewerkzeuge mit eigener Computersteuerung sowie Arbeitsmaschinen und Kraftfahrzeuge mit internetfähigem Bordcomputer sind inzwischen als Teil des Internet of Things (IoT) mobil vernetzt. Entsprechend sollten Sie diese Geräte beim Thema Mobile Security mit berücksichtigen.

Für alle diese Geräte und Maschinen benötigen Sie einen umfassenden und lückenlosen digitalen Schutzschirm und klare Regelwerke für den Umgang mit Bedrohungen aus dem Netz. Denn nur so können Sie Ihre Mitarbeiter:innen und Ihr Unternehmen wirksam vor Cyberkriminellen und Schadsoftware schützen.

Ist Virenschutz auf dem Handy notwendig?

Die gute Nachricht zuerst: Klassische Computerviren sind für das iPhone und Android-Handys bisher noch nicht nachgewiesen worden. Daher sind Antivirenprogramme für Handys meist auch keine reinen Antivirenprogramme. Sie suchen vielmehr ganz allgemein nach Schadprogrammen und Sicherheitslücken.

Viren sind nur eine Form von Malware unter vielen. Cyberkriminelle setzen inzwischen bei Mobilgeräten auf ganz andere Schadprogramme wie beispielsweise Ransomware und Spyware.

Insbesondere Spyware ist auf Mobilgeräten doppelt gefährlich. Denn Cyberkriminelle können ein gekapertes Handy via Kamera und Mikrofon auch unbemerkt für die Industriespionage nutzen oder vertrauliche Gespräche im selben Raum aufzeichnen. Schließlich sind Handys im Unterschied zum Arbeitsplatz-PC heute meist mit dabei, wenn es zu Besprechungen oder Terminen geht.

Wie gelangt Malware auf das Smartphone?

Die Hersteller von Smartphones und Smartphone-Betriebssystemen unternehmen große Anstrengungen, um Handys und Tablets vor Schadsoftware zu schützen. Doch auch das beste Sicherheitskonzept hat Lücken. Es gibt verschiedene Wege, wie Malware auf Mobilgeräte gelangen kann:

FEHLENDE UPDATES FÜR BETRIEBSSYSTEME

In den jeweils neuesten Versionen der Handy-Betriebssysteme sind meist auch Updates für die internen Sicherheitsfunktionen enthalten. Oft schließen Updates auch Sicherheitslücken der Betriebssysteme, soweit diese den Herstellern bekannt sind. Wenn Nutzer:innen diese Updates nicht installieren, können Cyberkriminelle die Lücken weiter ausnutzen.

APPS AUS UNBEKANNTEN QUELLEN

Standardmäßig prüfen die Betreiber von App-Stores wie Apple und Google alle Programme von Fremdanbietern auf mögliche Schadsoftware, bevor sie diese Apps in ihre Stores aufnehmen. Doch einen hundertprozentigen Schutz kann es auch hier nicht geben. Noch gefährlicher sind Apps aus fremden App-Stores. Mit Android-Mobilgeräten ist es sehr einfach, ungeprüfte Apps aus solchen Drittanbieter-Stores herunterzuladen; mit einem iPhone geht dies nur, wenn ein sogenannter “Jailbreak” vorliegt (siehe unten).

MOBILE BROWSER

Viele Webseiten enthalten Schadcode. Oft reicht schon ein Klick auf eine Schaltfläche, um damit Malware auf das Endgerät zu laden.

JAILBREAK/ROOTING

Bei iPhone und iPad stammen Technik, Betriebssystem und App Store von Apple.  Das Unternehmen verwaltet zudem viele Sicherheits- und Betriebssystem-Funktionen. So kann der Hersteller einen umfassenden Schutz gegen viele Gefahren aus dem Netz gewährleisten.

Manche iPhone-Kund:innen nutzen allerdings sogenannte Jailbreaks, um sich vollen Zugriff auf das Betriebssystem zu verschaffen oder das Apple-Universum zu verlassen. So können sie beispielsweise Software aus App-Stores anderer Anbieter herunterladen.

Apple hat keinen direkten Zugriff auf diese App-Stores und kann somit auch nicht garantieren, dass alle dort angebotenen Apps malwarefrei sind. Auch in der Android-Welt gibt es ein Gegenstück zum Jailbreaking. Dort heißt der entsprechende Vorgang Rooting. In beiden Fällen gilt: Durch die zusätzlichen Möglichkeiten des Jailbreakings/Rootings ergeben sich auch neue Gefahren für Nutzer.

VERLUST ODER DIEBSTAHL

Immer wieder gehen dienstlich genutzte Handys und Tablets verloren oder werden gestohlen. Doch selbst wenn Sie Ihr Gerät zurückerhalten, sollten Sie vorsichtig sein. Zwischenzeitlich könnte jemand Schadsoftware auf Ihrem Gerät installiert haben.

UNSICHERES WLAN

Viele Restaurants, Hotels und andere Dienstleister bieten Ihnen in ihren Geschäftsräumen freies WLAN. Doch solche offenen Netze sind immer auch ein potenzielles Risiko. Denn Hacker:innen können ein solches offenes WLAN nutzen, um Ihren Datenverkehr mitzulesen oder Schadsoftware an Ihr Smartphone zu senden.

MAN-IN-THE-MIDDLE-ATTACKE

Bei der sogenannten Man-in-the-middle-Attacke (MITM) klinken sich Cyberkriminelle in Ihre Kommunikation mit Ihrem Firmennetzwerk ein. Dabei spielen sie beiden Seiten vor, der jeweils andere Kommunikationspartner zu sein. So gelangen die Kriminellen an Passwörter oder können die Verschlüsselung zwischen den beiden Seiten knacken. Auch bei einer solchen Man-in-the-Middle-Attacke können Hacker:innen Schadprogramme einspielen.

Es gibt also viele Wege, wie Schadprogramme auf Mobilgeräte gelangen. Besonders gefährdet sind Geräte, die Nutzer:innen per Jailbreak oder Rooting verändert haben – und die sich damit außerhalb der Schutzsphäre ihrer jeweiligen Hersteller befinden.

 

Virenscanner unter Android: Diese Sicherheitstools sollten Sie kennen

Für Ihr Android-Endgerät gibt es im Googles Play Store zahlreiche Antiviren-Apps. Außer dem Schutz gegen Malware bieten einige dieser Programme weitere Services: beispielsweise Passwort-Manager, Surfschutz oder eine Übersicht der Benutzerrechte, die Sie für einzelne Apps freigegeben haben. Zu den beliebtesten Antiviren-Programmen für Android-Handys gehören:

Avira Security Antivirus & VPN

Neben dem Erkennen und Entfernen von Malware bietet die Avira-App noch weitere Sicherheits-Funktionen. So prüft der eingebaute Identitätsschutz, ob Ihre E-Mail-Adresse schon einmal durch einen Datendiebstahl kompromittiert wurde und warnt Sie dann. Beim Finden von verlorenen oder gestohlenen Geräten hilft der integrierte Ortungsdienst. Mit dem Netzwerk-Scanner finden Sie weitere Geräte, die mit demselben WLAN verbunden sind wie Ihr Smartphone. Dazu bietet Ihnen der Hersteller ein eigenes “Virtual Private Network” (VPN) für das anonyme Surfen im Internet – allerdings begrenzt auf 100 MB täglich.

Avast Antivirus & Sicherheit

Die Software findet und beseitigt Malware auf Ihrem Android-Endgerät, erkennt Phishing-Attacken in E-Mails oder auf infizierten Websites und stellt Ihnen ein VPN für das anonyme Surfen zur Verfügung. Bilddateien legen Sie im sogenannten Foto-Tresor von Avast Antivirus ab, den Sie per PIN-Code, Muster oder mit Ihrem Fingerabdruck sichern. Über die App-Sperre sichern Sie auch komplette Apps und andere Inhalte auf gleichem Weg.

McAfee Security

Wie die beiden Wettbewerber hat auch McAfee neben der Malware-Erkennung und -Beseitigung einen integrierten VPN-Service, über den Sie anonym im Web surfen können. Anders als bei Avira gibt es hier auch keinen tägliches Datenlimit. Dazu scannt McAfee Security Ihr gerade genutztes WLAN nach anderen Endgeräten und forscht im Dark Web, ob Ihre E-Mail-Adresse bereits Gegenstand eines Datendiebstahls war.

Norton 360: Mobile Security

Das Programm erkennt und beseitigt Malware und bietet außerdem einen Werbeblocker für Webseiten. Auch hier gibt es einen VPN-Dienst für anonymes Surfen, wobei Sie hier per Split Tunneling (unterschiedliche VPN-Einwahlen) den VPN-Service auf einzelne Apps oder Dienste beschränken können. Der Hersteller garantiert eine Verschlüsselung nach Bankenstandard. Der sogenannte App-Berater überprüft neue und bereits vorhandene Apps auf Ihrem Gerät und weist dabei auf mögliche Bedrohungen hin. Außerdem scannt die Anwendung eingehende SMS und gibt eine Warnung aus, wenn darin Links enthalten sind, die auf betrügerische Seiten im Web verweisen.

Virenscanner für das iPhone: So kommt Apple ohne Virenscanner aus

Zur Unternehmensphilosophie von Apple gehört es, möglichst alle Einfallstore für Malware auf den Computern und Smartphones der Kund:innen zu schließen. Dazu gehört das besonders gewissenhafte Überprüfen aller Drittanbieter-Anwendungen, die im App Store freigeschaltet werden, aber auch das Sandbox-Prinzip.

Dieses sieht vor, dass jede Anwendung auf einem Apple-Mobilgerät in einer eigenen Software-Umgebung ausgeführt wird. Aus dieser Sandbox (übersetzt: Sandkasten) heraus hat die Anwendung keine Zugriffsrechte auf sicherheitsrelevante Gerätefunktionen.

Zudem liefert Apple selbst für ältere Mobilgeräte immer noch Betriebssystem-Updates aus, um auch diese Modelle vor möglichen aktuellen Bedrohungen zu schützen.

So sehr das Sandbox-Konzept zur Sicherheit von Apple-Endgeräten beiträgt, so sehr schränkt es allerdings auch die Wirksamkeit von Antivirenprogrammen auf dem iPhone ein. Denn wie jede andere Anwendung laufen auch Antivirenprogramme von Drittherstellern in einer solchen Sandbox. Deshalb haben sie keine ausreichenden Administrationsrechte, um das Apple-Betriebssystem  vor Schadprogrammen zu schützen.

Dennoch gibt es auch für Apple einige Antivirentools von Drittherstellern. Diese bieten sich aber vor allem wegen ihrer sonstigen Funktionen an, wie zum Beispiel VPN-Tunnel, Kindersicherung oder WLAN-Scanner.

 

Mobile Security für Unternehmen

Unternehmen benötigen heute ein umfassendes Schutzkonzept, das Arbeitsplatzrechner, Cloudspeicher, Server und das firmeneigene Internet der Dinge (IoT) lückenlos integriert. Zugleich sollte es alle mobilen Geräte vom Smartphone bis zum tragbaren Diagnosecomputer gegen Schadprogramme, Diebstahl und Manipulation abschirmen. Ein solches Schutzkonzept sollte unter anderem festlegen:

  • wer welche Programme auf Firmen-Hardware installieren darf.
  • wie Geschäftsdaten auf mobilen Geräten zu verschlüsseln sind.
  • wie mobile Geräte gegen den Zugriff durch Dritte zu sichern sind – beispielsweise durch biometrische Erkennung und starke Passwörter.
  • wie mobile Geräte generell gegen Diebstahl zu sichern sind, etwa durch sogenanntes Geofencing, bei dem ein Alarm ausgelöst wird, sobald das Gerät einen vorgegebenen Bereich verlässt.

 

Mobile Sicherheit per MDM

Sobald eine größere Zahl an Mobilgeräten im Unternehmen registriert ist, sind die manuelle Administration und das manuelle Einspielen von Updates nicht mehr praktikabel. Es entstehen Sicherheitslücken. Mobile Security geht daher heute Hand in Hand mit einem Mobile Device Management (MDM).

Der Begriff beschreibt die einheitliche softwaregestützte Administration aller mobilen Geräte im Unternehmen. Besonders umfangreiche MDM-Lösungen werden auch als “Enterprise Mobility Management” (EMM) bezeichnet. Kommt auch noch eine Verwaltung für stationäre Endgeräte hinzu, spricht man vom “Unified Endpoint Management” (UEM). Mit einer solchen Software können Sie:

  • alle Ihre Mobilgeräte im Unternehmen inventarisieren und verwalten.
  • Hersteller-Updates für die Betriebssysteme von zentraler Stelle aus verteilen, ohne dass die Nutzer:innen diese Updates selbst herunterladen müssen.
  • alle Anwendungen für die Mobilgeräte verwalten und bei Bedarf updaten.
  • zusätzliche Sicherheitsfeatures auf den Mobilgeräten installieren, wie etwa verschlüsselte Container oder besonders starke Passwörter.
  • White- und Blacklists mit Anwendungen erstellen, die zusätzlich installiert oder nicht installiert werden dürfen.
  • Ihren Mitarbeitenden Zugangsrechte für die Firmencloud oder einzelne Netzwerk-Laufwerke erteilen.
  • die Mobilgeräte bei Problemen aus der Ferne („remote“) warten.
  • private und dienstliche Anwendungen technisch voneinander trennen oder private Anwendungen deaktivieren.
  • bei einem Geräte-Diebstahl Unternehmensdaten per Fernauftrag löschen.
  • die Kamera deaktivieren.
  • gestohlene oder verlorene Mobilgeräte sperren.
  • sicherstellen, dass einzelne Geräte nicht per Jailbreak oder Rooting verändert werden.

Einige bekannte MDM-Pakete sind Citrix Endpoint Management, Cisco Meraki Systems Manager, IBM MaaS360, Hexnode UEM und Miradore Online. Auf Apple-Endgeräte beschränkt sind Addigy und Jamf Pro. Manche dieser Programmpakete bieten auch Schnittstellen für die Anbindung an sogenannte Enrollment-Lösungen der Gerätehersteller an, über die Verträge und Servicedienste verwaltet werden.

Unternehmensfremde Geräte am Arbeitsplatz („BYOD“)

Durch die wachsende Anzahl privater Mobilgeräte am Arbeitsplatz und die zunehmende Bedeutung der Arbeit im Homeoffice entstehen unbemerkt viele neue Einfallstore für Malware ins Firmennetz. Exemplarisch seien hier private Handys genannt, die zum Laden per USB-Kabel mit dem Firmencomputer verbunden werden; oder Laptops und Tablets, die gleichzeitig mit dem ungesicherten heimischen Netz und per VPN mit dem Firmennetz verbunden sind. Der englische Begriff für diese mitgebrachten privaten Geräte lautet „Bring your own device“ (BYOD).

Entsprechend sollten Sie in Ihrem Unternehmen im Rahmen von Mobile Security solche Verbindungen wirksam vor Malware schützen. Außerdem ist es empfehlenswert, dass Sie eine unternehmensweite Policy für den Umgang mit Privatgeräten und privaten Zugängen am Arbeitsplatz festlegen.

 

Wie gelangen Angreifer:innen auf das Handy?

Bietet ein Mobilgerät erst einmal Angriffspunkte für Malware, gibt es verschiedene Wege, wie Angreifer:innen dies ausnutzen können. Einige gängige Angriffsformen sind:

Trojaner

Cyberkriminelle verstecken Malware in Trojaner-Apps, die Nutzer:innen meist arglos herunterladen. Gerne nutzen Kriminelle dafür kostenlose Utility- oder Unterhaltung-Apps, dieviele Menschen täglich installieren. Wenn Google die Malware entdeckt und aus dem Play-Store entfernt, suchen sich die Cyberkriminellen neue Programme für ihre Malware.

Social Engineering

Social Engineering ist der Versuch, Nutzer:innen unter Vorspiegelung falscher Tatsachen zu Handlungen zu verleiten, die ihnen selber schaden. Hacker:innen geben sich beispielsweise als Mitarbeiter:innen von Betriebssystem-Herstellern aus und fordern dazu auf, das eigene Endgerät für eine Ferndiagnose online freizugeben (sogenannter Remote-Zugriff). Über diese Remote-Verbindung installieren sie dann heimlich Schadsoftware auf dem Gerät.

Die meisten Social-Engineering-Attacken richten sich gegen Nutzer:innen mit Windows-Arbeitsplatzcomputern oder -Laptops. Aber grundsätzlich funktionieren solche Angriffe auch auf Mobilgeräten.

Supply-Chain-Angriff

Eine besondere Form des Social Engineering ist der Supply-Chain-Angriff, bei dem Hacker:innen eine bekannte Software infizieren, die einen guten Ruf hat und Teil einer größeren Lieferkette ist. Das kann beispielsweise ein bekanntes Office-Produkt sein. Die Hacker:innen nutzen aus, dass Kund:innen der renommierten Software-Firma (beispielsweise Microsoft) vertrauen und deren Programm daher bei der Installation nicht ausreichend auf Schadsoftware überprüfen.

So kann sich Malware durch ganze Lieferketten weiterverteilen und die Hacker:innen können in die Netze aller betroffenen Unternehmen eindringen. Bekannt ist der Fall der Orion-Software von Solarwinds: Kriminelle schmuggelten dort im Jahr 2020 Schadcode ein, der viele gewerbliche Anwender dieser Software angreifbar machte.[3]

Smishing

Smishing ist die mobile Variante des sogenannten Phishings. Beim Phishing werden E-Mails versendet, die ihre Empfänger:innen auffordern, auf einen Lotteriegewinn zu klicken, einen Dateianhang zu öffnen; oder in Eingabeformularen ihre Passwörter und andere persönliche Daten einzugeben, die sich auf seriös wirkenden Webseiten  befinden. Das Smishing als spezielle Smartphone-Variante funktioniert prinzipiell nach den gleichen Regeln. Auch SMS mit Links auf infizierte Webseiten kommen hierbei häufig zum Einsatz.

Exploits

Mittels sogenannter Exploits nutzen Kriminelle Lücken in Handy-Betriebssystemen aus. Exploits sind kleine Programme, die durch diese Lücken Schadcode auf dem Smartphone installieren. Die Gerätehersteller schließen diese Lücken durch regelmäßige Updates ihrer Betriebssysteme. Doch in der Zeit zwischen dem Bekanntwerden und der Installation der Updates sind diese Exploits gefährlich. Daher ist es so wichtig, neu erscheinende Updates zeitnah zu installieren.

Gefahren durch Schläfer-Programme

Viele Malware-Attacken verlaufen unerkannt. Die meisten Schadprogramme können nur ein bestimmtes Betriebssystem befallen und bleiben daher unerkannt, wenn nicht ein Antivirenprogramm gezielt nach ihnen sucht.

Doch gerade das macht auch einen Teil der Malware-Gefahr aus. Denn sobald die Malware erst einmal im Firmennetz ist, kann sie dort auf andere Systeme übergehen – zum Beispiel beim Synchronisieren von Endgeräten oder beim Versenden interner Nachrichten. So wird etwa eine Malware, die bis dahin auf inkompatiblen Endgeräten „geschlafen“ hat, dann plötzlich zur realen Gefahr. Überwachungsprogramme, die nur den Internetzugang am Unternehmenssitz scannen, bemerken solche Malware nicht, da diese auf anderen Wegen ins Firmennetz eingedrungen ist.

Hinweise auf Schadprogramme

Neben den Alarmmeldungen Ihrer Antivirensoftware gibt es noch weitere Indizien für Malware und Adware auf Ihrem Mobilgerät. Einige dieser Indizien sind:

  • Das Gerät verbraucht sehr viel Strom und wird dabei ungewöhnlich heiß.
  • Auf Ihrem Bildschirm werden Werbefenster geöffnet.
  • Ihr Mobil-Browser nutzt plötzlich eine andere Startseite.
  • Webformulare, die Sie häufiger nutzen, sehen plötzlich anders aus und fragen Sie nach bestimmten Passwörtern oder Benutzerdaten.
  • In Ihrer App-Übersicht sehen Sie neue Apps, die Sie selbst nicht installiert haben.
  • Im Datei-Manager sehen Sie neue Ordner.
  • Wenn Sie Dateien von Ihrem Mobilgerät auf andere Geräte übertragen, melden sich die Virenscanner dieser anderen Geräte.

Diese Hinweise können immer nur Indizien sein. Auch harmlose Apps oder Datenverbindungen können beispielsweise den Energieverbrauch Ihres Smartphones in die Höhe treiben. Um Gewissheit zu erhalten, sollten Sie Ihr Android-Gerät daher im Verdachtsfall mit aktuellen Virenschutzprogrammen prüfen. Verwenden Sie dafür möglichst Programme unterschiedlicher Hersteller. So entdecken Sie auch Malware, die ein einzelnes Scanprogramm vielleicht nicht erkennt.

 

Mobile Security: So werden Sie Viren unter Android los

Viele Schadprogramme können Sie per Antivirenprogramm von Ihrem Android-Smartphone entfernen. Noch einfacher ist das Deinstallieren von sogenannter Adware, die Werbung auf Ihrem Bildschirm anzeigt, sich aber nicht in den Tiefen des Betriebssystems versteckt. Solche lästigen, aber meist ungefährlichen Programme werden auch als Crapware ( frei übersetzt: Mistprogramme) bezeichnet. Derartige Apps können Sie in der Regel im abgesicherten Modus entfernen.

Um in diesen Modus zu wechseln, müssen Sie bei den meisten Android-Geräten die Ein-/Aus-Taste für einige Sekunden gedrückt halten. Danach bestätigen Sie die Rückfrage, dass Sie einen Neustart im abgesicherten Modus wünschen und wechseln nach dem Neustart in die Einstellungen und dort in die App-Übersicht. Hier können Sie das Programm dann entfernen. Hat die App Administrationsrechte auf Ihrem Handy, müssen Sie ihr diese Rechte noch vor der Deinstallation im Menü für Sicherheitsfunktionen entziehen.

Eine weitere Möglichkeit, um Malware vom Gerät zu löschen, ist zudem das Zurücksetzen auf Werkseinstellungen (Factory Reset). Allerdings löscht das Betriebssystem dabei  auch alle Ihre Benutzerdaten und Einstellungen. Diesen Weg sollten Sie deshalb nur wählen, wenn Sie ein malwarefreies Backup Ihrer Daten besitzen.

Allerdings gibt es unter Android mittlerweile auch Malware, die ein solches Zurücksetzen im Speicher übersteht und sich danach gleich wieder neu aktiviert. Ein solches Programm ist die Schadsoftware xhelper, die sich einige Zeit lang nur durch komplettes Neueinspielen des Betriebssystems auf dem Handy überschreiben ließ.

Inzwischen gibt es allerdings Antivirenprogramme, die die xhelper-Ordner im Betriebssystem gezielt löschen und so den Wiederherstellungskreislauf von xhelper wirksam unterbrechen.[4]

xhelper war bisher vergleichsweise harmlos. Als typische Adware blendet das Programm lediglich Werbung ein. Technisch wäre es allerdings auch in der Lage, heimlich weitere Programme zu installieren. Sicherheitsexperten fürchten daher, dass bald neu Versionen von xhelper auftauchen können, die auch Spyware oder Ransomware enthalten und sich in neuen, bisher unbekannten Ordnern verstecken.

Wie bei Desktop-Computern gibt es also auch bei Android-Smartphones keinen hundertprozentigen Schutz gegen Malware. Schon deshalb sollten Sie regelmäßig die neusten Betriebssystem-Versionen und Schutzprogramme installieren, um Ihr dienstlich genutztes Handy ebenso wie Ihr privates Gerät bestmöglich zu sichern.

 

iPhone reinigen für mehr Sicherheit

Apple bietet seinen Nutzer:innen einen sehr guten Schutz vor Schadsoftware. Solange Ihr Gerät nicht per Jailbreak verändert ist und Sie damit auf alternative App-Stores außerhalb der Apple-Sphäre zugreifen, sind Sie gegen Malware sehr gut abgesichert.

Aber auch das iPhone sind nicht unverwundbar: So gab es 2021 zahlreiche Berichte über die Software Pegasus des israelischen Software-Herstellers NSO Group. Damit können Ermittlungsbehörden und Geheimdienste auch Apple-Geräte wie das iPhone und das iPad unbemerkt abhören. Auch für Android gibt es inzwischen eine Pegasus-Version. Apple hat Ende 2021 erklärt, dass die von Pegasus genutzte Lücke in iOS zwischenzeitlich geschlossen worden sei.

Eine weitere Gefahr: Auch ein iPhone kann immer noch Überträger von E-Mails mit darin enthaltener Schadsoftware für andere Betriebssysteme sein. iPhone-Nutzer:innen sollten sich daher an die allgemeinen Regeln für mobile Sicherheit im Unternehmen halten. Nur so schützen Sie Ihre Firma bestmöglich gegen Malware.

Mobile Sicherheit in der Übersicht

  • Mobile Security beschreibt Schutzkonzepte für mobile Endgeräte wie Smartphones und Laptops.
  • In jedem Unternehmen, das Mobilgeräte einsetzt, sollte es auch ein entsprechendes Schutzkonzept geben.
  • Das Schutzkonzept sollte mit dem Sicherheitskonzept für Desktop-Geräte und anderer Hardware im Unternehmen eng verzahnt sein.
  • Auch Mobiltelefone können von Malware betroffen sein oder Malware auf andere Endgeräte übertragen.
  • Spyware und Ransomware sind zwei der bekanntesten Formen von Schadsoftware.

Quelle:

https://www.vodafone.de/business/featured/digitales-business/digitaler-arbeitsplatz/der-handy-virenschutz-so-sichern-sie-ihre-mobilgeraete-gegen-schadsoftware/

Was ist Unified Communications (UC)?

Unified Communications bezeichnet die Zusammenführung aller relevanten Kommunikationsdienste auf einer einzigen Plattform. Dazu gehören zum Beispiel Sprachanrufe, Videokonferenzen und Instant Messaging. Hier erfahren Sie, wie Unified Communications funktioniert, welche Vorteile es Ihnen bringt und worauf Sie bei der Einführung in Ihrem Unternehmen achten sollten.

Eine effiziente interne und externe Kommunikation ist für Unternehmen überlebenswichtig. Die unterschiedlichen Kommunikationsformen finden jedoch häufig auf vielen verschiedenen Kanälen, Software-Plattformen und auf der Grundlage unterschiedlicher Sicherheitsanforderungen statt. Die Koordination zwischen diesen Bereichen ist dabei oft sehr aufwendig.

Unified Communications (UC) bündelt alle für Ihr Unternehmen wichtigen Kommunikationsdienste und schafft einen zentrale Plattform für Sie und Ihre Mitarbeiter:innen. Besonders die auf aktuelle Kommunikationssysteme angepasste UC-Erweiterung mit der Bezeichnung Unified Communications & Collaboration (UCC) spielt ihre Stärken für die Zusammenarbeit in Ihrem Unternehmen aus.

 

Was ist Unified Communications?

Unified Communications bedeutet übersetzt in etwa „einheitliche Kommunikation”. Dabei handelt es sich nicht um eine neue Technologie. Vielmehr sammelt ein UC-System die bereits existierenden und für Ihr Unternehmen relevanten Kommunikationsdienste in einer einzigen Anwendung.

Unternehmen verwenden oft unterschiedliche Programme für Funktionen wie Voice-over-IP-Telefonie (VoIP), Instant Messaging und Videokonferenzen. Selbst zeitgemäße Kommunikationslösungen arbeiten dabei oft nicht reibungslos miteinander. Hinzu kommt der separate Administrationsaufwand für jedes einzelne Programm.

Ein UC-Client bringt diese so genannten „Standalones” auf einer einzigen Plattform zusammen. Dadurch besitzen Anwender:innen orts- und zeitunabhängig Zugriff auf sämtliche gebündelten Kommunikationsprozesse. Sie können diese auf einfache und einheitliche Weise nutzen, verwalten und für ihre jeweiligen Bedürfnisse optimieren.

Im Zusammenhang mit dem Oberbegriff Unified Communications tauchen häufig  weitere Begriffe auf, die Sie kennen sollten:

  • UC-Client: Die Benutzeroberfläche einer Unified-Communications-Plattform führt alle Kommunikationskanäle zusammen und visualisiert sie in übersichtlicher Form. Die Anwendung wird damit zur Kommunikationszentrale Ihres Unternehmens, in der die jeweils benötigte Kommunikationsform für einen Vorgang ausgewählt werden kann.
  • Unified Messaging: Dieser Teilbereich wird häufig mit UC verwechselt, umfasst allerdings lediglich die Bündelung zeitversetzter Nachrichten und keine Echtzeitkommunikation. Beispiele dafür sind E-Mails, SMS und Voicemails, die innerhalb einer einzigen Anwendung verfasst und abgerufen werden können.
  • Unified Communications & Collaboration (UCC): Dieser Begriff wird häufig im Zusammenhang mit UC genannt. Er bezeichnet eine Zusammenführung der verschiedenen Kommunikationsdienste für die Zusammenarbeit in einem Team und ist damit gerade für Unternehmen besonders interessant.

 

Die Kernbausteine von Unified Communications 

Eine gelungene Unified-Communications-Lösung besteht üblicherweise aus vier Kernbausteinen. Dazu gehören die technische Grundlage, Intelligenz und Logik, sowie die Kommunikationswünsche der einzelnen Beteiligten.

Medienintegration

IP-Technologie verknüpft verschiedene Kommunikationsmedien wie klassische Telefone, Smartphones, Feature Phones und IP-Telefone so miteinander, dass die Signalisierung eines Gesprächsbedarfs jeweils auf dem aktuell sinnvollsten und bevorzugten Medium stattfindet.

Ein Beispiel dafür ist die automatische Umschaltung eingehender Anrufe auf ein Mobilgerät, wenn Mitarbeiter:innen nicht an ihrem Platz sitzen. Alternativ kann die Benachrichtigung auch via Messenger erfolgen. Voraussetzung dafür ist jedoch, dass sämtliche Systeme nahtlos miteinander arbeiten.

Präsenzinformationen

Sind Mitarbeiter:innen gerade am Platz oder nicht? Befinden sie sich in der Pause oder sind sie aktuell verfügbar? Welches Kommunikationsmittel bevorzugen sie? Diese Informationen fehlen häufig, wenn Mitarbeiter:innen vermehrt im Home- oder Mobile-Office arbeiten.

Ein Beispiel für eine solche Status-Signalisierung ist ein entsprechendes Icon im Messenger-Dienst, das Mitarbeiter:innen setzen, wenn sie in die Pause gehen. Alternativ kann es auch zu automatisch festgelegten Zeiten aktiviert werden. Eingehende Nachrichten beantwortet der Dienst dann automatisch oder stellt sie in dringenden Fällen auf ein Mobilgerät durch.

Kontextintegration

Ausgefeilte UC-Systeme verknüpfen Anwendungen und Informationen von Drittanwendungen intelligent miteinander. Eine einheitliche Benutzeroberfläche liefert Informationen zum Status der Erreichbarkeit sowie allen möglichen Kommunikationswege von Kolleg:innen innerhalb eines beliebigen Dienstes. Vergebliche Kommunikationsversuche, langes Suchen nach Handynummern oder Mailadressen entfallen somit.

Gleiches gilt auch im umgekehrten Fall: Geht ein Anruf ein, können die Angerufenen neben der Rufnummer auch den Namen der Kund:innen und eventuell deren Bestellhistorie sehen.

UCC – Erweiterte Kollaborationsfunktionen

Die Teilbereiche von UCC unterscheiden sich voneinander: Echtzeitkommunikation unterscheidet sich von Online-Zusammenarbeit (Collaboration). Ein Telefonat zu einem bestimmten Sachverhalt ersetzt meist keine gemeinsame Besprechung vor Ort. Online-Besprechungen bekommen jedoch eine andere Qualität, wenn die Beteiligten gleichzeitig auf einen bestimmten Sachverhalt blicken und diesen bearbeiten können.

Idealerweise unterstützen UCC-Systeme nicht nur synchrone, sondern auch asynchrone Kommunikationsmedien und bieten die Möglichkeit, gemeinsam oder zeitversetzt an Dokumenten zu arbeiten. Beispiele hierfür sind interaktive Whiteboards und die Cloud-Kollaborationsfunktionen in Office 365.

 

Funktionen von Unified Communications

Unified Communications vereinigt wie bereits beschrieben eine große Zahl an Funktionen innerhalb einer einzigen Anwendung. Die Integration verschiedener Kommunikationsformen innerhalb des UC-Clients sorgt für eine einheitliche Basis, auf der Ihre Mitarbeiter:innen in Ihrem Unternehmen arbeiten können.

Beispiele für solche UC-Plattform-Dienste sind:

  • Telefonie / Sprachanrufe (VoIP): UC umfasst neben den virtuellen Lösungen auch die Internet-Telefonie. Dabei sind unter anderem TelefonkonferenzenVoicemail, Anrufbeantwortungsfunktionen sowie die Speicherung von Sprachnachrichten möglich.
  • Videokonferenzen: Videokonferenzen sind aus dem modernen Geschäftsleben kaum noch wegzudenken. Sie ersetzen zeitaufwendige persönliche Meetings und erlauben es im Gegensatz zu Textnachrichten (wie zum Beispiel Mails) dennoch, eine persönlichere Ebene zum Gegenüber aufzubauen. Dies gilt sowohl für die interne Kommunikation und Koordination wie für die externe Kommunikation mit Geschäftspartner:innen und Kund:innen.
  • Instant Messaging / Team-Chat: Die Echtzeitübertragung von Textnachrichten fällt in den UCC-Bereich und erleichtert vor allem die Kommunikation zwischen Mitarbeiter:innen oder innerhalb von Teams – vor allem, wenn diese an unterschiedlichen Orten an gemeinsamen Projekten arbeiten.
  • Screen- und Content-Sharing: Bildschirmfreigaben erleichtern Videokonferenzen erheblich und bieten Kolleg:innen bei Präsentationen oder Schulungen einen komfortablen Einblick in Sachverhalte und Arbeitsprozesse. Der Datenaustausch zur gemeinsame Arbeit im Rahmen dieser UCC-Komponente verbessert ebenfalls die virtuelle Zusammenarbeit unabhängig vom jeweiligen Arbeitsplatz der Beteiligten.
  • CRM-Schnittstellen: Ein für viele Unternehmen besonders wichtiger Bereich ist die Kommunikation mit ihren Kund:innen. UC-Plattformen integrieren auch die verschiedenen Dienste, über die Kund:innen mit Ihrem Unternehmen in Kontakt treten können.
  • Präsenz: Der UC-Client bietet eine Präsenzanzeige, die Ihnen auf einen Blick den Status von Mitarbeiter:innen anzeigt. Sie sehen sofort, wer erreichbar ist und wer aktuell nicht verfügbar ist, weil er oder sie sich beispielsweise gerade in einem Meeting befindet. Dies erspart Ihnen unnötige Kommunikationsversuche zum falschen Zeitpunkt und gestaltet die standortunabhängige Zusammenarbeit deutlich effektiver.
  • Virtuelle Räume: Mit einer UC-Plattform richten Sie einen virtuellen und jederzeit verfügbaren Konferenzraum ein. Darin lassen sich alle oben genannten UC-Funktionen integrieren, sodass Sie bei einer Zusammenkunft in einem Team bequem darauf zugreifen können. Dabei können Räume für bestimmte Themen oder für einzelne Teams ganz auf die jeweiligen Anforderungen zugeschnitten werden.

Unified Communications: Voraussetzungen für die Nutzung

Unified Communication stellt einen übergreifenden Prozess dar, der sämtliche Bereiche, Standorte und Mitarbeiter:innen Ihres Unternehmens mit einbeziehen sollte. Mit einer passenden UC-Plattform berücksichtigen Sie sämtliche Anforderungen hinsichtlich der Anwendung unterschiedlicher Kommunikationsdienste. Unabhängig vom Grad und der Tiefe der Nutzung dieser Dienste können Sie UC passend auf Ihre Bedürfnisse zuschneiden.

Dennoch gibt es einige Dinge, über die Sie sich im Vorfeld der Etablierung einer einheitlichen Unified-Communications-Plattform Gedanken machen sollten. Dazu zählt vor allem eine Bestandsaufnahme des Ist-Zustands:

  • Welche Telekommunikationsanlage nutzen Sie derzeit (Hardware und Software)?
  • Nutzen Sie bereits IP-Telefonie?
  • Welche Kommunikationswege und -dienste verwenden die Mitarbeiter:innen Ihres Unternehmens darüber hinaus?
  • Wie häufig werden digitale Kommunikationsdienste für die Zusammenarbeit genutzt?
  • Integriert Ihr aktuelles Modell alle Unternehmensbereiche, Standorte und Mitarbeiter:innen?
  • Welche Vor- und Nachteile der bisher genutzten Kommunikation sind Ihnen bekannt?
  • Wie hoch sind die aktuellen Kosten für Ihre interne und externe Kommunikation?

Basierend darauf sollten eine Definition des Soll-Zustands erarbeiten, um zu ermitteln, welche Anforderungen Sie an eine UC(C)-Plattform stellen:

  • Welche Kommunikationsdienste müssen in die Unified Communication Ihres Unternehmens eingebunden sein?
  • Sollen diese ausschließlich der internen Kommunikation dienen oder auch für die externe Kommunikation genutzt werden?
  • Wie häufig will Ihr Unternehmen zur Team-Zusammenarbeit in Zukunft Telefon-/Videokonferenzen, Instant Messaging oder virtuelle Räume nutzen?
  • Welche technischen Voraussetzungen hinsichtlich der Rechnern, Mobilgeräten und Netzwerktechnik sind nötig?
  • Existieren Risiken hinsichtlich der Sicherheit von Daten bei der Einführung einer UC-Plattform in Ihrem Unternehmen?
  • Benötigen Sie eine Präsenzanzeige für Ihr Personalmanagement?
  • Was kostet eine auf Ihr Unternehmen zugeschnittene Lösung?

 

Vorteile von Unified Communications für Unternehmen

Der Einsatz von Unified Communication erleichtert und beschleunigt viele Prozesse in Unternehmen erheblich. Vor allem die „Collaboration”, also die konkrete Zusammenarbeit von Abteilungen, Projektteams und einzelnen Mitarbeiter:innen, wird effizienter. Zusätzliche Kommunikation aufgrund parallel laufender Dienste und Anwendungen verringert sich damit deutlich.

Die Flexibilität hinsichtlich standortunabhängiger Kommunikation auf verschiedenen Endgeräten wie Computern, Tablets und Smartphones garantiert zudem eine zuverlässige Erreichbarkeit und Präsenzabfrage mit einer einzigen Anwendung. Bei der externen Kommunikation beschleunigt UC die Reaktionszeit in Bezug auf Anfragen von Geschäftspartnern oder Kund:innen.

Auch die Administration und Pflege ist bei einer einzigen UC-Plattform einfacher zu gewährleisten als bei Einzellösungen, die Ihre Administrator:innen unabhängig voneinander verwalten. Einstellungen, Updates und Bugfixes nehmen die IT-Verantwortlichen mittels eines einheitlichen Backends vor. Falls nötig, kann der Support eines einzigen Anbieters miteinbezogen werden. Singuläre Ausfälle einzelner Dienste und deren separate Wartung entfallen, was in der Praxis viel Zeit einsparen kann.

Durch die Etablierung von UC und die damit erzielten Effizienzvorteile können in weiteren Unternehmensbereichen Einsparungspotenziale realisiert werden. Ein Beispiel dafür ist eine Kundenanfrage, für die Mitarbeiter:innen weitere Expertise aus einer Fachabteilung Ihres Unternehmens einholen müssen: Die Anfrage an Ihren Kundenservice, die interne Rücksprache, die Antwort darauf sowie die Beantwortung Ihres Supports finden komplett via UC-Client statt. Wartezeiten aufgrund unterschiedlicher Kommunikationsplattformen verkürzen sich erheblich, so dass Ihren Kund:innen wird schneller geholfen wird. Gleichzeitig können Ihre Mitarbeiter:innen sich mehr auf ihre Kernaufgaben konzentrieren, anstatt mit interner Kommunikation auf unterschiedlichen Systemen aufzuhalten.

Unified Communications & Collaboration: Herausforderungen bei der Umsetzung

In der Theorie hört sich eine integrierte UC-Umgebung zwar hervorragend an, doch die konkrete Umsetzung stellt Unternehmen oft vor erhebliche Herausforderungen und Investitionen: Beispielsweise benötigen Messaging-Funktionen einen Mail-Server, Datenbanken brauchen regelmäßige Pflege und viele VoIP-Möglichkeiten (wie One-Numbering) eignen sich aufgrund der technischen Anforderungen nicht immer für kleinere und mittelständische Unternehmen.

Eine Hürde bei der Umsetzung von Unified Communications & Collaboration liegt daneben vor allem in den organisatorischen Herausforderungen: Während bei kleineren Unternehmen vor allem die einfache interne Kommunikation zur Abstimmung der Mitarbeiter:innen im Vordergrund steht, ist für größere Unternehmen eine integrierte Infrastruktur aus Hard- und Software die Grundvoraussetzung, um UC(C) vollumfänglich nutzen zu können.

Während die einzelnen Komponenten für eine umfassende UC-Plattform längst ausgereift sind, ist die Kompatibilität untereinander zudem nicht zwingend gegeben. In der Theorie klingt das Zusammenspiel aller Kommunikationskomponenten verlockend, doch die Umsetzung kann Unternehmen vor Schwierigkeiten stellen: Die Entwickler von Software, die

Hersteller von Telekommunikations-Anlagen sowie die Anbieter von Netzwerklösungen bieten selten alle Komponenten an. Während Firmen wie zum Beispiel Cisco und Siemens TK-Lösungen anbieten, entwickeln Microsoft oder IBM lediglich die Gruppen-Software für den Betrieb in Unternehmen. Diese Bereiche im Rahmen einer einzigen UC-Plattform miteinander zu verknüpfen, ist nicht immer problemlos möglich.

Der Vorteil von Unified Communications kann sich wie bei anderen ganzheitlichen Lösungen auch als der einzig nennenswerte Nachteil erweisen: Die Abhängigkeit von einem einzigen Anbieter. Fallen dessen Server aus oder gerät er in andere Schwierigkeiten, kann damit die Sicherheit Ihrer Daten gefährdet sein – oder sogar die komplette Kommunikation Ihres Unternehmens ausfallen. Hier kommt es insbesondere darauf an, einem etablierten Anbieter zu vertrauen, der über die entsprechende Infrastruktur und Zertifizierungen verfügt.

Unified-Communications-as-a-Service (UCaaS)

Unified Communications nimmt in Zeiten von Arbeitsplatzkonzepten wie flexiblem Home Office oder Workplace-as-a-Service (WaaS) eine immer wichtigere Rolle ein. Viele Unternehmen können hohe Investitionen in die Anschaffung oder Umstellung ihrer IT-Infrastruktur vermeiden, wenn sie auf einen Cloud-Service zurückgreifen, der die Funktionen von Unified Communications beinhaltet.

Unified-Communications-as-a-Service (UCaaS) bietet die Anwendungen von UC, die im Unternehmen benötigt werden. Ebenso wie viele andere Cloud-Services ermöglicht UCaaS eine relativ einfache Skalierbarkeit für die konkret im Unternehmen benötigten Geschäftsaufgaben. Neben Telefonie, Videokonferenzen, Messaging und Präsenztechnologie umfassen die Angebote auch Contact-Center-Funktionen mit automatischen Weiterleitungen, Sprachantworten und eine Integration in die CRM-Anwendung(en) Ihres Unternehmens.

UCaaS-Lösungen bieten sich vor allem für kleinere und mittelgroße Firmen an, die die Investitions- und Betriebskosten niedrig halten und gleichzeitig die große Flexibilität eines Cloud-Services nutzen möchten.

Quelle:

https://www.vodafone.de/business/featured/digitales-business/was-ist-unified-communications-uc/

Was ist und wie funktioniert Mobile Device Management (MDM)?

Für viele Unternehmen ist es längst Alltag: Das Marketing-Team arbeitet auf einer Fachmesse per Laptop remote an einer Präsentation, die IT-Administration verwaltet mit Tablets die Cloud-Einstellungen und weitere Mitarbeiter:innen greifen mit dem Smartphone auf Geschäftsdaten zu. Der Einsatz vieler unterschiedlicher Mobilgeräte erfordert eine gute Organisation und birgt zugleich Sicherheitsrisiken – aus diesem Grund benötigen Unternehmen ein effektives Mobile Device Management (MDM).

MDM ist ein Teil des Enterprise Mobility Management (EMM) und beinhaltet die standardisierte Verwaltung von mobilen Endgeräten. Die Basis dafür bilden spezialisierte Verwaltungstools. Unternehmen überwachen, verwalten und versehen alle geschäftlich genutzten Mobilgeräte nach einheitlichen Sicherheitsstandards. Nicht verwechseln sollten Sie MDM jedoch mit dem Master Data Management, das häufig ebenfalls unter dieser Abkürzung firmiert, allerdings die Verwaltung von Stammdaten beschreibt.

Wie effektives MDM im Umfeld der Geräteverwaltung funktioniert und worauf Sie bei dessen Anwendung in Ihrem Unternehmen achten sollten, erklären wir Ihnen in diesem Artikel.

 

Was bietet Mobile Device Management für Unternehmen?

Mobile Device Management (übersetzt: Mobilgeräteverwaltung) dient der sicheren Einbindung aller betrieblich genutzten Mobilgeräte in das Netzwerk und die Anwendungen eines Unternehmens. Sie erfolgt einheitlich und nach gemeinsamen Sicherheitsstandards. Der Vorteil: MDM berücksichtigt sowohl firmeneigene Geräte als auch private Mobilgeräte, die Mitarbeiter:innen im Rahmen von Bring Your Own Device (BYOD) benutzen.

BYOD kommt in vielen Unternehmen zum Einsatz und erweitert das Portfolio an Geräten, auf denen Unternehmensdaten gespeichert werden, noch einmal beträchtlich. Unternehmen schaffen mobile Geräte meist einheitlich an; zudem entsprechen sie geprüften Kriterien hinsichtlich der Leistungsdaten und Softwarestandards. Bei BYOD kann hingegen schnell ein Flickenteppich an Herstellern, Leistungsfähigkeit und Betriebssystemen entstehen.

Speichern Ihre Mitarbeiter:innen geschäftliche Daten auf diesen Geräten, müssen Sie als Unternehmen also eine Lösung für deren Schutz finden. MDM bietet sozusagen eine „All-in-One“-Lösung: Es übernimmt ausgehend von einer zentralen Stelle in Ihrer IT-Administration die Verwaltung und den Schutz von geschäftlichen und BYOD-Geräten sowie den darauf gespeicherten Anwendungen und Daten.

Eine Grundvoraussetzung für MDM besteht darin, dass Ihre IT weitreichende Rechte zur Konfiguration und Administration der Mobilgeräte besitzt. Erst dadurch können die Administrator:innen auch BYOD-Geräte effektiv in das MDM-Konzepts Ihres Unternehmens einbinden. Ein weiterer Vorteil besteht darin, dass Ihre IT-Abteilung die Trennung von privater und beruflicher Nutzung dieser Geräte sicherstellen kann.

Wie funktioniert Mobile Device Management?

Mobile Device Management beinhaltet zwar je nach gewähltem Programm unterschiedliche Funktionsweisen, basiert aber auf ähnlichen Konzepten. Zur Umsetzung benötigen die Endgeräte, die per MDM verwaltet werden sollen, einen Software-Agenten. Dieser bietet Ihrer betrieblichen Administration Zugang zu dem Gerät und kommuniziert mit einem MDM-Server.

Die eingesetzte Software kann als On-Premises-Lösung auf Ihrem Unternehmensserver laufen. Alternativ können sie die Software auch als Software-as-a-Service (SaaS) mieten. SaaS bietet auf Ihr Unternehmen zugeschnittene Funktionen und kann günstiger sein, anstatt eigens einen MDM-Server anzuschaffen und zu verwalten. Dies hängt jedoch von Ihrer Unternehmensgröße, der Zahl der Geräte und den konkreten Anforderungen ab, die Sie an MDM stellen.

Vom MDM-Server erhält der mobile Agent Befehle für die Gerätekonfiguration und wahlweise auch für die genutzte Software. Entsprechende Agents gibt es für verschiedene gängige Betriebssysteme mobiler Geräte, unter anderem für Windows, iOS, Android und Linux.

So unterscheidet sich MDM von EMM, UEM und DLM

MDM ist eng mit weiteren Begriffen verwandt, die ebenfalls Lösungen zur Verwaltung mobiler Endgeräte beschreiben. MDM wird häufig als allgemeine Beschreibung der verschiedenen Konzepte verwendet, aber dies ist oft nicht zutreffend. Aus diesem Grund sollten Sie auch die folgenden Begriffe kennen, um MDM innerhalb Ihres Unternehmens von anderen Ansätzen der Geräteverwaltung abzugrenzen:

  • Enterprise Mobility Management (EMM): Dieser übergeordnete Begriff beschreibt den vollumfänglichen Ansatz zur Verwaltung von Gerätebeständen in Unternehmen. EMM-Suites enthalten Kategorisierungen zur Abgrenzung der Bereiche MDM, Mobile Application Management (MAM) und Identity Access Management (IAM).
  • Unified Endpoint Management (UEM): EMM ist explizit für die Verwaltung von Anwendungen und Daten auf mobilen Geräten ausgelegt, sodass es stationäre Windows- und iOS-Rechner nicht erfassen kann. UEM verbindet EMM-Funktionen und klassisches PC-Netzwerk-Management in einer Lösung und ermöglicht Unternehmen auf diese Weise gleichzeitig mobiles und stationäres Management.

Diese Lösungen können mit einem umfassenden Device Lifecycle Management (DLM) kombiniert werden: Dieses deckt den kompletten Lebenszyklus eines Endgeräts in einem Unternehmen ab – von der Anschaffung bis zur Ausmusterung. Dadurch garantieren Sie einen gemeinsamen technischen Standard aller Geräte, die Ihre Mitarbeiter:innen verwenden.

 

Typische Merkmale von MDM-Lösungen

Damit Ihr IT-Administration mit MDM arbeiten kann, sollten MDM-Suiten folgende Merkmale und Funktionen aufweisen:

  • Unterstützung unterschiedlicher Betriebssysteme
  • Sichere Einbindung in Ihr Unternehmensnetzwerk
  • Automatisierte Bereitstellung von geschäftlich genutzten Anwendungen
  • Konfiguration und Updates für diese Firmenanwendungen
  • Einheitliche Sicherheitsvorkehrungen auf allen Geräten (zum Beispiel durch Authentifizierung und Antivirensoftware)
  • Schutz und Verschlüsselung sensibler Geschäftsdaten
  • automatisierte Datensicherungen
  • Trennung zwischen geschäftlicher und privater Gerätenutzung
  • Inventarisierung von Hard- und Software
  • Monitoring wichtiger Anwendungen
  • Ortung mobiler Geräte
  • Sperrung und Datenlöschung per Remote-Zugriff bei Geräteverlust oder Diebstahl
  • Einheitliche grafische Benutzungsoberfläche für Administrator:innen
  • MDM-Systeme: Weitere Einsatzmöglichkeiten der Software

    MDM-Suiten beinhalten umfangreiche Möglichkeiten für den Einsatz in Ihrem Unternehmen. Neben den grundlegenden Merkmalen, die ein MDM-System aufweisen sollte, bieten sich Ihnen weitere Optionen, um die Software-Verwaltung für mobile Endgeräte zielführend und effektiv zu nutzen. Diese sind jedoch nicht für alle Firmen notwendig. Stattdessen können Ihre Administrator:innen, sie je nach Bedarf zusätzlich zu den bereits genannten Möglichkeiten nutzen.

    Geräteverfolgung

    Ihre IT-Abteilung kann die Mobilgeräte der Mitarbeiter:innen so konfigurieren, dass sie sie per GPS orten kann. Daneben können weitere Programme dafür sorgen, dass Administrator:innen jederzeit Zugriff auf die Geräte besitzen. Die Geräteverfolgung kann der Überwachung, der Installation wichtiger Updates oder der Problemlösung in Echtzeit dienen.

    Zudem ist die Administration in der Lage festzustellen, wenn ein Gerät sich mit kritischen Netzwerken verbindet oder missbräuchliche Vorgänge stattfinden. In diesen Fällen kann sie das Gerät per Remote-Zugriff sperren oder dessen Datenbestand löschen.

    Anwendungssicherheit

    Innerhalb von MDM können Ihre Administrator:innen spezielle Sicherheitsvorkehrungen integrieren, die sich gezielt auf einzelne Anwendungen beziehen. Dazu zählen beispielsweise spezielle Verwaltungs- und Sicherheitsfunktionen, die sie zu einer Anwendung hinzufügen (so genanntes „App Wrapping“).

    Die Features umfassen zum Beispiel eine zusätzliche Authentifizierung, um die App zu öffnen; und Einstellungen, inwieweit Nutzer:innen Daten der Anwendung kopieren oder speichern dürfen. Ihre IT-Abteilung installiert diese modifizierten Anwendungen dann als Programm-Container auf den jeweiligen Mobilgeräten.

    Identity Access Management

    Mobile Device Management ist im Idealfall mit einem wirkungsvollen Identity Access Management (IAM) verknüpft oder integriert dieses sogar in seine Programmsuite. IAM-Systeme ermöglichen Ihren Administrator:innen, die Rollen von Benutzer:innen nach Bedarf zu definieren und zu ändern. Sie können damit Zugriffsberechtigungen von Mobilgeräten eindeutig zuweisen. Zu IAM gehören unter anderem Tools für das Passwort-Management, Apps zur Durchsetzung von Security Policies sowie Reporting- und Monitoring-Apps.

    Endpunktsicherheit

    Die Sicherheit von Endpunkten umfasst sämtliche Geräte, die auf Ihr Unternehmensnetzwerk zugreifen. Diese beschränkt sich nicht nur auf mobile Endgeräte, sondern beinhaltet auch sämtliche stationäre Geräte Ihres Unternehmens. Dazu zählen auch Geräte und Firmenanlagen des Internet of Things (IoT). Um die über das MDM hinausgehenden Sicherheit zu gewährleisten, gibt es traditionelle Sicherheitsmaßnahmen wie Firewalls oder Antivirensoftware, aber auch weitergehende Vorkehrungen wie zum Beispiel URL-Filter und automatisierte Ereignisreaktionen.

Warum brauchen Unternehmen Mobile Device Management?

In den letzten Jahren ist die Arbeitswelt noch flexibler, noch digitaler geworden. Vormals stationäre Arbeitsplätze in Unternehmen wandeln sich zu mobilen Stellen, die von nahezu jedem Ort am Geschäftsprozess teilnehmen können. Der Remote-Zugriff auf Unternehmensdaten und -prozesse in der Cloud oder auf On-Premise-Servern ist von der Ausnahme zur Selbstverständlichkeit geworden.

Mit dieser Veränderung ist auch die Zahl der eingesetzten Mobilgeräte in Unternehmen gestiegen – erst recht durch das BYOD-Prinzip. Unterschiedliche Hersteller, Betriebssysteme und Sicherheitsstandards sorgen dafür, dass es für Unternehmen immer schwieriger ist, gemeinsame Qualitäts- und Sicherheitsrichtlinien zu etablieren und in den täglichen Geschäftsprozessen beizubehalten.

Auch im produzierenden Gewerbe hat die Anzahl von mobilen Geräten zugenommen: Durch die digitalisierten und automatisierten Prozesse einer Smart Factory im Rahmen der Industrie 4.0 sind in vielen Firmen deutlich mehr Geräte (wie mobile Rechner und Tablets) im Einsatz. Selbst Werkstücke sind während des Produktionsprozesses durch Sensoren in das Industrial Internet of Things (IIoT) eingebunden und zählen genau genommen zu den Endgeräten, die mit MDM (beziehungsweise EMM) verwaltet werden.

Mobile Device Management bündelt die eingesetzten Geräte und sorgt dafür, dass sämtliche Angestellte Ihres Unternehmens auf derselben technischen und administrativen Basis arbeiten können. Unabhängig von der Größe und der Art Ihres Unternehmens ergeben sich durch MDM vielfältige Vorteile: wie zum Beispiel geringere Support- und Administrationskosten, eine höhere Produktivität Ihrer Mitarbeiter:innen sowie ein einheitlicher Sicherheitsstandard für Ihre Geschäftsdaten.

Quelle:

https://www.vodafone.de/business/featured/digitales-business/digitale-geschaeftsprozesse/was-ist-und-wie-funktioniert-mobile-device-management-mdm/

ISMS: Information-Security-Management-Systeme einfach erklärt

Ein „Information Security Management System” (ISMS) definiert Regeln und Prozesse, um die IT-Sicherheit in Unternehmen und Organisationen zu gewährleisten. Es ist prozessorientiert und arbeitet nach dem Top-Down-Ansatz. Der Einsatz von ISMS in Unternehmen hat das Ziel, mögliche Risiken hinsichtlich der Informationssicherheit zu identifizieren und Vorgehensweisen zur IT-Sicherheit unternehmensweit zu definieren.

 

Was ist ein ISMS?

Der deutsche Begriff für ISMS lautet “Managementsystem für die Informationssicherheit” oder auch “Informationssicherheitsmanagementsystem”. Innerhalb eines ISMS sind Prozesse, Regeln, Verfahren, Maßnahmen und Tools definiert, die Aspekte der Informationssicherheit steuern, kontrollieren, sicherstellen und optimieren.

ISMS nutzen den so genannten Top-Down-Ansatz. Das Top-Management ist dabei dafür verantwortlich, Security Policies aufzustellen und zu verabschieden. Andere Führungskräfte wie beispielsweise der oder die IT-Sicherheitsbeauftragte setzen diese Regeln dann in der Praxis um. Dabei hängen die Wirksamkeit und Effizienz eines ISMS davon ab, dass alle Unternehmens- und Organisationsbereiche die Regeln befolgen.

 

ISMS und CSMS

Die Strukturen für IT- und Cybersicherheit betreffen innerhalb eines Unternehmens auch die Produktion und die Produkte über den gesamten Produktlebenszyklus hinweg. Jedes Unternehmen hat für eine wirksame Cyber Security zu sorgen: Das betrifft auch die Produktentwicklung, Produktion und Organisation des Unternehmens sowie die einzelnen Verantwortlichkeiten.

Im Produktionsbereich hat sich neben dem Begriff des ISMS dafür die Abkürzung CSMS für „Cyber Security Management System” etabliert. Dieses beinhaltet die Einführung eines Risiko- und Bedrohungsmanagements sowie regelmäßige Analysen möglicher Bedrohungslagen über die gesamte Entwicklung hinweg.

 

Die Vorteile des IT-Sicherheitsmanagements über ISMS

Die Ziele eines ISMS sind an die gesetzliche DSGVO und Datenschutzbestimmungen geknüpft. Die Hauptaufgabe eines ISMS ist es nicht, die definierten Regeln und Strukturen umzusetzen. Stattdessen plant und gestaltet das ISMS Policies, Prozesse und Vorgaben zur IT-Sicherheit im Unternehmen.

Ein ISMS gewährleistet, dass sensible Informationen sowie alle Daten von Unternehmen, Kunden und Dritten geschützt sind. Ein wichtiger Punkt ist dabei die Gewährleistung der Geschäftskontinuität. Indem Firmen Informationssicherheit über ein ISMS zum integralen Bestandteil der Unternehmensprozesse machen, können sie das Sicherheitsniveau steigern und Ausfallrisiken minimieren.

In regulierten Finanzbereichen oder bei kritischen Infrastrukturen (KRITIS) gelten strenge Compliance-Vorgaben. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) definiert kritische Infrastrukturen so:

 „Organisationen und Einrichtungen mit wichtiger Bedeutung für das staatliche Gemeinwesen, bei deren Ausfall oder Beeinträchtigung nachhaltig wirkende Versorgungsengpässe, erhebliche Störungen der öffentlichen Sicherheit oder andere dramatische Folgen eintreten“.

Durch ein ISMS gewährleisten Unternehmen, dass alle regulativen sowie vertraglichen Vorgaben erfüllt sind.

Die Zertifizierung eines ISMS bietet Unternehmen die Möglichkeit, den sicheren Umgang mit sensiblen Informationen gegenüber Dritten nachzuweisen. Unternehmen haben die Wahl, ob sie das ISMS nach der internationalen Norm ISO/IEC 27001 oder der „deutschen“ Variante DIN EN ISO 27001 zertifizieren lassen.

Bei vielen Ausschreibungen sind diese Zertifizierungen vorgeschrieben. Neben dem Wettbewerbsvorteil trägt die ISMS-Zertifizierung zur Vertrauensbildung und zum positiven Image eines Unternehmens bei.

in ISMS beschreibt Prozesse und Richtlinien, um Informationssicherheit systematisch im gesamten Unternehmen zu garantieren.

Bei der Maßnahmenplanung und Analyse zur Einrichtung eines ISMS werden alle Unternehmensprozesse auf den Prüfstand gestellt. Hier hilft die Maßnahmenplanung dabei, Prioritäten zu setzen und Ressourcen optimal einzusetzen. Der anfängliche Mehraufwand für die Analyse und Einführung eines ISMS macht sich langfristig bezahlt –durch mehr IT-Sicherheit und gesunkene Kosten aufgrund von verbesserten Prozessen.

 

Schutzziele der Informationssicherheit – ISO 27001 im Überblick

Ein Informationssicherheitsmanagementsystem unterstützt Unternehmen beim Schließen von Schwachstellen und Sicherheitsrisiken. Die Norm ISO 27001 definiert Kriterien, um ein ISMS aufbauen, einführen und betreiben zu können.

Die ISO 27001 ist keine Norm, die nur IT-Prozesse betrifft. Sie berücksichtigt auch Aspekte wie Infrastruktur, Unternehmensorganisation sowie Personal und Gebäudemanagement. Einen Schwerpunkt legt die Norm auf kritische Infrastrukturen (KRITIS), für die der Gesetzgeber besondere Anforderungen an die IT-Sicherheit stellt.

Der Vorteil eines Zertifikats ist die Unabhängigkeit und Objektivität einer derartigen Prüfung und Beurteilung. Bei einer Selbsterklärung durch Unternehmen ist es für Kunden schwierig, diese zu prüfen und zu bewerten. Bei einer Zertifizierung bescheinigt eine unabhängige, dritte Stelle die Richtigkeit und Konformität. Dadurch erhalten Kunden die Garantie, dass entsprechend geprüfte Unternehmen die IT-Sicherheit ausreichend gewährleisten.

Ein nach der ISO 27001 organisiertes ISMS ist vollständig kompatibel zu anderen ISO-zertifizierten Managementsystemen und kann auch als Basis für Prüfungen nach dem Standard IDW PS 330 dienen. Die in diesem Zusammenhang wichtigen Fakten auf einen Blick:

  • Die ISO 27001 Zertifizierung ist ein dokumentierter Nachweis, dass ein Informationssicherheitsmanagementsystem den Anforderungen der ISO 27001 entsprechend konform ist.
  • Auf der ISO 27001 basierende ISMS lassen sich vollständig in bereits bestehende Managementsysteme nach ISO 9001 oder ISO 14001 integrieren.
  • Durch eine Zertifizierung nach ISO 27001 wird die Wirksamkeit eines Informationssicherheitsmanagementsystems (ISMS) im Unternehmen objektiv und glaubwürdig nachgewiesen.

 

ISMS: Der Unterschied zwischen Informationssicherheit und IT-Sicherheit

Ein Information-Security-Management-System umfasst die IT-Sicherheit und Informationssicherheit in Unternehmen. Die IT-Sicherheit beschäftigt sich in erster Linie mit dem Schutz der IT-Infrastruktur sowie den elektronisch gespeicherten Informationen, deren Verarbeitungswegen und der daran beteiligten Komponenten.

Maßnahmen zur Informationssicherheit betreffen nicht nur die IT-Infrastruktur und die IT-Abteilung, sondern berühren alle Unternehmensbereiche. Ausgehend von der Unternehmensführung über den Vertrieb, den Außendienst und Kundenservice sowie den Personalbereich sind alle Mitarbeitenden betroffen. In Unternehmen brauchen nicht nur IT-Systeme einen besonderen Schutz vor Angriffen. Schützenswert sind alle Daten und Informationswerte, wozu Unterlagen in digitaler Form ebenso dazugehören wie in Papierform. Im Bereich der Informationssicherheit ist die Akzeptanz der Maßnahmen durch Unternehmensleitung, Management und Mitarbeitende Voraussetzung für den Erfolg.

ISMS: Erfolgreiche Umsetzung der Planungsvorgaben in Unternehmen

Der vom Bundesamt für Sicherheit in der Informationstechnik (BSI) entwickelte sogenannte IT-Grundschutz ist ein Standard, um ISMS aufzubauen. Am Anfang stehen die Überlegungen, was das ISMS für das Unternehmen leisten soll. Dazu definiert die Unternehmensführung Anwendungsbereiche, Zielvorgaben und Grenzen des ISMS.

Assets und Risiken ermitteln

Welche Werte (Assets) wie beispielsweise Informationen, Software, Services und physische Vermögenswerte soll das ISMS schützen? Auch Hardware, Qualifikationen, Fähigkeiten und Erfahrungen von Mitarbeitenden sowie andere immaterielle Werte können in diese Überlegungen einbezogen werden. Am Ende sollte eine klare Vorstellung davon existieren, welche geschäftskritischen Assets existieren und in welcher Weise das Unternehmen davon abhängig ist.

Für jedes schützenswerte Asset sind die Risiken zu ermitteln und auf Basis der gesetzlichen Anforderungen einzuordnen. Am Schluss dieser Überlegungen sollte neben der Risikoeinschätzung auch eine mögliche Schadenshöhe durch Verlust oder Ausspähen von Daten beziffert sein.

Wirksamkeit prüfen, Audits nutzen

Die Risikobewertung erlaubt es, strukturelle, technische und organisatorische Maßnahmen zur Risikoverminderung zu definieren. Häufig ergeben sich in dieser Phase neue Aspekte, um strukturelle Anpassungen und Prozessoptimierungen vorzunehmen. Im zweiten Schritt lassen sich dann auch auf untergeordneten Ebenen Zuständigkeiten festlegen.

Diese Überprüfung ist ein ständig laufender Vorgang, der durch Audits zu unterstützten ist. Sobald sich daraus neue Aspekte und Risiken ergeben, ist der ISMS-Prozess erneut zu starten. Durch Kontrollmaßnahmen wie die ISMS-Risikoanalyse und einen Risikobehandlungsplan passt sich das ISMS immer und laufend den aktuellen Unternehmensbedingungen an.

 

So finden Sie das passende Konzept für den Aufbau eines ISMS

Der IT-Grundschutz nach Vorgaben des BSI ist die Basis und der erste Schritt zur Umsetzung. Doch es sind zusätzliche Standards und Orientierungshilfen notwendig, um alle technischen, organisatorischen und personellen Sicherheitsmaßnahmen implementieren zu können. Im Wesentlichen handelt es sich dabei um vier Vorgaben:

ISO 27001

Die meisten Anforderungen an ein ISMS sind im internationale Standard ISO 27001 definiert. Auch sämtliche ISO-Zertifizierungen basieren auf diesem Standard. Die ISO 27001 verfolgt einen eher strategischen Ansatz, um auf Prozessebene Vorgänge zu formulieren und zu beschreiben.

BSI 200-1

Dieser vom Bundesamt für Sicherheit in der Informationstechnik beschriebene Standard umfasst Maßnahmen, die zur Umsetzung eines ISMS notwendig sind. Er verfolgt anders als ISO 27001 nicht hauptsächlich den generischen Management-Ansatz, sondern liefert detailliertere Vorgehensweisen zur Minimierung von IT-Risiken.

ISIS 12

ISIS12 ist ein Compliance-Informationssicherheitsmanagementsystem, welches in 12 Schritten ein vollständiges Information-Security-Management-System (ISMS) beschreibt. Es enthält alle notwendigen Punkte zur Beschreibung des Systems, ein Handbuch zur Einführung und einen Maßnahmenkatalog. Entwickelt wurde ISIS 12 für den Einsatz in Kommunen sowie in kleinen und mittelständischen Unternehmen (KMU).

TISAX

TISAX ist ein Sonderfall und ein weiteres Modell zur Einführung eines ISMS. Als Prüf- und Austauschmechanismus nach dem branchenspezifischen Standard VDA-ISA geschaffen, hat es der Verband der Automobilindustrie veröffentlicht und zur Beschreibung von Information-Security-Management-Systemen genutzt. Es richtet sich speziell an Zulieferer vom Verband der Automobilindustrie. Im Vergleich zu anderen Standards legt es den Schwerpunkt auf den Schutz von Prototypen und Produktionsteilen.

Auf die individuelle Struktur kommt es an

Auch wenn es nicht an Beschreibungen und Praxisbeispielen für die erfolgreiche Umsetzung eines ISMS mangelt, so liegen die Probleme häufig im Detail und der individuellen Struktur von Unternehmen. Das angestrebte Sicherheitsniveau und der Schutzbedarf definieren letztendlich auch den Aufwand, den ein Unternehmen zur Gestaltung eines effektiven Information-Security-Management-System einplanen muss.

 

ISMS: Diese Schwachstellen und Bedrohungen sollten Sie kennen

Bestandteil des ISMS ist ein umfangreiches ISMS Risikomanagement zum Schutz der Unternehmens-IT. Ein Angriff auf die Informationssicherheit findet meist über drei unterschiedliche Wege und Bereiche eines Unternehmens statt:

  • Systeme und Netzwerke
  • Arbeitsumgebungen
  • Mitarbeitende

Systeme und Netzwerke

Systeme und Netzwerke sind die klassischen Wege, die Angreifer:innen nutzen, um die IT-Sicherheit eines Unternehmens zu kompromittieren.

Arbeitsumgebungen

Sicherheitslücken müssen nicht immer digital sein. Vom offen herumliegenden Aktenordner bis zum Papierkorb oder den nicht fachgerecht entsorgten Ausdrucken und Belegen: In Arbeitsumgebungen sind überall schützenswerte Informationen zu finden. Dem Thema Home-Office kommt dabei besondere Bedeutung zu: Hier greifen vielfach die im Unternehmen installierten Sicherheitsprozesse nicht. Das ist beispielsweise dann der Fall, wenn Ausdrucke im normalen Papiermüll landen und nicht wie im Büro beim Aktenvernichter.

Mitarbeitende

Das Ziel von Cyberkriminellen sind vornehmlich Mitarbeitende in Unternehmen. Das systematische Vorgehen zur Manipulation von Menschen ist auch als Social Engineering bekannt. Je mehr Wissen über einzelne Personen im Unternehmen vorhanden ist, desto gezielter und gefährlicher sind die möglichen, darauf abgestimmten Cyber-Angriffe. Auch auf Reisen gilt besondere Vorsicht: Das Ausspähen von Informationen während beruflicher Reisetätigkeit hat Konjunktur.

Ein ISMS verfolgt drei vorrangige Schutzziele in Unternehmen:

  1. Schutz der Verfügbarkeit: IT-Systeme, Anwendungen und elektronische Informationen stehen ohne Einschränkung zur Verfügung und im Zugriff.
  2. Schutz der Vertraulichkeit: Nur berechtigte Mitarbeitende haben Zugang zu Informationen.
  3. Schutz der Integrität: Alle Daten sind in einem vollständigen und einwandfreien Zustand.

Diese Schutzziele sind die Basis jedes Informationssicherheitsmanagements und sind definiert in der ISO 27001 aus der ISO 27000-Normenreihe sowie dem IT-Grundschutz des Bundesamtes für Sicherheit in der Informationstechnik.

 

Verantwortung im Unternehmen: ISMS-Beauftragte bestimmen

Um Informationssicherheit in allen Unternehmensbereichen gewährleisten zu können, sind klare Verantwortlichkeiten notwendig. Im ersten Schritt ist hier die oberste Leitungsebene im Unternehmen gefragt. Nach dem Top-Down-Ansatz von ISMS geht von dieser Ebene die Initiative aus, Sicherheitsziele und Rahmenbedingungen festzulegen und Leitlinien zur Informationssicherheit aufzustellen. Die operative Arbeit übernehmen dann nachgeschaltete Abteilungen und Expert:innen.

Der erste Schritt auf diesem Weg ist die Benennung eines oder einer Informationssicherheitsbeauftragten, der oder die als Ansprechpartner:in für sämtliche Fragen rund um die Informationssicherheit fungiert. Er oder sie ist die zentrale Kommunikationsstelle im ISMS-Prozess, der in enger Zusammenarbeit mit den IT-Verantwortlichen die konkrete Umsetzung von Planungsschritten koordiniert, vornimmt und überwacht.

 

ISMS: ISO 27001 – Das spricht für eine Zertifizierung

Die ISO 27001 ist im Gegensatz zu anderen Standards wie BSI 200-1, ISIS 12 und TISAX eine national wie international anerkannte Größe. Für Unternehmen bietet dieser Standard deutlich mehr Anerkennung bei internationalen Handelsbeziehungen als beispielsweise die Vorgaben des Bundesamtes für Sicherheit in der Informationstechnik im BSI-Grundschutz.

Auch von der Ausrichtung her ist die ISO-27001-Richtlinie dem BSI-Grundschutz überlegen. Die Vorgaben in der BSI-Empfehlung sind vielfach sehr formal und manchmal einengend. Die Richtlinien der ISO 27001 hingegen bieten mehr Freiräume, mit denen sich Maßnahmen einfacher an spezifische Risikolevel anpassen lassen. Dies ermöglicht eine breitere Anwendbarkeit und Offenheit für technologische Entwicklungen.

Mit der ISO 27001 können Unternehmen eine ganze Reihe von sicherheitsrelevanten Aspekten abdecken. Die wichtigsten davon sind:

  • Sicherheit im Zugriff garantiert, dass Informationen nur für berechtigte Personen zugänglich sind.
  • Verfügbarkeit von Informationen sorgt dafür, dass nur befugte Benutzer:innen Zugang zu Informationen haben.
  • Wirksamer Schutz aller Daten beinhaltet sowohl Einzelinformationen als auch Geschäftsprozesse.
  • Dokumentierte Sicherheit liefert den Nachweis, dass alle notwendigen Voraussetzungen zum Schutz vor Sicherheitslücken getroffen sind.
  • Etablierung eines Sicherheitsbewusstseins für Mitarbeitende eines Unternehmens durch laufende Schulungen und Unterweisungen schafft eine entsprechende Sensibilität.
  • Gewährung der Richtigkeit und Vollständigkeit von Informationen und Verarbeitungsmethoden vermeidet Missverständnisse und Unklarheiten.
  • Garantierter Sicherheitsnachweis für Kunden, Geschäftspartnern und Investoren sorgt für Vertrauen in Handelsbeziehungen.
  • Kontinuierliche Verbesserung der IT-Prozesse im Unternehmen durch permanente Prozesskontrollen und Bewertungen verhindert Stillstand und fördert die Wettbewerbsfähigkeit.
  • Kostensenkung und Imagegewinn durch Vermeidung von Sicherheitsvorfällen gegenüber Kunden und Partnern beziehungsweise in der Öffentlichkeit.

Ein auf das Unternehmen zugeschnittenes ISMS senkt somit IT-Risiken nachhaltig. Die Maßnahmenplanung verbessert außerdem die Wirtschaftlichkeit und führt dazu, dass alle relevanten Prozesse an die Entwicklung und das Wachstum eines Unternehmens angepasst werden.

Quelle:

https://www.vodafone.de/business/featured/digitales-business/digitale-geschaeftsprozesse/isms-information-security-management-systeme-einfach-erklaert/

Cloud-Backup: So sichern Sie Ihre Daten einfach und bequem in der Wolke

Immer ausreichend Speicher für die zu sichernden Daten und dabei deutlich kostengünstiger als lokale Speicherlösungen: Das Cloud-Backup bietet Ihnen viele Vorteile. Mit dem richtigen Backup-Konzept können Sie noch weitere Stärken der Datensicherung im Internet nutzen. Beispielsweise die quasi-unterbrechungsfreie Wiederherstellung nach einem Systemausfall.

Digitalisierung schafft nicht nur neue Geschäftsmodelle für viele Unternehmen. Sie hilft auch dabei, Effizienz und Wertschöpfung in etablierten Branchen zu steigern und Ressourcen zu schonen. So schätzt der Branchenverband Bitkom in einer Studie, dass allein die Digitalisierung ein Fünftel der heutigen CO2-Emissionen einsparen kann. Angesichts steigender Energiepreise und knapper werdender Energieträger lohnt der kritische Blick auf vorhandene Strukturen also gleich doppelt.

Wo Sie digitale Anwendungen sinnvoll miteinander verbinden, können Sie zusätzliche Vorteile und Synergien nutzen. Zum Beispiel mit einer Cloud, die sowohl Speicherort für Ihre Geschäftsdaten als auch Backup-Medium für ihre Datensicherung ist.

 

Daten online speichern: So funktioniert das Cloud-Backup

Der Begriff Cloud beschreibt IT-Ressourcen, die Sie auf eine andere Hardware auslagern. Dies können Speicherplatz oder auch Rechenleistung sein, ebenso wie Betriebssysteme und Programme (Software-as-a-Service). Diese Ressourcen befinden sich meist an einem entfernten Standort, etwa in einem Rechenzentrum. Üblicherweise können Sie solche Cloud-Speicher über das Internet nutzen und auch verwalten. Grundsätzlich können Sie eine Cloud aber auch an Ihrem eigenen Unternehmenssitz („on-premises“) einrichten.

Daten in der Cloud speichern

Die Sicherung von Daten in einer solchen Cloud bezeichnen Expert:innen als Cloud-Backup oder Online-Backup. Es bietet Ihnen viele Vorteile. So können Sie ein solches Backup heute mit den meisten Endgeräten und Betriebssystemen sehr einfach und ohne zusätzliche Hardware einrichten. Sie benötigen hierfür lediglich einen Internet-Zugang und einen Vertrag mit einem Cloud-Anbieter.

Das Backup in der Cloud können Sie außerdem leicht automatisieren und strukturieren. Die externe Speicherung Ihrer Daten verwahrt Ihre digitalen Werte auch bei größeren Schadensfällen am Unternehmensstandort sicher. So können Sie Ihre Systeme nach einem Stromausfall, einem Brand oder einem Wasserschaden am Firmensitz schneller wieder reaktivieren.

Dabei haben Sie die Wahl, ob Sie die Datensicherung und die Verwaltung Ihrer Backup-Daten an Ihren Cloud-Anbieter auslagern oder selbst organisieren. Sofern Sie diese Aufgaben extern vergeben, regelt Ihr Cloud Service Level Agreement (CSLA) Einzelheiten wie den genauen Datenstandort und die vom Anbieter garantierten Verfügbarkeitszeiten.

Fall Sie Ihre Cloud selbst administrieren, entscheiden Sie auch selbst, ob Sie die Verfügbarkeit und Sicherheit Ihrer Daten noch weiter erhöhen, indem Sie jedes Backup parallel auch in weiteren Rechenzentren an anderen Standorten sichern („spiegeln“). Damit erhalten Sie ein besonders hohes Schutzniveau selbst gegen größere Schadensereignisse, wie es Ihnen lokale Speicher am Unternehmensstandort nie bieten könnten.

Die meisten Cloud-Dienstleister bieten Ihnen zwei unterschiedliche Cloud-Bereitstellungsformen zur Auswahl an: In einer Private Cloud („privaten Datenwolke“) liegen ausschließlich die Backup-Daten Ihres eigenen Unternehmens auf einem exklusiv für Sie bereitgestellten Server-Netzwerk. Sie allein haben Zugang zu dieser Cloud. Dort können Sie je nach gewähltem Speicherplatz neben Ihren Backups auch noch andere Daten ablegen, beispielsweise Produktions- oder Kundendaten. Im Unterschied dazu ist die Public Cloud eine öffentliche Cloud: Hier greifen also mehrere Kunden („Klienten“) grundsätzlich auf dieselbe Cloud-Infrastruktur zu. Dabei schützt ein Passwort die Daten jedes einzelnen Anwenders gegenüber Dritten. Eine übergeordnete Cloud, die Public Cloud und Private zu einer gemeinsamen Cloud verbindet, ist die Hybrid Cloud.

 

Cloud-Speicher vs. Cloud-Backup: Wo liegt der Unterschied?

Viele verwechseln die Bezeichnungen Cloud-Speicher und Cloud-Backup oder setzen sie sogar gleich. Es handelt sich hierbei jedoch um zwei unterschiedliche Begriffe.

Cloud-Speicher beschreibt den physisch in einer Cloud vorhandenen Speicher. Diesen üblicherweise angemieteten Speicher können Sie für unterschiedliche Aufgaben nutzen. Beispielsweise als externen Aufbewahrungsort für große Datenmengen. Auch die eigentliche Rechenleistung und das Speichern von Daten Ihrer Arbeitsplatz-Computer oder Server können Sie innerhalb einer Cloud virtualisieren.

Sie haben dann am Unternehmensstandort nur noch sehr einfache und damit kostengünstige Endgeräte, die auf diesen Cloud-Speicher genau so zugreifen, als wäre es ein lokaler Speicher. Möchten Sie einen solchen Computer neu aufsetzen, löschen Sie einfach den zugehörigen Cloud-Speicher und initialisieren per Knopfdruck eine neue virtuelle Maschine.

Eine weitere Nutzungsform für Cloud-Speicher ist das Cloud-Backup. Hierbei sichern Sie alle Ihre Daten von Ihren Arbeitsplatz-Computern sowie von allen weiteren Speichern im Unternehmen in regelmäßigen Abständen in die Cloud.

Die einzelnen Nutzungsformen können Sie parallel im selben Cloud-Speicher betreiben. So liegen beispielsweise Ihre Backup-Daten neben virtuellem Speicher für Ihre Arbeitsplatz-Computer oder neben Ihren Big-Data-Beständen. Diese werten Sie möglicherweise direkt innerhalb der Cloud mittels künstlicher Intelligenz (KI) aus, um so neue Informationen für Ihr Unternehmen zu gewinnen oder neue Geschäftsmodelle zu entwickeln.

Über eine in der Regel webbasierte Oberfläche für das Cloud-Management verteilen Sie Cloud-Speicher und Rechenleistung auf die einzelnen Nutzungsarten oder überlassen es den Anwendungen selbst, die Ressourcen nach von Ihnen definierten Regeln untereinander aufzuteilen.

 

Den richtigen Cloud-Anbieter für das eigene Geschäftsmodell finden

Bei einem Cloud-Speicher-Vergleich können Sie die einzelnen nationalen und internationalen Anbieter von Business-Clouds und deren Produkte wie Google (Google Drive), Amazon (AWS), STRATO (HiDrive) und Microsoft (OneDrive und Azure) einander gegenüberstellen. So finden Sie einen Anbieter, der Ihre geschäftlichen Anforderungen abdeckt. Mit einer sogenannten Multi-Cloud können Sie optional auch die Cloud-Dienste mehrerer Anbieter kombinieren.

 

Synchronisation: Die Gefahr der automatisierten Cloud-Sicherung

Die Datensicherung gehört zu den klassischen Routine-Aufgaben in der IT. Daher wird sie üblicherweise per Software automatisiert. Hierfür gibt es entsprechende Backup-Programme, die die Daten aller Ihrer Endgeräte in vorbestimmten Intervallen in Ihre Cloud sichern. Um die bestmögliche Kombination aus Datensicherheit, Verfügbarkeit und Schutz gegen Schadprogramme zu erhalten, sollten Sie bei Ihrem Backup-Konzept die nachfolgenden Punkte berücksichtigen.

Kombination aus vollständigen und inkrementellen Backups

Den bestmöglichen Schutz gegen Datenverlust erreichen Sie durch kurze Backup-Intervalle und eine Kombination aus vollständigen und inkrementellen Backups. Bei einem inkrementellen Backup werden nur jene Daten gesichert, die sich seit der letzten Datensicherung verändert haben. Dadurch benötigt ein inkrementelles Backup weniger Zeit und weniger Speicherplatz als ein vollständiges Backup.

Beim Wiederherstellen eines inkrementellen Backups wird zuerst das letzte vollständige Backup zurückgespielt und darauf aufbauend dann alle inkrementellen Backups, bis der zuletzt gesicherte Zustand wieder erreicht ist. Die Kombination aus vollständigen und inkrementellen Backups beschleunigt also die laufende Datensicherung, benötigt dafür aber für die Wiederherstellung etwas mehr Zeit.

Schutz vor Schadprogrammen

Bei jedem Backup besteht die Gefahr, dass Sie auch sogenannte Malware, die sich bereits in Ihrem Unternehmensnetzwerk ausgebreitet hat, mit sichern. Im schlimmsten Fall handelt es sich hierbei um Ransomware, die alle Ihre Geschäftsdaten verschlüsselt und die Hacker:innen dann ein Lösegeld für deren Entschlüsselung fordern.

Haben Sie eine solche Ransomware im Backup mitgesichert, ist auch Ihr Backup infiziert. Daher ist es wichtig, dass Sie auch Ihr Cloud-Backup ständig auf Schadprogramme untersuchen und immer auch ältere Backup-Stände aus der Zeit vor dem Befall verwahren, die Sie notfalls wieder einspielen können.

Auch mit Funktionen der künstlichen Intelligenz können Sie Ihre Cloud-Backups zusätzlich während des Speicherns in der Cloud überwachen. Die KI schlägt dann Alarm, sobald eine Ransomware versucht, Ihre Daten zu verschlüsseln.

Diese und weitere Aufgaben des Malware-Schutzes und der Malware-Erkennung können Sie an Ihren Cloud-Dienstleister vergeben. Entsprechende Überlegungen sollten Teil Ihres Konzeptes für eine optimale Cloud-Security sein.

 

Warmstartfähigkeit per Hot Backup

Als Unternehmen sind Sie heute vielfach auf die permanente und unterbrechungsfreie Verfügbarkeit ihrer Daten und IT-Strukturen angewiesen. So müssen Produktionssysteme in der Industrie 4.0 durchgehend auf Auftrags- und Fertigungsdaten zugreifen können. Ihre Logistik muss zu jeder Zeit wissen, wo sich Vorprodukte oder bereits fertiggestellte Waren innerhalb Ihres Unternehmens befinden. Und Ihre Mitarbeiterinnen und Mitarbeiter benötigen laufend Zugriff auf aktuelle Informationen beispielsweise aus gemeinsam genutzten Datenbanken.

Mit einem sogenannten Hot Backup erstellen Sie ein komplettes Abbild aller gerade im Unternehmen bearbeiteten Daten. Diese Momentaufnahme speichert regelmäßig Ihre Backup-Cloud. Kommt es zu einem partiellen oder kompletten Systemausfall in Ihrem Unternehmen, können Sie dieses Hot Backup sofort nach dem erneuten Hochfahren der Systeme wieder einspielen, sodass Sie direkt ab diesem Punkt alle Geschäftsprozesse wieder aufnehmen können.

Kleinere Störungen und Ausfälle können Sie mit einem Hot Backup sogar so schnell beheben, dass diese von den Nutzenden nicht einmal bemerkt werden.

 

Die richtige Kombination verschiedener Backup-Philosophien

Passend zu Ihren jeweiligen Anforderungen und Sicherheitsstandards müssen Sie also die entsprechenden Backup-Formen und -philosophien so kombinieren, dass Ihr Cloud-Backup genau zu Ihrem Unternehmen passt und im Schadensfall die geringst möglichen Ausfallzeiten und Datenverluste entstehen – im Idealfall erfolgt das Zurückspielen von Cloud-Backups sogar ganz ohne Verluste und Ausfälle. Ihr Cloud-Dienstleister kann Ihnen dabei helfen, das passende Backup-Konzept für Ihre Firma zu finden.

Cloud-Sicherung vs. lokale Sicherung

In vielen Unternehmen hat die Cloud-Sicherung die lokale Sicherung weitgehend verdrängt oder sie auf bestimmte Einsatzgebiete beschränkt. Eine Datensicherung in der Cloud anstatt auf Festplatte ist für bestimmte Anwendungen sogar alleiniger Standard. Das hat zahlreiche Gründe:

Die Vorteile des Cloud-Backups

Folgende Vorteile bietet Ihnen das Cloud-Backup:

  • Daten sicher in der Cloud speichern: Mit der Online-Datensicherung per externem Cloud-Backup sichern Sie Ihre Daten außerhalb Ihres Unternehmens. Bei einem Schadensereignis am Unternehmensstandort, das ohnehin meist schon zu erheblichen Ausfällen führt, verlieren Sie also nicht zeitgleich auch noch Ihre wertvollen Geschäftsdaten. So verteilen Sie Risiken insgesamt besser und minimeren damit maximale Schadenshöhen. Dies verbessert auch Ihre Verhandlungsposition beim Abschluss einer Betriebsunterbrechungsversicherung.
  • Wenn Sie das Management Ihrer Backup-Cloud an Ihren Cloud-Dienstleister vergeben, entlasten Sie Ihr Unternehmen von geschäftsfremden Aufgaben und können sich besser auf Ihr eigentliches Geschäftsmodell konzentrieren. Ihr Dienstleister garantiert Ihnen die Verfügbarkeit Ihrer Daten gemäß dem vereinbarten Vertrag, minimiert Verlustrisiken durch das Verteilen auf mehrere Rechenzentren-Standorte und übernimmt optional auch den Schutz gegen Malware oder Hacker-Angriffe, indem er Einfallstore überwacht und schließt.
  • Bei einem externen Cloud-Backup sparen Sie die Kosten für Backup-Server am Unternehmensstandort. Sie benötigen kein eigenes Rechenzentrum und keine eigenen Server-Räume, die Sie betreiben, kühlen, gegen Sabotage sichern und vor möglichen sonstigen Schäden schützen müssen.
  • Ihr Cloud-Anbieter gewährleistet die Funktionsfähigkeit der genutzten Hardware. Er überwacht im laufenden Betrieb die Server, auf denen Ihr Cloud-Backup liegt. Innerhalb der Cloud kann er Inhalte störungsfrei verlagern, wenn er einzelne Festplatten oder Server-Racks warten oder am Ende ihrer Lebenszeit ersetzen muss.
  • Kosten für Ersatz-Hardware, die Sie bei einem lokalen Rechenzentrum am Unternehmensstandort vorhalten müssten, oder für regelmäßige Hardware-Tests – und Überwachung entfallen beim Cloud-Backup für Sie. Dies alles übernimmt der Cloud-Dienstleister für Sie beim Online-Backup für Firmen.
  • Durch die optimierte Verteilung von IT-Ressourcen auf viele Kunden kann Ihr Cloud-Dienstleister Backup-Speicher deutlich günstiger bereitstellen, als Sie dies selbst am Unternehmensstandort könnten.
  • Auf Ihr Cloud-Backup können Sie über das Internet und Ihren geschützten Zugang von jedem Ort zugreifen. Wenn Sie mehrere Unternehmensstandorte haben oder Ihre Mitarbeiterinnen und Mitarbeiter häufig von unterwegs oder aus dem Homeoffice auf Daten zugreifen, ist die Verfügbarkeit Ihrer Daten und Backups meist deutlich besser, als wenn diese zentral an einem einzigen Unternehmensstandort liegen.
  • Je komplexer und heterogener Ihr Firmen-Netzwerk ist, desto anfälliger ist es auch für Hacker-Attacken oder das unbeabsichtigte Einbringen von Schadsoftware. Durch die Nutzung externer Cloud-Backups reduzieren Sie diese Komplexität Ihres Netzwerkes und schließen so potenzielle Einfallstore. Ein sicheres internes Firmennetzwerk verzichtet daher auf IT-Strukturen, die Sie sinnvoll auslagern können.

 

Nachteile des Cloud-Backups

Das Cloud-Backup bringt auch einige Nachteile mit sich, die Sie vor Beauftragung beachten sollten:

  • Sie müssen sich am Anfang mit dem Thema befassen und den passenden Anbieter zu Ihren Anforderungen finden. Hierfür müssen Sie einmalig Arbeitszeit und Ressourcen aufwenden.
  • Der Wechsel zu einem anderen Cloud-Anbieter kann mit weiterem Aufwand verbunden sein, beispielsweise für das Übertragen Ihrer Backups aus der alten in die neue Cloud.
  • Je nach gewähltem Cloud-Modell haben Sie keinen Einfluss auf den Datenstandort, also auf das Land, in dem Ihre Daten abgelegt werden. Für Backups, die auch Kundendaten oder andere von der Datenschutzgrundverordnung behandelte schutzwürdige Daten enthalten, müssen Sie deshalb zwingend einen Cloud-Anbieter wählen, der Ihre Daten in Rechenzentren innerhalb der EU verwahrt.
  • Sie benötigen einen stabilen und schnellen Internet-Zugang, um regelmäßig Backups zu machen und diese bei Datenverlust auch wieder ebenso schnell zurückzuspielen. Besonders für ein störungsfreies Hot Back up sind die Anforderungen an Ihren Internetzugang hoch.

 

Vorteile der lokalen Datensicherung

In Einzelfällen kann die lokale Datensicherung nützlich oder sogar unverzichtbar sein. Sie bietet Ihnen folgende Vorteile:

  • Schnellstmögliche Sicherung von Daten im Edge-Bereich Ihres Unternehmens-Netzes, wo es keine optimale Anbindung an Ihre Backup-Cloud gibt.
  • Vollständige Datenhoheit über Ihre lokal gesicherten Daten. Bei der lokalen Datensicherung verlassen die gesicherten Daten zu keinem Zeitpunkt Ihren Unternehmensstandort.
  • Sie wählen in vollem Umfang die verwendeten Speichermedien, die Verschlüsselungsprotokolle und die verwendeten Testverfahren für Datenträger und Backup-Server selber aus. Sie haben damit die gesamte Hoheit über alle Schritte des Backups.

 

Nachteile der lokalen Datensicherung

Die lokale Datensicherung ist mit hohen Kosten und vergleichsweise hohem Aufwand für Sie verbunden. Entsprechend ergeben sich aus dem lokalen Backup einige Nachteile:

  • Lokale Backup-Medien können Sie in der Regel nur schlecht skalieren. Backup-Server haben eine maximale Medien-Größe, die sie verwalten können. In der Praxis sind die Systeme daher meist zu groß oder zu klein für die gerade aktuellen Backup-Anforderungen. Im schlimmsten Fall fallen einzelne Backups aus, weil Hardware-Ressourcen erst einmal manuell nachinstalliert werden müssen.
  • Das langfristige und zugleich regelmäßige Sichern von Daten stellt hohe Anforderungen an Hardware und Software. In Ihrem Unternehmen benötigen Sie Speichergeräte und -medien, die über viele Jahre fehlerfrei funktionieren oder zumindest repariert oder problemlos ausgetauscht werden können.
  • Bei Technologie-Wechseln müssen Sie frühere Backups und andere archivierte Daten umständlich auf die neuen Systeme umkopieren.
  • Viele ältere Backup-Medien wie Bandlaufwerke und CD-ROM werden heute kaum noch unterstützt, obwohl sie immer noch in einigen Unternehmen und Behörden für Backups oder zum Archivieren eingesetzt werden.
  • Mit der Zeit etablieren sich in Unternehmen unterschiedliche, inkompatible Standards und Plattformen für die jeweilige lokale Datensicherung. Dadurch können Backups nicht zwischen Geräten oder Abteilungen ausgetauscht werden und es müssen zahlreiche Technologien und Standards parallel gepflegt und betreut werden. Oft fehlt der IT-Abteilung dadurch auch die Übersicht, ob vorgeschriebene Backups unternehmensweit tatsächlich umgesetzt werden.
  • Viele ältere Backup-Medien sind nicht Hot-Backup-fähig. Das Zurückspielen von gesicherten Daten führt somit zu Systemausfällen und damit zu temporärem Stillstand in Ihrer Produktion und Ihren Abläufen.
  • Backup-Medien sind ein Sicherheitsrisiko. Backup-Datenträger wie Speicher-Sticks und CD-ROM können verloren gehen oder leicht aus dem Unternehmen entwendet werden.

 

3-2-1-Datensicherung: Was genau steckt hinter der hybriden Backup-Strategie?

Die Verbindung von Cloud-Backup und lokalem Backup bezeichnen Expert:innen auch als hybride Backup-Strategie. Für kleine Unternehmen empfehlen sie die sogenannte 3-2-1-Datensicherung, die eine besonders einfache Hybrid-Strategie beschreibt.

Die 3-2-1-Regel sieht vor, dass von allen Geschäftsdaten jeweils drei Kopien oder Arbeitsversionen vorliegen, die auf zwei unterschiedlichen Speichermedien abgelegt werden, von denen eines außerhalb des Unternehmensstandortes verwahrt wird.

Cloud-Backup: Ist dieses Modell immer das bevorzugte?

Inzwischen nutzen viele Unternehmen das Cloud-Backup als Standard. So wie digitale Geschäftsmodelle zunehmend analoge Modelle ersetzen, Kosten reduzieren und Ressourcen schonen, ersetzt auch das Cloud-Backup ältere manuelle Backup-Prozesse. Dennoch nutzen selbst große Firmen neben der Cloud auch weiterhin lokale Datensicherungen für bestimmte Anwendungszwecke. Ein unternehmensweites Backup-Konzept betrachtet hierbei folgende Punkte:

  • Welche Daten werden im Unternehmen lokal und welche Daten werden in der Backup-Cloud gesichert? Gibt es einzelne Daten, die aus verschiedenen Gründen nur in der Cloud oder nur lokal abgelegt werden sollen?
  • Welche Backup-Software und welche -Verfahren werden genutzt? Wird Hot-Backup-Fähigkeit benötigt?
  • Welche Testverfahren werden wie häufig eingesetzt, um die erstellten Backups oder die genutzte Hardware auszutesten?
  • Wird die Cloud für das Backup im Unternehmen selbst gehostet oder in einem externen Rechenzentrum eines Dienstleisters? Wer administriert und wartet die Cloud?
  • Welche Mindeststandards für die Datensicherheit werden mit dem Cloud-Dienstleister im Service Level Agreement vereinbart? Sollen die Daten an unterschiedlichen Rechenzentren-Standorten in verschiedenen Regionen oder Ländern gespiegelt werden? Welche Verfügbarkeitszeiten gelten für das Rechenzentrum? Welche Service-Zeitfenster gibt es dort beispielsweise für das Einspielen von Updates? Wohin werden in dieser Zeit fest terminierte Backups umgeleitet?
  • Wie werden die Cloud und lokale Backups gegen Sabotage, Hacking, Datendiebstahl und physische Angriffe geschützt?

Auch die beste Backup-Strategie sollten Sie regelmäßig überprüfen und fortschreiben. Technische Neuerungen müssen Sie dabei ebenso berücksichtigen wie veränderte Anforderungen seitens Ihrer Mitarbeitenden. So bedingt die zunehmende Verbreitung von mobilen und Homeoffice-Arbeitsplätzen entsprechende Backup-Strategien, die auch der Bandbreite privater Internetanschlüsse Rechnung tragen. Zu diesen und weiteren Fragen berät Sie Ihr Cloud-Anbieter, der Ihnen auch entsprechende Backup-Konzepte für Ihr Unternehmen liefern kann.

Cloud-Backup in der Übersicht

  • Beim Cloud-Backup sichern Sie Ihre Unternehmensdaten in einer virtualisierten Hardware-Umgebung. Klassische Backup-Systeme wie lokale Festplatten oder Bandlaufwerke entfallen hierbei.
  • Einen Cloud-Speicher können Sie lokal am Firmenstandort errichten, aber auch im externen Rechenzentrum eines Dienstleisters.
  • Für ein externes Cloud-Backup benötigen Sie eine entsprechende Internet-Verbindung für die regelmäßige Datensicherung oder das Wiedereinspielen Ihres Backups.
  • Ihr Cloud-Backup können Sie parallel mit anderen Cloud-Services innerhalb eines Cloud-Speichers virtualisieren.
  • Durch die physische Auslagerung Ihrer Daten in eine externe Backup-Cloud sichern Sie Ihre Firmendaten gegen Schadensereignisse am Unternehmensstandort.
  • Viele Unternehmen setzen auf eine hybride Backup-Strategie, bei der ein Großteil der Daten in einer Cloud gesichert wird und ein kleinerer Teil der Daten lokal am Unternehmenssitz.

Quelle:

https://www.vodafone.de/business/featured/digitales-business/digitale-geschaeftsprozesse/cloud-backup-so-sichern-sie-ihre-daten-einfach-und-bequem-in-der-wolke/