SIP: Alles Wichtige zum Session-Initiation-Protocol im Überblick

Die analoge Telefonie hat ebenso wie ISDN ausgedient. Immer mehr firmeneigene Telefonanlagen nutzen die Voice-over-IP-Technologie (VoIP). So kommunizieren ihre Mitarbeiter:innen über das Internet statt über herkömmliche Telefonleitungen. In diesem Zusammenhang spielen das Session-Initiation-Protocol (SIP) und die sogenannte SIP-Adresse eine wichtige Rolle.

Was eine SIP-Adresse ist, wie das zugehörige Protokoll für digitales Anrufmanagement funktioniert und welche Bedeutung dabei der Einsatz eines SIP-Servers und -Providers haben, lesen Sie im Folgenden.

 

SIP: Das steckt hinter dem Begriff

Das „Session Initiation Protocol“ ist ein Protokoll für den Auf- und Abbau sowie die Steuerung von Kommunikationsverbindungen zwischen zwei oder mehr Teilnehmer:innen. Das SI-Protokoll wird in der VoIP-Telefonie („Voice over IP“) eingesetzt.

SIP ist dabei jedoch lediglich für die Verbindung zuständig, nicht für die Sprachübertragung. Nach Aufbau der Verbindung durch das SI-Protokoll übernehmen sogenannte Transportprotokolle wie zum Beispiel das „Real-Time Transport Protocol“ (RTP) die Übertragung der Sprache.

Was ist eine SIP-Adresse?

Anders als die Rufnummer nebst Vorwahl eines Festnetzanschlusses oder eine Handynummer ist eine SIP-Adresse nicht an einen bestimmten physischen Telefonanschluss oder eine SIM-Karte gebunden. Die SIP-Adresse sieht vom Aufbau her ein wenig aus wie eine Kombination aus einer E-Mailadresse und einer Telefonnummer.

Die SIP-Adresse ist dabei stets nach demselben Schema aufgebaut. Nach dem Beginn der Adresse mit „sip“ oder „sips“ (für verschlüsselte Übertragungen) und einem Doppelpunkt folgt die Kennung des:r Nutzer:in. Diese kann aus Buchstaben und Zahlen bestehen. Hinter dem nun folgenden @-Zeichen steht die Domain des Hosts, also beispielsweise einer Firma oder eines VoIP-Anbieters.

In der Benutzerkennung (vor dem @-Zeichen) steht somit die konkrete Zieladresse der Anfrage, dahinter deren Zugehörigkeit zu einer bestimmten Umgebung und in Parametern und Headern hinter der SIP-Adresse (durch Semikolon getrennt) bei Bedarf zusätzliche Informationen. Ein Beispiel für eine SIP-Adresse sieht wie folgt aus:

 

sip:;user=phone;tag=3f567abc

 

Unter derselben SIP-Adresse ist (in der Regel) immer eine bestimmte Person für ein VoIP-Telefonat erreichbar. Manchmal wird die SIP-Adresse auch SIP-URI (URI steht hierbei für „Uniform Resource Identifier“) genannt. Es gibt also bei SIP-Adressen eine einheitliche Ressourcen-Kennung wie bei Internetadressen auch.

 

Was ist ein SIP-Server? Welche Rolle spielt er?

Beim Aufbau einer SIP-Verbindung heißt die anrufende Stelle aus technischer Sicht „User Agent Client“ (UAC) und die angerufene Stelle „User Agent Server“ (UAS). Natürlich könnten die beiden „Agents“, die miteinander sprechen wollen, auch direkt miteinander kommunizieren. Doch was ist, wenn ein:e Teilnehmer:in gerade nicht erreichbar ist oder von einer anderen IP als gewohnt anruft?

Um dieses Problem zu lösen, meldet sich ein User Agent stets an einem SIP-Server bzw. SIP-Proxy an, dem sogenannten Registrar. Der SIP-Server hält die IP-Adresse fest und ermittelt die IP-Adresse, auf der die angerufene Person zu erreichen ist. Wenn der SIP-Proxy die Information über die gesuchte Adresse gefunden hat, sendet er dem Ziel ein Signal, dass es klingeln soll.

Der SIP-Verbindungsaufbau mit SIP-Statuscodes

Nimmt jemand einen eingehenden Anruf beispielsweise durch das Abheben des Hörers entgegen, wird wiederum an den SIP-Server ein Signal gesendet, dass er die Verbindung aufbauen soll. Der oder die Anrufer:in erhält jetzt ebenfalls die Nachricht, dass der Anruf aufgebaut wird und sendet seinerseits eine Bestätigung an den SIP-Server. Ein Beispiel für einen solchen Verbindungsaufbau könnte wie folgt aussehen:

INVITE sip: SIP/2.0
VIA:SIP/2.0/UDP 192.168.0.1
Call-ID:
From:<sip:>
To: Kunde <>
Call-ID: 211e1fa170efka0b7da1bc0d @sip.vodafone.com
CSeq:1 INVITE

 

Der Code „INVITE“ steht somit für die Anforderung an einen SIP-Server, eine Verbindung (Sitzung) mit einem Client aufzubauen. Weitere wichtige Anfragecodes sind:

  • ACK: Bestätigung der empfangenen Anfrage oder der Antwort
  • BYE: Die Sitzung soll beendet werden
  • CANCEL: Abbruch der bestehenden Anfrage
  • OPTIONS: Die Anfrage soll ermitteln, welche Merkmale die Gegenstelle besitzt
  • REGISTER: Ein Gerät meldet sich beim VoIP-Anbieter an

 

Zusätzlich gibt es noch diese erweiterten SIP-Anfragecodes:

  • INFO: Übermittlung von Steuerinformationen
  • MESSAGE: Übermittlung von Textnachrichten
  • NOTIFY: Antwort auf SUBSCRIBE oder REFER
  • PRACK: Antwort auf einen 1xx-Statuscode (siehe unten)
  • PUBLISH: Nicht angefragte Übermittlung von Zuständen oder Ereignisinformationen
  • REFER: Verbindungsübergabe an einen anderen Teilnehmer
  • SUBSCRIBE: Überwachung eines Endgeräts hinsichtlich eines bestimmten Zustands
  • UPDATE: Parameterveränderung während des Rufaufbaus

Größere Telefonanlagen lassen sich via SIP-Trunk einbinden

Ein sogenannter SIP-Trunk dient dazu, größere Telefonanlagen mit vielen Teilnehmer:innen an das Internet anzuschließen. Der englische Begriff „Trunk“ bedeutet soviel wie Baumstamm oder Übertragungsweg. Es geht technisch gesehen beim SIP-Trunk um eine Bündelung von Telefonanschlüssen zu einer einzigen Leitung. Voraussetzung dafür ist jedoch eine SIP-kompatible Telefonanlage.

Im Gegensatz zu ISDN-Telefonanlagen haben SIP-Trunks den Vorteil, dass Sie die Anzahl der Sprachkanäle je nach Firmengröße flexibel buchen können. Voraussetzung ist jedoch ein zuverlässiger Internetanschluss mit einer möglichst hohen Bandbreite.

 

SIP-Statuscodes: Diese sollten Sie kennen

Normalerweise laufen SIP-Verbindungen sowohl bei deren Aufbau als auch im Betrieb reibungslos, so wie gewünscht und ohne weiteres Zutun de:r Anwender:ins. Ähnlich wie bei der Übertragung von HTML-Seiten im Internet gibt es aber auch beim SI-Protokoll Statuscodes, mit deren Hilfe SIP-Server und Clients Informationen austauschen (siehe Abbildung oben). Einige davon listen wir Ihnen hier auf:

1xx-Codes: Anrufvorbereitung und -herstellung (Provisional)

Bei den 1xx-Codes geht es um den Verbindungsaufbau. Die Codes repräsentieren den jeweiligen Zustand der noch nicht hergestellten Verbindung. Beispiele sind:

  • 180: „Ringing”: Das Telefon der angerufenen Person klingelt.
  • 181: „Call forwarded”: Der Anruf wird weitergeleitet.
  • 199: „Early termination”: Der Anruf wurde während des Aufbaus beendet.

2xx-Codes: Erfolgsmeldungen (Successful)

Meldet der Client beim Server einen Anruf an, baut dieser die Verbindung auf und spielt den Code 200 „OK“ zurück. Weitere Codes betreffen erfolgreiche Rufaufbauten für spätere Zeitpunkte (Code 202) oder solche, bei denen keine Antwort gesendet werden soll (Code 204).

3xx-Codes: Anrufweiterleitung (Redirection)

Es kann vorkommen, dass die angerufene Person nicht an der Gegenstelle zu erreichen ist, an der dies vermutet wurde. Hierzu liefern die 3xx-Codes weiterführende Informationen, ohne dass der Verbindungsaufbau abgebrochen werden muss:

  • 301: Permanent redirect: Die angerufene Person ist dauerhaft an einer anderen Adresse erreichbar.
  • 302: Temporary redirect: Die angerufene Person ist vorübergehend an einer anderen Adresse erreichbar.
  • 305: Use proxy: Es ist der angegebene Proxy zu verwenden.

4xx-Codes: Fehlermeldungen (Request Failures)

Schlägt der Verbindungsaufbau fehl, kann dies verschiedene Ursachen haben. Einige davon sind:

  • 403: Forbidden: Die Anfrage ist unzulässig.
  • 404: Not found: Die Gegenstelle existiert nicht.
  • 482: Loop detected: Es wurde eine Weiterleitungsschleife festgestellt.

Eine Weiterleitungsschleife tritt beispielsweise dann auf, wenn mehrere Rufumleitungen existieren, die am Ende wieder zur Ursprungsadresse führen. In diesem Fall kann keine Verbindung hergestellt werden.

5xx-Codes: Serverfehler (Server Failures)

Es kann vorkommen, dass der SIP-Server nicht funktioniert oder nicht korrekt konfiguriert ist. Außerdem ist es möglich, dass die gestellte Anfrage nicht zu den Möglichkeiten des angefragten Servers passt. Beispiele hierfür sind:

  • 500: Internal Server Error: Es gibt einen internen Serverfehler.
  • 502: Bad Gateway: Das Gateway für diese SIP-Anfrage funktioniert nicht (korrekt).
  • 505: Version not supported: Der Server unterstützt die SIP-Version nicht.

6xx-Codes: Allgemeine Fehler (General Failures)

Auch hier kommt die Verbindung nicht zustande. Hier sind aber nicht serverseitige Fehler oder inkompatible Protokolle die Ursache, sondern praktische Gründe:

  • 600: Busy: Die Endgeräte der angerufenen Person sind alle belegt.
  • 603: Declined: Der Anruf wurde abgelehnt.
  • 607: Unwanted: Die angerufene Person möchte von dieser Startadresse aus keine Anrufe mehr erhalten.

7xx-Codes: Fehlercodes des SIP-Stacks

Bei den 7xx-Fehlercodes aus dem SIP-Protokollstapel handelt es sich um Fehler, die die angerufene Stelle während eines bestehenden Anrufs auslöst. Der wohl bedeutsamste Fehlercode ist hier 701: „Party hangs up: Die angerufene Person hat aufgelegt.” Weitere Fehlercodes betreffen Anschlussfehler (beispielsweise ein gezogenes Anschlusskabel, 702) oder den Abbruch eines Anrufs aufgrund von Zeitüberschreitung (703)).

Einen SIP-Account einrichten: So gehen Sie vor

Um SIP nutzen zu können, benötigen Sie einen SIP-Account, auch SIP-Konto genannt. Dabei handelt es sich um eine weltweit eindeutige Benutzerkennung für die Verwendung mit dem SI-Protokoll. Der SIP-Account ähnelt dabei den Zugangsdaten für ein E-Mail-Konto und kann wie folgt aussehen:

SIP-Benutzername: 987654
SIP-Passwort: ***
SIP-Proxy-Server: sip.kabelfon.vodafone.de
SIP-Registrar: sip.kabelfon.vodafone.de
SIP-Port: 5060

 

Wie erhalte ich eine SIP-Adresse?

Businesskunden ohne eigene Tk-Anlage (PBX) und mit nur einer oder wenigen Rufnummern erhalten ihre SIP-Zugangsdaten entweder vorkonfiguriert in ihrem Internet-Router oder schriftlich mit der Auftragsbestätigung. Sofern Sie weitere SIP-Adressen benötigen, wenden Sie sich als Vodafone-Business-Kund:in am besten an unsere Geschäftskunden-Hotline unter 0800 – 172 1234.

Sofern Sie einen Business-VoIP-Anschluss über Vodafone gebucht haben, erhalten Sie mit der Anmeldung eine Reihe von Informationen für die Konfiguration Ihrer Tk-Anlage. Hierzu zählen

  • der zugeteilte Rufnummernblock
  • Ihre SIP-Zugangsdaten
  • der für Sie zuständige Session Border Controller (SBC)* als vollständiger Hostname
  • die öffentliche User-Identität („PPI“) als sogenannter SIP-Header
  • die Domain, unter der SIP-Adressen registriert werden können
  • das zu verwendende Transportprotokoll und Port

*Der SBC steuert die Verbindung zwischen unterschiedlichen Netzen und den Verbindungsauf- und -abbau von Telefonaten.

Als Anwender:in im Unternehmen wenden Sie sich einfach an Ihre:n hausinterne:n Administrator:in, um einen SIP-Account zu erhalten. Diesen geben Sie dann, falls notwendig, in Ihr SIP-Telefon oder Ihr Softphone ein.

Als Administrator:in stellen Sie benötigte Rufnummern bzw. SIP-Adressen ganz einfach im Webinterface Ihrer Tk-Anlage selbst bereit. Weitere Informationen zu diesem Thema finden Sie auch in unserer Dokumentation der Schnittstellenbeschreibung Business VoIP.

 

So bestimmen Sie Ihre vorhandene SIP-Adresse

Jeder eindeutige Telefonanschluss hat auch eine weltweit eindeutige SIP-Adresse. Wenn Sie nicht wissen, wie Ihre SIP-Adresse lautet, haben Sie mehrere Möglichkeiten:

  • Entweder hat Ihr Anbieter Ihnen Ihre SIP-Adresse mit der Registrierung für Ihren Business-Internetanschluss schriftlich mitgeteilt, oder
  • Sie finden die SIP-Adresse
    • im Webportal Ihres Anbieters,
    • in den Einstellungen Ihrer Tk-Anlage,
    • im Menü Ihres SIP-Telefons,
    • in den Einstellungen Ihres Softphones oder
  • Sie fragen Ihre:n Administrator:in, der/die eine Liste über die vorhandenen SIP-Adressen im Unternehmen pflegt.

SIP-Server für die FRITZ!Box: Das sollten Sie wissen

Die bekannte und beliebte FRITZ!Box des Herstellers AVM bietet bei einigen Modellen die Möglichkeit, einen SIP-Trunk für die Verwendung als Telefonanlage zu konfigurieren. Hierzu müssen jedoch einige Voraussetzungen erfüllt sein:

  • Nur die FRITZ!Box-Modelle 7590, 7560, 7530, 7490, 6591, 6590 und 6490 unterstützen diese Funktion von Haus aus.
  • Ihre FRITZ!Box hat die Versionsnummer 7.10 des Betriebssystems FRITZ!OS oder höher. Ist dies nicht der Fall, führen Sie zunächst ein Firmware-Upgrade durch (dies ist ohnehin empfehlenswert).
  • Ihr Telefonanschluss ist durchwahlfähig (SIP-Trunk), ähnlich dem früheren S0-Anlagenanschluss.

Sind diese Bedingungen erfüllt, können Sie mit Ihren SIP-Konto-Zugangsdaten wie oben beschrieben aus der FRITZ!Box eine einfache VoIP-Telefonanlage machen.

Die Anzahl der gleichzeitig nutzbaren SIP-Kanäle ist jedoch bei älteren FRITZ!Box-Geräten auf fünf, bei neueren auf acht begrenzt. Außerdem verwendet (blockiert) die FRITZ!Box pro SIP-Telefon bei einem Gespräch zwei Kanäle, was in der Praxis die Anzahl möglicher gleichzeitiger Gespräche einschränkt.

Nicht nur als größeres Unternehmen, sondern bereits ab etwa fünf Mitarbeiter:innen sind Sie mit einer „echten“ Cloud-Telefonanlage normalerweise besser bedient. Sie ist nicht nur komfortabler zu warten, sondern auch schneller eingerichtet und zuverlässiger beispielsweise gegen Stromausfälle geschützt.

SIP-Anrufe unter Android tätigen: So gehen Sie vor

Da die meisten aktuellen Tarifverträge über eine Telefon-Flatrate verfügen, ist die Möglichkeit der VoIP-Telefonie auf den meisten Smartphones eher ein Nischenthema. Seit  Android 10 funktionieren SIP-Anrufe auf dem Handy zudem nur mit Drittanbieter-Apps. Wenn Sie also in Ihrer Telefon-App unter „Einstellungen | Anrufeinstellungen” (Samsung) keine entsprechende Option für die Einrichtung von SIP/VoIP sehen, ist diese Funktion auf Ihrem Gerät nicht ohne weiteres möglich.

Trotzdem können Sie VoIP-Telefonate via Android führen, indem Sie beispielsweise eine der folgenden Apps installieren (es gibt weitere):

  • Sipdroid
  • Linphone
  • Zoiper

Laden Sie sich eine der entsprechenden Apps herunter, können Sie die SIP-Zugangsdaten Ihres SIP-Kontos eingeben und hierüber telefonieren. Voraussetzung ist allerdings eine ausreichend schnelle sowie stabile WLAN-Verbindung. Außerdem sollten Sie bedenken, dass der Empfang von Anrufen über VoIP mit einer stärkeren Akkubelastung verbunden sein kann. Ab Android 10 müssen Sie zudem die Signalisierung eingehender Anrufe über VoIP explizit in den Systemeinstellungen erlauben.

 

SIP-Anrufe auf dem iPhone: So geht‘s

Auch auf einem iPhone können Sie SIP-Anrufe empfangen und tätigen. Hier ist jedoch ebenfalls eine Drittanbieter-App erforderlich. Teils sind diese kostenpflichtig. Beispiele hierfür sind:

  • Zoiper
  • Acrobits Groundwire
  • Linphone

Einige dieser Apps unterstützen eingehende Anrufe, andere nicht bzw. verlangen hierfür eine monatliche Gebühr. Wie bei Android gilt auch hier: Einmal installiert, können Sie in der App Ihre VoIP-Zugangsdaten eingeben und hierüber telefonieren – mit den genannten Einschränkungen. Auch mit iOS belastet die Möglichkeit, eingehende Anrufe über VoIP zu empfangen, den Geräteakku nicht unerheblich.

SRTP und das SIP Secure Protocol (SIPS): Mehr Datensicherheit im SIP-Umfeld

Die meisten Telefongespräche sind vertraulich und sollten auf keinen Fall abgehört werden können. Insgesamt ist es empfehlenswert, jegliche unternehmerischen Telefonate auf verschlüsselte Art zu führen. Das begrenzt das Risiko sogenannter Man-in-the-middle-Attacken von Kriminellen. Außerdem verhindert es beispielsweise, dass sich Kolleg:innen oder Externe einfach „in die Leitung schalten” und vertrauliche Informationen mithören.

Wie oben erwähnt, dient das SI-Protokoll lediglich dazu, die Verbindung zwischen zwei (oder mehr) Gesprächsteilnehmer:innen herzustellen. Die eigentliche Übertragung erfolgt über das Realtime Transport Protocol (RTP). Zu beiden Protokollen gibt es „sichere“ Varianten, nämlich „SIP Secure Protocol“ (SIPS) und Secure Realtime Transport Protocol (SRTP). Diese werden bei verschlüsselten Telefonaten in Kombination verwendet. Sie sorgen dafür, dass sowohl das Telefonat selbst sicher aufgebaut wird, als auch die Sprachdaten auf verschlüsselte und somit (grundsätzlich) abhörsichere Weise übertragen werden.

Voraussetzung für derart verschlüsselte Gespräche sind allerdings mehrere Faktoren:

  • Die zugehörige Tk-Anlage muss sowohl SIPS als auch SRTP unterstützen.
  • In der Tk-Anlage müssen zusammenpassende Schlüssel und Zertifikate erzeugt und gespeichert oder via USB eingespielt worden sein. Sie benötigen sowohl ein gültiges Stamm- als auch ein Anlagenzertifikat und dazu den privaten Schlüssel des Anlagenzertifikats.
  • Die verwendeten VoIP-Telefone müssen SIPS und SRTP unterstützen und die Funktion muss aktiviert sein.

Bauen nun die beteiligten Stellen (Endgeräte, beteiligte Server) eine SIPS-Verbindung auf, so verschlüsselt SIP den sogenannten Verbindungs-Handshake mithilfe von Transport Layer Security (TLS). Dies ist allerdings mit leichten Verzögerungen gegenüber einer unverschlüsselten Vorgehensweise verbunden. Grund hierfür ist, dass TLS über das Transport Control Protocol (TPS) abgebildet wird, also ein Drei-Wege-Handshake. Deshalb müssen erweiterte Steuerungsdaten hin und her geschickt werden.

Alternativ lässt sich die gesamte VoIP-Verbindung auch in eine ohnehin verschlüsselte VPN- oder IPSec-Umgebung übertragen. Diese ist insgesamt nicht abhörbar, und somit finden auch Telefongespräche sozusagen automatisch auf abhörsichere Weise statt. Hier unterscheiden Fachleute zwischen „Transport Mode“- und „Tunnel Mode“-Verschlüsselung – je nachdem, ob die Verschlüsselung nur Endgeräte und Systeme (Transport Mode) oder ganze Standorte betrifft (Tunnel Mode).

Sofern in Ihrem Unternehmen also nur gelegentlich verschlüsselt telefoniert werden soll und die Frage, wer mit wem spricht, nicht zwingend geheim zu halten ist, kann eine fallbasierte Verschlüsselung auf Basis von SRTP mit und ohne SIPS das Mittel der Wahl sein. In insgesamt vertraulichen Umgebungen sollten Sie ohnehin auf verschlüsselte Standorte (mit oder ohne notwendige Vernetzung) setzen und dabei auch das Thema Telefonie mit abdecken.

Das Wichtigste zum Thema SIP in Kürze

  • Das Session Initiation Protocol (SIP) dient zum Verbindungsaufbau zwischen verschiedenen Kommunikationsgeräten im Internet mit dem Ziel einer Sprachverbindung.
  • Die Übertragung der Daten erfolgt anschließend üblicherweise über das Realtime Transport Protocol (RTP) bzw. deren sichere Variante Secure Realtime Transport Protocol (SRTP).
  • Ein anderer Begriff für SIP-Telefonie ist VoIP (Voice-over-IP).
  • Ein sogenannter SIP-Server stellt die nötigen SIP-Konten bereit und koordiniert wie früher eine Telefonanlage die Gespräche und deren Merkmale.
  • Mithilfe der Protokollvarianten SIP Secure (SIPS) und SRTP lassen sich einzelne Telefonate verschlüsseln, sofern nicht ohnehin die gesamte Standortkommunikation entsprechend gesichert ist.

 Quelle:

https://www.vodafone.de/business/featured/technologie/was-ist-eine-sip-adresse-das-si-protokoll-einfach-erklaert/

 

E-Mail-Verschlüsselung einfach erklärt

Rund 300 Milliarden E-Mails werden weltweit pro Tag versendet. Was viele Nutzer:innen nicht wissen: E-Mails funktionieren auf ihrem Weg durch das Internet ähnlich wie gewöhnliche Postkarten, die jeder entlang des Transportweges in die Hand nehmen und mitlesen kann. Doch es gibt Möglichkeiten, den elektronischen Schriftverkehr zu verschlüsseln und so sicherer zu machen.

Als Ray Tomlinson 1971 die erste E-Mail der Welt verschickte, war digitaler Datenschutz in Computernetzen noch kein großes Thema. Der Internetvorläufer Arpanet bestand lediglich aus ein paar Dutzend Servern, deren Betreiber:innen sich fast alle persönlich kannten und ihre Daten voreinander nicht verschlüsselten. Wichtig war beim damaligen Stand der Technik vor allem der schnelle und zuverlässige Transport der E-Mails.

Daher wurden alle Mail-Inhalte noch im Klartext übertragen und jede Zwischenstation auf dem Weg vom Start zum Ziel hatte vollständigen Lesezugriff auf die weitergeleiteten Inhalte. An jeder Zwischenstation konnten Menschen sitzen, die die E-Mail in Klartext lesen konnten. Das Arpanet basierte auf Vertrauen.

Inzwischen verwenden die meisten E-Mail-Dienstleister zumindest auf einem Teil des Transportweges eine sogenannte Transportverschlüsselung. Voraussetzung dafür ist allerdings, dass auch die Gegenseite diese unterstützt, also der E-Mail-Dienstleister auf Empfängerseite. Ein perfekter Schutz gegen das Mitlesen ist allerdings auch diese Transportverschlüsselung nicht.

Daher warnt das Bundesamt für Sicherheit in der Informationstechnik, dass auf dem Weg durch das Internet jede E-Mail „potenziell mitgelesen werden“ kann. Doch dagegen können Sie sich schützen.

 

Was ist E-Mail-Verschlüsselung und wie funktioniert sie?

Der Begriff E-Mail-Verschlüsselung fasst verschiedene Verfahren zusammen, um E-Mails im Internet oder in vergleichbaren IP-Netzen sicher und vertraulich zu übertragen. Im Einzelnen soll Verschlüsselung im Geschäftsverkehr und damit auch in Ihrem Unternehmen drei Funktionen erfüllen:

  • Vertraulichkeit: Nur die jeweiligen Empfänger:innen sollen alle in E-Mails gespeicherten Informationen im Klartext lesen können.
  • Authentizität: Versender:innen und Empfänger:innen müssen sich gegenseitig eindeutig identifizieren können.
  • Integrität: Die Verschlüsselung muss gewährleisten, dass E-Mail-Inhalte auf dem Transportweg nicht von Dritten verfälscht werden können.

 

Drei Anwendungsfälle für Verschlüsselung

Für jedes der drei genannten Ziele gibt es im E-Mail-Verkehr unterschiedliche Verschlüsselungsverfahren und –protokolle:

Eine vollständige Ende-zu-Ende-Verschlüsselung gewährleistet im besten Fall Vertraulichkeit. Ende-zu-Ende bedeutet, dass die Verschlüsselung bereits auf dem Endgerät beginnt, auf dem eine E-Mail geschrieben wird. Erst das Endgerät auf der Empfängerseite dekodiert die verschlüsselten Inhalte mit einem entsprechenden digitalen Schlüssel. Wird eine E-Mail nur auf einem Teil des Übertragungsweges verschlüsselt, handelt es sich hingegen um eine Punkt-zu-Punkt-Verschlüsselung.

Die Echtheit einer E-Mail, also die Authentizität von Versender:in und Empfänger:in bestätigen Sie sich gegenseitig über eine Kombination aus öffentlichen und vertraulichen Datenschlüsseln. Hierfür erzeugen Sie im Internet entsprechende persönliche Datenschlüssel. Diese sind wie ein Personalausweis oder ein Fingerabdruck individuell und fälschungssicher. Mit ihnen können Sie sich gegenüber anderen digital eindeutig ausweisen. Wie dies funktioniert, lesen Sie im weiteren Verlauf des Artikels.

Schutz gegen das Verfälschen Ihrer E-Mails erhalten Sie, indem Sie Ihre Nachrichten mit einer Prüfsumme versehen, dem sogenannten Hash-Wert. Ein solcher Hash errechnet sich automatisch aus allen Zeichen Ihrer Nachricht und passt nur zu der jeweiligen E-Mail mit der jeweiligen Zeichenfolge. Die Empfängerseite gleicht Nachrichtentext und Hash ab.

Der genaue Kodierungsschlüssel, um die Prüfsumme aus dem Text zu errechnen, ist nur auf Versender- und Empfängerseite bekannt. Passt der Hash im Ziel nicht zum Text, ist die E-Mail auf dem Transportweg offensichtlich verfälscht worden. Je nach verwendeter Verschlüsselungssoftware erhalten Sie dann eine Warnung oder der Entschlüsselungsvorgang bricht einfach ab.

Jede sichere Inhaltsverschlüsselung ist grundsätzlich auch ein wirksamer Schutz gegen das heimliche Verfälschen Ihrer E-Mails auf dem Transportweg, etwa durch eine Man-in-the-Middle-Attacke. Denn ohne Kenntnis der von Ihnen gewählten Verschlüsselung und Ihres Schlüssels können Angreifer:innen auch keine gefälschten Inhalte in Ihre E-Mails einbauen oder Informationen verändern.

Spätestens beim Entschlüsseln am Zielort würde auffallen, dass die eingebauten Absätze sich nicht mit dem echten Schlüssel in sinnvolle Inhalte zurückverwandeln lassen. Bei den meisten Kodierungsverfahren gäbe es sogar eine Fehlermeldung, weil auch die originale Textlänge und weitere Prüfparameter den Hash-Wert beeinflussen und dieser somit nicht mehr zu der veränderten E-Mail passt.

 

Symmetrische und asymmetrische Verschlüsselung

Beim Verschlüsseln unterscheiden wir grundsätzlich zwischen zwei Arten von Verschlüsselung. Bei der symmetrischen Verschlüsselung arbeiten beide Seiten, also Versender:in und Empfänger:in, mit demselben geheimen Zahlenschlüssel, den sie üblicherweise zuvor auf einem sicheren Weg miteinander ausgetauscht haben, beispielsweise per Brief oder USB-Stick. Dies ist das Secret-Key-Prinzip.

Bei der asymmetrischen Verschlüsselung hingegen nutzen Sie für das Ver- und Entschlüsseln zwei unterschiedliche Schlüssel. Diese erstellen Sie zuvor als zusammenhängendes Schlüsselpaar. Inhalte, die Sie mit einem der beiden Schlüssel verschlüsseln, können nur mit dem anderen Schlüssel wieder entschlüsselt werden. Die beiden Schlüssel sind auch nicht aus dem jeweils anderen Schlüssel zu errechnen.

In einem nächsten Schritt veröffentlichen Sie einen der beiden Schlüssel als sogenannten public key (öffentlicher Schlüssel) im Internet unter Ihrem eigenen Namen. Den zugehörigen private key (vertraulicher Schlüssel) legen Sie sicher auf Ihrem eigenen Computer ab.

Danach können Internet-Nutzer:innen sich Ihren public key aus dem Internet herunterladen, um damit Inhalte zu verschlüsseln, die anschließend nur von Ihnen allein als Besitzer:in Ihres private key wieder dekodiert werden können. Andere Empfänger:innen oder auch Hacker:innen, die Ihre Mails unterwegs abfangen, würden eine für Sie bestimmte Mail also nicht entschlüsseln können.

Umgekehrt können Sie Ihren private key nutzen, um verschlüsselte Inhalte zu erzeugen. Diese können dann nur mit Ihrem öffentlichen Schlüssel wieder entschlüsselt werden. Das asymmetrische Verschlüsselungsverfahren können Sie also auch zur Authentifizierung nutzen.

Alle Empfänger:innen der von Ihnen mit Ihrem private key verschlüsselten E-Mails wissen sicher, dass diese nur von Ihnen stammen können. Allerdings ist dieses asymmetrische Verschlüsselungsverfahren technisch sehr aufwändig, weswegen Sie es schlecht zum Verschlüsseln größere Datenmengen nutzen können.

Daher gibt es auch noch hybride Verschlüsselungsverfahren als Kombination aus beidem. Diese verschlüsseln beispielsweise Ihre Anmeldung asymmetrisch und kodieren Ihren eigentlichen Datenverkehr symmetrisch.

Verschlüsselung der Verbindung mittels SSL/TLS

„Transport Layer Security” (TLS) ist ein sehr verbreitetes hybrides Verschlüsselungsverfahren im Internet. Der Name steht übersetzt für „Transportschichtabsicherung“. TLS verschlüsselt Ihre Daten auf der sogenannten Internet-Transportebene unterhalb der eigentlichen Anwendungsebene mit E-Mailprogramm oder Browser.

TLS ist der Nachfolger des ebenfalls symmetrischen Verschlüsselungsverfahrens „Secure Socket Layer“, kurz SSL. Daher hieß es anfangs auch SSL 3.1. Übersetzt bedeutet Secure Socket Layer so viel wie „Sichere Verbindungsschicht“.

Obwohl SSL aufgrund einiger Sicherheitslücken heute kaum noch verwendet wird, ist der Name immer noch sehr bekannt. Daher nutzen viele Dienstleister im Internet weiterhin die Begriffe SSL oder SSL/TLS. Tatsächlich verwenden sie aber zum Verschlüsseln meist TLS.

Mit TLS bauen Sie eine sichere Datenverbindungen in vier Schritten auf. Der eigentliche Ablauf ist in der Regel automatisiert. Die einzelnen Schritte übernimmt Ihr E-Mailprogramm für Sie:

  • Im ersten Schritt kontaktiert Ihre Anwendungssoftware, beispielsweise Ihr Browser oder E-Mailprogramm, den gewünschten Server im Internet. Als Antwort erhält Ihr Computer von diesem Server ein sogenanntes öffentliches TLS/SSL-Zertifikat, dass die Echtheit des Servers bestätigt.
  • Im zweiten Schritt überprüft Ihr Computer die Echtheit des Zertifikates. Jedes Zertifikat hat eine begrenzte Gültigkeit – eine vertrauenswürdige Zertifizierungsstelle hat es zuvor für genau diesen Anbieter ausgestellt. Somit können Sie sicher sein, dass Sie tatsächlich mit der richtigen, zertifizierten Gegenseite kommunizieren.
  • Das Zertifikat enthält den öffentlichen Schlüssel des Internet-Servers. Ihr Computer bildet nun im dritten Schritt eine Zufallszahl und verschlüsselt diese mit dem öffentlichen Schlüssel. Dann versendet er die verschlüsselte Zufallszahl an den Server im Internet. Nur dieser Server kann die Zufallszahl mit seinem zugehörigen private key wieder entschlüsseln, sodass nun beide Seiten die Zufallszahl kennen.
  • Als letztes erstellt der Server im Internet mithilfe dieser Zufallszahl einen sogenannten Sitzungsschlüssel, den er wiederum verschlüsselt an Ihren Computer zurücksendet. Somit haben nun beide Seiten auch den Sitzungsschlüssel vorliegen. Mit diesem Sitzungsschlüssel wird die eigentliche Kommunikation symmetrisch kodiert.

 

Das TLS-Verfahren nutzt somit eine asymmetrische Verschlüsselung für den Verbindungsaufbau, während der symmetrisch verwendete Sitzungsschlüssel die eigentliche Kommunikation  absichert.

Beenden Sie die Sitzung, wird auch der Sitzungsschlüssel ungültig. Melden Sie sich das nächste Mal wieder an diesem Server an, müssen Sie also erst wieder gemeinsam einen neuen Schlüssel aushandeln. In der Regel macht Ihre Software auch dies automatisch, sofern Sie das in Ihren Programmen so eingestellt haben.

Eine erfolgreich aufgebaute sichere Verbindung erkennen Sie meist an einem Schloss- oder Schlüsselsymbol im Browser. Bei vielen E-Mailprogrammen können Sie die sichere Kommunikation als Verbindungsstandard in den Einstellungen vorgeben. Dafür wählen Sie beispielsweise für das Herauf- und Herunterladen von E-Mails die Verschlüsselung per „TLS/SSL“ aus. Ohne eine solche durchgehende Verschlüsselung ist die Datensicherheit in Ihrem geschäftlichen E-Mailverkehr nicht gewährleistet.

Inhalte verschlüsseln mit PGP oder S/MIME

 

PGP

„Pretty Good Privacy“ (PGP) ist ein freies Verschlüsselungssystem für den sicheren Datenaustausch und die gegenseitige Authentifizierung im Internet. Für die Authentifizierung nutzt es die asymmetrische Verschlüsselung, also ein Paar aus public key und private key. Das Besondere hierbei: Sie benötige keine externe Zertifizierungsstelle, sondern können Ihr Schlüsselpaar selbst erzeugen und Ihren öffentlichen Schlüssel auf Ihrem eigenen Webspace veröffentlichen.

Üblicherweise bilden bei PGP mehrere Nutzer:innen eine gemeinsames „Web of Trust“, also ein Vertrauensnetzwerk. Diese kennen sich persönlich oder arbeiten beispielsweise im selben Unternehmen und senden sich gegenseitig ihre öffentlichen Schlüssel oder überreichen sich diese persönlich auf einem USB-Stick bei einem hierfür vereinbarten Termin.

Die eigentliche E-Mail-Verschlüsselung erfolgt auch bei PGP wieder in einem symmetrischen Verfahren mit einem sogenannten einmaligen Session-Schlüssel. Dieser wird asymmetrisch kodiert und an die verschlüsselte E-Mail angehängt. Sie können Ihn also nur mit dem passenden private key wieder dechiffrieren. Damit können Sie dann wiederum die eigentliche E-Mail entschlüsseln.

Auch hier ist der umgekehrte Weg möglich: Eine von Ihnen mit einem private Key verschlüsselte E-Mail kann nur mit Ihrem öffentlichen Key entschlüsselt werden. Alle Mitglieder des Vertrauensnetzwerkes wissen somit sicher, dass eine damit verschlüsselte E-Mail wirklich von Ihnen stammt.

Per PGP schützen Sie sich beispielsweise gegen das sogenannte Spear Phishing. Dabei fälschen E-Mail-Betrüger die Absenderadressen von Führungskräften und erteilen in deren Namen beispielsweise die Anweisung, Firmengeld auf ein bestimmtes Konto im Ausland zu überweisen.

Wenn Sie in Ihrem Unternehmen alle Zahlungsanweisungen per PGP verschlüsselt übertragen, verhindern Sie damit wirksam das Spear Phishing.

Für PGP gibt es inzwischen mehrere Programmpakete und Programmerweiterungen, die Sie teilweise auch in gängige E-Mailprogramme integrieren können. Thunderbird ab der Version 78.2.0 enthält bereits von Haus aus eine PGP-Verschlüsselung unter dem Namen OpenPGP. Sie aktivieren diese über das „Extras“-Menü unter dem Punkt „OpenPGP-Schlüssel verwalten“.

Für ältere Thunderbird-Versionen brauchen Sie erst noch die Erweiterung Enigmail, die Teil des Software-Paketes Gpg4win ist. Gpg4win können Sie auch mit vielen anderen E-Mailprogrammen verwenden, beispielsweise Microsoft Outlook, Kmail oder Windows Mail. Das Paket wurde im Auftrag des Bundesamtes für Sicherheit in der Informationstechnik entwickelt und ist als freie Software verfügbar.

 

S/MIME

„Secure/Multipurpose Internet Mail Extensions“ (S/MIME) ist ein weiterer Verschlüsselungsstandard, der im Internet verbreitet ist. Auch S/MIME nutzt eine asymmetrische Authentifizierung und anschließend eine symmetrische Verschlüsselung.

MIME selbst ist ein Standard, um verschiedene Dateitypen in E-Mails zu übertragen und der Gegenseite dabei Informationen zu liefern, wie diese Datentypen zu öffnen sind. Hierfür enthalten MIME-Dateien einen Textvorspann („Header“), der dem E-Mailprogramm oder Browser Anweisungen gibt, wie er diese Dateien behandeln soll. Bei S/MIME enthält dieser Vorspann zusätzlich Ihren öffentlichen Schlüssel und weitere Informationen, beispielsweise den Namen des im weiteren Verlauf gewünschten Verschlüsselungsverfahrens. Denn S/MIME können Sie grundsätzlich mit verschiedenen Kodierverfahren kombinieren.

Um einen öffentlichen Schlüssel zu erstellen, benötigen Sie in der Regel ein Zertifikat einer offiziellen S/MIME-Zertifizierungsstelle. Hochwertige Zertifikate für gewerbliche Nutzer sind kostenpflichtig. Theoretisch können Sie Zertifikate auch selbst erstellen. Aber das ist aufwändig und setzt Spezialkenntnisse voraus.

S/MIME ist ein sehr etabliertes Verfahren, das genau wie PGP inzwischen für viele E-Mailprogramme und Betriebssysteme verfügbar ist, darunter auch für die Smartphone-Betriebssysteme iOS und Android. Allerdings sind PGP und S/MIME nicht kompatibel. Sie können also eine per PGP verschlüsselte E-Mail nicht entschlüsseln, wenn Sie selbst mit S/MIME arbeiten oder umgekehrt. Sie müssen sich also mit Geschäftspartnern oder Kunden auf ein Verfahren einigen.

E-Mails in Outlook verschlüsseln: So gehen Sie vor

Sie können E-Mails in Outlook beispielsweise per S/MIME verschlüsseln. Dafür benötigen Sie ein entsprechendes digitales Zertifikat, das Ihnen als Datei von einer entsprechenden Zertifizierungsstelle vorliegt. Eine solche Datei hat üblicherweise die Endung „.pfx“ oder „.p12“.

Zum Einrichten unter Windows starten Sie Outlook und wählen im „Datei“-Menü die „Optionen“ aus. Hier finden Sie als letzten Menüpunkt das „Trust Center“, das Sie anklicken und dort wiederum die „Einstellungen für das Trust Center …“ aufrufen. Im Trust Center sehen Sie den Menüpunkt „E-Mail-Sicherheit“, in dem Sie unter anderem ihr S/MIME-Zertifikat einrichten können.

Dazu klicken Sie auf „Importieren/Exportieren“ und geben den Namen und das Kennwort Ihres digitalen Zertifikates ein. Dann klicken Sie auf „Durchsuchen“ und wechseln zum Speicherort. Dort wählen Sie die Datei aus und bestätigen den Vorgang per Klick auf „Öffnen“.

Alternativ können Sie auch direkt unter Windows den sogenannten „Zertifikatimport-Assistent“ von Windows starten, indem Sie ihn per Doppelklick auf die Zertifikatdatei aktivieren.

Sie durchlaufen nun einige Schritte, in denen Sie unter anderem auswählen, ob Sie das Zertifikat für sich als Benutzer:in oder für den lokalen Computer einrichten wollen. An dieser Stelle benötigen Sie auch den PIN-Code, den Sie zu Ihrem Zertifikat erhalten haben.

Im Trust Center von Outlook wählen Sie aus, was Sie mit den Zertifikaten machen wollen. So können Sie beispielsweise ab sofort Ihre E-Mails signieren, indem Sie hier ein Häkchen setzen vor „Ausgehenden Nachrichten digitale Signatur hinzufügen“. Verschlüsselte E-Mails in Ihrem Posteingang erkennen Sie zukünftig an einem Schlosssymbol in der entsprechenden Zeile.

Die einzelnen Schritte zum Einrichten von Zertifikaten unterscheiden sich je nach Outlook- oder Betriebssystemversion. Außerdem ist die Einrichtung auf jedem einzelnen Arbeitsplatz oder für jedes einzelne Benutzungskonto in größeren Firmen sehr aufwändig. Mit Produkten wie Secorio Zero-Touch automatisieren Sie das unternehmensweite Ausspielen der Zertifikate.

Wollen Sie stattdessen Outlook-E-Mails per PGP verschlüsseln oder signieren, so können Sie hierfür die Software Gpg4win nutzen. In der Cloudversion Outlook 365 haben Sie grundsätzlich die drei Verschlüsselungsverfahren S/MIME, IRM und OME zur Auswahl. Auch hier können Sie weitere Krypto-Verfahren wie PGP hinzubuchen oder nachinstallieren. Einzelheiten entnehmen Sie den Einstellungen Ihres jeweiligen Microsoft-365-Abonnements.

Wollen Sie besonders sicher gehen, können Sie auch mehrere Verschlüsselungsverfahren übereinanderlegen und die Daten empfängerseitig wieder in umgekehrter Reihenfolge dekodieren. Der Arbeitsaufwand erhöht sich dann aber deutlich, da Sie die meisten E-Mailprogramme hierfür erst entsprechend anpassen müssen oder zusätzliche Verschlüsselungstools benötigen.

Auf einem Mac oder MacBook richten Sie Verschlüsselungsverfahren wie S/MIME über die Apple-Schlüsselbundverwaltung ein. Hierzu finden Sie entsprechende Hilfestellung auf den Apple-Seiten.

DSGVO-Richtlinien zur E-Mail-Verschlüsselung

Die Datenschutzgrundverordnung (DSGVO) der Europäischen Union schreibt vor, dass persönliche Daten nur verschlüsselt gespeichert werden dürfen. Personenbezogene Daten im Sinne von Artikel 4 der Verordnung sind alle Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen.

Die DSGVO und das deutsche Bundesdatenschutzgesetz empfehlen die generelle Verschlüsselung von E-Mails, da diese häufig personenbezogene Daten enthalten. Einige Juristen lesen aus dem Wortlaut der DSGVO sogar die generelle Pflicht zur Verschlüsselung aller E-Mails heraus.

E-Mails DSGVO-konform verschlüsseln? Prüfen Sie Alternativen

Für Ihr Unternehmen ergibt sich hieraus ein Problem: Speziell beim E-Mail-Verkehr mit Kund:innen oder Geschäftspartner:innen können Sie zwar die Einhaltung des Datenschutzes durch entsprechende Verschlüsselungsmechanismen auf Ihrer Seite garantieren.

Sie können aber nicht gewährleisten, dass auch Ihre Kund:innen und deren E-Maildienstleister Ihre E-Mails verschlüsselt übertragen und verwahren. Zwar können Sie Ihren Kund:innen eine verschlüsselte Kommunikation empfehlen. Doch wenn Sie selbst Ihre E-Mails ausschließlich verschlüsselt versenden, werden viele Kund:innen diese E-Mails nicht lesen können, weil sie auf ihren eigenen Geräten die entsprechenden Verschlüsselungs-Werkzeuge oder Browser-Funktionen nicht aktivieren.

In der Praxis haben sich daher viele Unternehmen, beispielsweise aus dem Bankensektor oder Versicherungswesen dafür entschieden, ihre Kund:innen per E-Mail nur noch darauf hinzuweisen, dass es neue Nachrichten vom jeweiligen Unternehmen gibt.

Die eigentlichen Nachrichten werden jedoch unternehmensseitig verschlüsselt abgelegt. Kund:innen können sich ihre Nachrichten nur in dieser geschützten Umgebung direkt ansehen oder über eine geschützte Verbindung herunterladen. Das dient der Einhaltung der DSGVO und damit auch der Cybersecurity in Unternehmen.

Das Wichtigste zu E-Mail-Verschlüsselung in Kürze

  • Standardmäßig werden E-Mails im Internet nicht durchgehend verschlüsselt.
  • Für das Verschlüsseln gibt es verschiedene Verfahren, die unterschiedliche Aufgaben erfüllen, beispielsweise die inhaltliche Verschlüsselung oder die sichere Authentifizierung von Absender:in und Empfänger:in.
  • Für viele E-Mail-Programme existieren entsprechende Erweiterungen, um eine sichere, verschlüsselte Kommunikation zu gewährleisten.
  • Bei der Kommunikation mit ihren Endkund:innen senden viele Unternehmen persönliche Informationen nicht mehr per E-Mail, da schwer zu gewährleisten ist, dass die E-Mails auf unterwegs sicher sind. Besser ist es, hierfür eigene Download-Bereiche auf der Unternehmensseite anzulegen.

Quelle:

https://www.vodafone.de/business/featured/digitales-business/digitaler-arbeitsplatz/e-mail-verschluesselung-einfach-erklaert/

Was ist LTE-M?

Mobil, sparsam, reichweitenstark: LTE-M bietet für viele IoT-Szenarien ideale Bedingungen. Wir beantworten die wichtigsten Fragen rund um den Mobilfunkstandard.

Was genau ist eigentlich dieses LTE-M?

Leihfahrräder, Wechselbrücken, Baumaschinen – müssen Unternehmen bewegliche Objekte über große Entfernungen und möglicherweise Ländergrenzen hinweg zuverlässig vernetzen, bringt dies vielfältige Herausforderungen mit sich. Ohne die passende Netztechnologie kann es schnell zu Verbindungsabbrüchen kommen, die das Tracking erschweren oder im ungünstigsten Fall sogar komplett verhindern.

Das Internet of Things (IoT) schafft hier Abhilfe: Wenn Spediteure beispielsweise den Weg ihrer Lieferungen über längere Strecken nachverfolgen möchten, bietet sich der IoT-Mobilfunkstandard LTE-M an. LTE-M steht für “Long Term Evolution for Machines” und ist ideal für die Vernetzung von Geräten in speziellen IoT-Szenarien geeignet. Der Standard gehört zu den sogenannten „Low Power Wide Area Networks“ (LPWAN), die vor allem mit einer sehr hohen Netzabdeckung bei geringem Energieverbrauch überzeugen. LTE-M wurde speziell für IoT-Lösungen entwickelt, für die LTE zu überdimensioniert und damit teuer wäre, bei denen die Alternative NarrowBand IoT (NB-IoT) wiederum nicht die erforderliche Mobilität oder Bandbreite bei der Datenübertragung leisten kann. Der Standard schlägt eine Brücke zwischen beiden Technologien. Auf Basis von LTE-M können Spediteure ihre Fracht mit kostengünstigen Sensoren ausstatten und den Weg der Assets zu jeder Zeit nachvollziehen. Ein LTE-M-Modul kann je nach Ausführung und Einsatzszenario fünf bis zehn Jahre ohne Batteriewechsel auskommen.

Welche Möglichkeiten eröffnet LTE-M?

Weil LTE-M-Module wie ein Smartphone ohne erneuten Verbindungsaufbau von einer Mobilfunkzelle zur nächsten wechseln können, eignet sich LTE-M für Szenarien, in denen es um die Nachverfolgung und Überwachung von Positionsdaten geht. So hat der Logistikkonzern Dachser beispielsweise seine Wechselbrücken mit LTE-M-Funkmodulen vernetzt, um jederzeit ihre Position einsehen zu können. Die Deutsche Bahn hat mit LTE-M den Ausleihservice ihres Angebots „Call a Bike“ optimiert. Die Datenspezialisten von divirod haben ihre Wassersensoren mit LTE-M-SIM-Karten bestückt, um ein Frühwarnsystem bei Flutkatastrophen zu etablieren. Das Start-up Sharemac wiederum überwacht via LTE-M Maschinen und Geräte auf der Baustelle.

Wo liegt der Unterschied zum herkömmlichen LTE-Standard?

IoT-Lösungen gibt es in vielen verschiedenen Ausprägungen, die sehr variable Anforderungen an Datenübertragung, Netzwerkabdeckung und Mobilität mit sich bringen. Deshalb brauchen Unternehmen individuelle Funklösungen, um ihre speziellen Bedürfnisse bestmöglich abzudecken. Der bekannte LTE-Standard (4G) kommt zum Einsatz, wenn hohe Bandbreiten und niedrige Latenzen gefragt sind. Das kann zum Beispiel im Umfeld von Industrie 4.0 der Fall sein, insbesondere bei Anwendungen auf Basis von Industrial IoT (IIoT), wo mittlerweile immer häufiger auch 5G gefragt ist. Mit 4G und 5G gewährleisten Unternehmen unter anderem, dass ferngesteuerte Roboter in der Produktion verzögerungsfrei reagieren oder die Bilder der Videoüberwachung zeitnah auf den Bildschirmen des Sicherheitspersonals landen.

Die hohe Leistungsfähigkeit der Module hat allerdings auch ihren Preis – für die günstige Vernetzung weitläufiger Sensoren-Konstellationen sind sie daher weniger geeignet. Ist in solchen Szenarien trotzdem eine gewisse Bandbreite und Reaktionsfähigkeit gefragt, lässt sich die Realisierung mit der LTE-M-Technologie deutlich günstiger umsetzen. Das bietet sich vor allem für Anwendungsfälle an, in denen eine bessere Gebäudedurchdringung benötigt wird, als sie der LTE-Standard bieten kann.

Was ist der Unterschied zwischen LTE-M und NB-IoT?

Spielen Latenz, Bandbreite und Mobilität nur eine untergeordnete Rolle, ist das Maschinen- und Sensorennetz NarrowBand IoT (NB-IoT) eine kostengünstige Alternative, um umfangreichere Vernetzungsprojekte umzusetzen. Das macht die Technologie zum Beispiel für die Realisierung von Smart-City-Projekten sehr attraktiv: Intelligente Straßenlaternen, sensorbasiertes Parkplatz-Monitoring oder Frühwarnsysteme zum Monitoring der Verkehrsinfrastruktur – mit NB-IoT alles möglich. Dazu punktet NB-IoT mit der stärksten Gebäudedurchdringung aller Mobilfunkstandards.

LTE-M kommt immer dann ins Spiel, wenn es einen Kompromiss aus LTE und NB-IoT braucht. Die Technologie bietet höhere Bandbreiten und niedrigere Latenzwerte als NB-IoT, ohne die hohen Kosten oder Energieverbräuche herkömmlicher LTE-Lösungen zu erreichen. Im Gegensatz zu NB-IoT kann LTE-M zudem auch grenzübergreifend eingesetzt werden, wenn das Roaming in den angrenzenden Netzen aktiviert ist. Das ist zum Beispiel zwischen Deutschland, Frankreich und Belgien der Fall.

Wie sicher ist LTE-M?

Weil LTE-M eine weltweit standardisierte Technologie im lizenzierten Mobilfunkspektrum ist, bietet sie auf Basis der 3GPP-LTE-Sicherheitsmechanismen ein hohes Maß an Sicherheit für sämtliche Anwendungen. Es besteht ein höherer Schutz als bei proprietären Technologien, da die Sicherheitsmechanismen in LTE-M-Szenarien alle Aspekte von der SIM-Karte bis hin zu den Anwendungsservern abdecken. Beim Zugriff auf das LTE-M-Netz werden sowohl die Geräte als auch das Netzwerk genau geprüft. Die gegenseitige Authentifizierung der Infrastruktur erfolgt über die SIM-Karte, auf der sensible Anmeldeinformationen und Gerätedaten gespeichert und vor unberechtigtem Zugriff geschützt sind. Die Integrität der übertragenen Daten wird unabhängig von der Verschlüsselungsfunktion durch einen speziell generierten Schlüssel sichergestellt. Im Vergleich zu anderen Technologien werden bei LTE-M längere Schlüssel (typischerweise 128 Bit) eingesetzt, um die Sicherheit zu erhöhen. Eine Manipulation der Daten ist für das Gerät und das Netz zuverlässig nachweisbar.

Was spricht sonst noch für LTE-M?

LTE-M basiert auf dem LTE-3GPP-Standard und ist damit 5G-kompatibel – Anwender stellen ihre IoT-Lösungen mit der Technologie also zukunftssicher auf. LTE-M kann zudem mit der nuSIM, einer SIM-Karte speziell für IoT, noch stromsparender und effizienter betrieben werden. Mit dieser Lösung sind die Funktionalitäten der SIM-Karte direkt in den Kommunikationschip integriert und verbrauchen so bis zu 90 Prozent weniger Strom. Darüber hinaus besteht bereits eine landesweite Netzabdeckung für LTE-M in Deutschland, vielen weiteren europäischen Ländern wie Niederlande, Frankreich, Belgien, Schweiz, Österreich, Irland, Ungarn oder in Skandinavien, zudem in Nordamerika, Japan und Australien. In vielen angrenzenden Ländern ist die Technologie in der Vorbereitung oder in konkreten Testphasen.

Quelle:

https://iot.telekom.com/de/blog/lte-m-die-wichtigsten-fragen-und-antworten

Workplace-as-a-Service (WaaS) – was steckt dahinter?

Nicht allein die Corona-Pandemie hat die Arbeitswelt in den letzten Jahren stark verändert. Auch das mobile Arbeiten, die fortschreitende Echtzeit-Vernetzung in der Industrie 4.0 und sich verändernde Bedürfnisse von Mitarbeiter:innen stellen die Unternehmens-IT vor neue Herausforderungen. Eine Antwort auf viele Fragen könnte Workplace-as-a-Service (WaaS) sein.

 

Wie IT-Abteilungen durch Standard-Prozesse gebunden werden

Viel Zeit wenden heutige IT-Abteilungen für das klassische Tagesgeschäft auf. Dazu gehört ganz maßgeblich die unternehmensweite Installation und Betreuung von IT-Arbeitsplätzen mit ihren vielen zeitintensiven Arbeitsschritten.

Das beginnt bei der internen Beantragung und anschließenden Beschaffung der benötigten Hardware- und Software-Ressourcen. Es setzt sich fort mit der Wartung im laufenden Betrieb einschließlich dem Support der Anwender:innen und der Gewährleistung von Datenschutz. Zeit kostet außerdem die Bekämpfung von Schadsoftware und Attacken von außerhalb oder sogar aus dem eigenen Netz.

Und es endet noch nicht bei der fachgerechten Entsorgung nicht mehr benötigter IT-Strukturen inklusive normgerechter Datenlöschung nach NIST 800-88 oder BSI-Leitlinien vor Weitergabe oder -verkauf. Wozu im Zeitalter von Speicher-Karten, die auf einem daumennagelgroßen Chip alle Mitarbeiter:innen-Daten eines Großkonzerns speichern können, übrigens auch die fachgerechte Vernichtung physischer Datenträger nach DIN 66399 gehört.

Auch aus der Befürchtung heraus, hier teure Fehler zu machen, denken Unternehmen zunehmend über die Dienstleistung Workplace-as-a-Service (WaaS) nach.

 

Was ist Workplace-as-a-Service?

Workplace-as-a-Service ist ein Angebot für Unternehmen, bei dem IT-Arbeitsplätze für die Mitarbeiter:innen bei Dienstleistern angemietet oder geleast werden. Es ist nicht zu verwechseln mit Windows-as-a-Service von Microsoft, das gelegentlich auch als WaaS bezeichnet wird.

Kunden haben bei WaaS die Wahl, ob Arbeitsplätze inklusive physischer Hardware benötigt oder diese rein virtuell angelegt werden. Auf virtuelle Arbeitsplätze greifen Mitarbeiter:innen browserbasiert über eine Cloud-Lösung zu. Die eigentliche Hardware beschaffen dabei weiter die Kunden selbst. Diese Dienstleistung wird je nach Anbieter auch als Desktop-as-a-Service (DaaS) bezeichnet.

Bei einem WaaS-Angebot inklusive Hardware stellt der Dienstleister auch alle Endgeräte vor Ort auf und richtet diese ein. Einige Anbieter bezeichnen dieses Produkt auch als Modern Workplace as a Service (MWaaS), um zu betonen, dass die Kunden hier regelmäßig aktuelle Hardware erhalten. Die Tarife können als monatliche Raten, separate Leasing-Verträge für die Hardware oder auch als Mischform gestaltet sein.

WaaS ist Teil einer wachsenden Palette von Angeboten für Unternehmen, mit denen sie IT-Aufgaben auslagern können. Die Möglichkeiten reichen von einfachen Cloud-Lösungen, die lediglich Speicherplatz oder Rechenleistung bereitstellen, bis hin zu komplexen Angeboten, die das Unternehmen komplett von jeglicher Software- und Hardware-Beschaffung und -Wartung entlasten.

Das sind die Vorteile von Workplace-as-a-Service (WaaS)

Mit ihren noch vergleichsweise neuen WaaS-Angeboten runden Cloud-Dienstleister ihre Service-Pakete rund um das Auslagern der Unternehmens-IT nach oben ab. Auch Software-Hersteller wie Microsoft, die entsprechende Dienste aktiv bewerben, optimieren ihre Produkte. Microsoft kann so Services wie 365Dynamics 365 oder Cloud-Dienste leichter über WaaS verteilen.

Viele Freiberufler:innen insbesondere in Großstädten nutzen entsprechende Services schon länger. So sind Coworking-Spaces, in denen bevorzugt Einzelunternehmer aus der Kreativ- oder Software-Entwicklungsbranche IT-Arbeitsplätze auf Zeit anmieten, mit den WaaS-Angeboten vergleichbar.

Junge Unternehmen schätzen WaaS besonders: Sie können die hohen Einstiegskosten für den Aufbau einer eigenen IT einsparen und so das knappe Firmenkapital weitgehend in Produktentwicklung, Marketing oder den Aufbau eines Kundenstammes investieren. Aber auch für größere Unternehmen ist WaaS zunehmend interessant, da diese Bereitstellungslösung zahlreiche Vorteile sowohl kaufmännischer als auch organisatorischer Natur zu bieten hat. Mehr über die Gründe lesen Sie hier:

 

Kalkulierbare IT-Kosten

IT-Kosten werden leichter kalkulierbar, indem eine feste Anzahl von Arbeitsplätzen gebucht werden kann. Auch saisonale Schwankungen sind per WaaS besser darstellbar, indem Hard- und Software termingerecht berechnet, gebucht und auch wieder gekündigt werden können.

 

Entlastung des Mangements

Abteilungen werden von Standard-Prozessen entlastet. In vielen Unternehmen ist die Entscheidung über Hardware- und Software-Beschaffung auf Management-Ebenen angesiedelt. Dies verzögert die Bereitstellung und Einrichtung von Arbeitsplätzen. Workspace über WaaS kann deutlich schneller hinzugebucht werden. Neue Mitarbeiter:innen werden an ihren ersten Arbeitstagen nicht mehr an Springer-Arbeitsplätzen „zwischengeparkt“, sondern können sofort produktiv arbeiten. So wird ein wertschätzendes und gleichzeitig effizientes Onboarding möglich.

 

Leichtere Betreuung verschiedener Standorte

Firmen mit vielen dezentralen Arbeitsplätzen, zum Beispiel Filialisten im Einzelhandel, können ihre Standorte über WaaS-Dienstleister einrichten und betreuen lassen. Durch den hohen Spezialisierungsgrad der WaaS-Anbieter können viele Service- und Wartungsaufgaben über das Internet oder Callcenter erledigt werden, für die sonst IT-Mitarbeiter:innen aus der Zentrale des Filialisten anreisen müssten.

 

Mehr Raum für strategische Aufgaben

Die Unternehmens-IT kann sich wieder mehr auf ihre Kernaufgaben konzentrieren. Tagesgeschäft und strategische Aufgaben behindern sich nicht gegenseitig. Das Roll-out eines neuen Produktes zum Beispiel verhindert nicht, dass an anderer Stelle Arbeitsplätze eingerichtet werden können.

 

Einheitliche IT

Aufwand durch unterschiedlich eingerichtete Arbeitsplätze im Unternehmen entfallen. Je nach Abo-Modell nutzen alle Abteilungen auf diesen Plattformen die gleiche Hardware, die gleichen Betriebssysteme und Betriebssystemversionen und die gleiche Business-Software. Es müssen zum Beispiel keine Dokumente im Workflow konvertiert werden, um sie anderen Abteilungen zur Verfügung stellen zu können. Alle am Wertschöpfungsprozess Beteiligten greifen in derselben Cloud auf dieselben Objekte zu und können sie in gleicher Form bearbeiten. Lediglich ein Rechte-Management oder ein interner Workflow regelt, wer wann welche Datei öffnen und bearbeiten kann. Willkommener Nebeneffekt: Es gibt im Firmennetz keine exotischen oder veralteten Arbeitsplatz-Konfigurationen mehr. Denn diese können mangels aktueller Updates versteckte Einfallstore für Schadsoftware sein.

 

IT bleibt flexibel

WaaS geht flexibel auf zukünftige Herausforderungen ein. Viele Unternehmen und deren Mitarbeiter:innen werden in der Corona-Pandemie durch hohen Improvisationsbedarf während kurzfristig angesetzter Homeoffice-Zeiten herausgefordert. Die meisten heimischen Arbeitsplätze dürften bis heute die Richtlinien der Arbeitsstättenverordnung nicht erfüllen. Über WaaS können Unternehmen ihren Mitarbeiter:innen sichere, ergonomische und technisch aktuelle Arbeitsplätze bereitstellen, die alle einschlägigen DIN-Normen berücksichtigen. Ebenso ist eine kurzfristige Migration von Arbeitsplätzen zwischen Wohnort und Büro problemlos möglich. Mitarbeiter:innen werden nicht mehr zu Hause ihre eigenen System-Administrator:innen, sondern erhalten professionellen Service – wahlweise per telefonischer Beratung oder Vor-Ort-Termin. Dies reicht bis hin zur sicheren Einbindung des Dienst-Laptop über VPN-Tunnel im heimischen WLAN. Praktisch: Es sinkt das Risiko, dass Mitarbeiter:innen sich vertrauliche, dienstliche E-Mails auf den privaten Computer weiterleiten und dort bearbeiten; oder beim umgekehrten Weg potenziell Schadsoftware ins Unternehmensnetzwerk einbringen.

 

Passgenaue Auswahl

Die Palette der möglichen Arbeitsplätze vergrößert sich: Es gibt nicht mehr den Standard-Notebook des Standard-Systemhauses für alle Außendienstler:innen. Stattdessen können zum Beispiel Mitarbeiter:innen, die besonders rechen- und grafikintensive Programme nutzen, die passenden leistungsfähigen Endgeräte erhalten.

 

Komplette Lösung

Der WaaS-Anbieter kümmert sich um die Abstimmung der Endgeräte untereinander. Kunden müssen nicht mehr selbst prüfen, ob eine Branchenlösung auch auf bestimmten mobilen Endgeräten funktioniert. Stattdessen wird ein Komplettpaket bestellt, das seitens des Dienstleisters bereits auf Kompatibilität getestet ist.

 

Keine Investment-Risiken in der IT

Investment-Risiken durch unproduktive oder nicht wie geplant nutzbare Hard- und Software entfallen. Ein Gerät, das nicht mehr gesetzlichen Ergonomie- oder Datenschutz-Standards entspricht, kann leichter ausgemustert und durch bessere Hardware ersetzt werden. Eine Software, die nach einem Update nicht mehr mit einer anderen im Unternehmen genutzten Branchenlösung kooperiert, wird bequem durch ein anderes Produkt ersetzt.

 

Kein Datenschutzproblem bei nicht verwendeter Hardware

Die Abwicklung von veralteten oder unbesetzten Arbeitsplätzen ist dank WaaS kein Datenschutzrisiko mehr. Die Sorge, dass Datenträger aus weiterverkaufter Hardware von Dritten ausgelesen werden könnten, führt gerade bei vielen kleineren Unternehmen dazu, dass veraltete Hardware heute lieber entsorgt als dem Weiterverkauf zugeführt wird. So wird unnötig Kapital vernichtet und es werden wertvolle Ressourcen verschwendet, was der Umwelt schadet. Ein WaaS-Anbieter ist hingegen mit den Prozessen zur sicheren Datenlöschung vertraut, da dies für ihn Tagesgeschäft ist.

er bietet WaaS an?

In der Welt der WaaS-Dienstleistungen finden sich die großen Anbieter aus dem Cloud-Sektor wie Microsoft oder Amazon ebenso wie regionale Systemhäuser, die ihre bisherigen Angebote aus dem Hardware-Verkauf und Leasing um neue WaaS-Produkte erweitern.

Microsoft selbst arbeitet mit Partnern wie Metacomp oder ALSO, die Microsoft-Produkte zum Teil um eigene Hardware- und Software- oder Beratungs- und Wartungs-Angeboten ergänzen. Daher unterscheiden sich die am Markt verfügbaren Angebote auch erheblich – je nach Hintergrund des Dienstleisters und seiner Produkthistorie, auf die er WaaS aufsetzt.

Im ersten Schritt sollten Sie daher spezifizieren, welche Dienstleistungen Sie exakt benötigen und was Sie vielleicht sogar weiterhin Inhouse machen möchten. Genügen Ihnen rein software-basierte Angebote (meist als DaaS bezeichnet)? Oder bevorzugen Sie komplette physische Arbeitsplätze, die entsprechende Endgeräte beinhalten (meist unter der Produktbezeichnung WaaS oder MWaaS)?

Ebenfalls wichtig: Welche Service-Level sind nötig und welchen Support benötigen Sie für welche Hard- und Software. Auch hier wieder die Frage: Was können Sie selbst machen, was möchten Sie anmieten?

Sind Ihre Arbeitsplätze an einem oder wenigen Unternehmensstandorten konzentriert, kann es sinnvoll sein, einen regionalen Dienstleister zu beauftragen. Der Vorteil: Kurze Wege bei Hardware-Austausch oder Reparaturen. Außerdem haben Sie lokale Ansprechpartner:innen, die ihren Kundenstamm und dessen Bedürfnisse kennen.

Sind Sie als Unternehmen national oder international aufgestellt, sollten Sie einem großen Anbieter den Vorzug geben. Der Vorteil: Hier finden Sie auch für exotische Branchenlösungen und -bedürfnisse die passenden Ansprechpartner:innen. Sie haben eine größere Auswahl bei Hard- und Software und sind nicht nur auf einen Cloud-Partner im Hintergrund angewiesen.

DaaS und WaaS bietet beispielsweise der US-Hardware-Hersteller HP (ehemals: Hewlett-Packard) an, der seit vielen Jahren mit seinen Notebooks, Workstations, Desktop-PC sowie Druckern und Monitoren am Markt vertreten ist. Aber auch Wettbewerber wie Lenovo haben sich entsprechend aufgestellt.

Es gilt die Regel: Je exakter Sie vorab Ihre Bedürfnisse und die Ihrer Mitarbeiter:innen in einem Lastenheft zusammenfassen und je passender Sie Ihren WaaS-Anbieter zu diesen Bedürfnissen auswählen, desto größer wird Ihr Nutzen im laufenden Geschäftsbetrieb sein.

Diving Deeper” ist das Videoformat von Vodafone Business und OMR. Wir verbinden MyMüsli Co-Founder Max Wittrock mit spannenden digitalen Startups und sprechen über ihre Geschichte, Business-Modelle und Erfolgsgeheimnisse. Inspirierende, wertvolle Einblicke und ein Blick hinter die Kulissen von Foodboom, Ecosia, Appinio, Independesk und Boxine  und ihren Gründer*innen.

In der zweiten Folge trifft Max Wittrock auf Karsten Kossatz. Er ist Mitgründer von Independesk, einem New-Work-Startup aus Berlin. Von ihm erfahren wir nicht nur, wie Kossatz’ Unternehmen die soziale Lücke zwischen Homeoffice und Büropräsenz schließen will, sondern auch, welche Bedeutung Arbeit für das Leben insgesamt haben sollte.

Quelle:

https://www.vodafone.de/business/featured/digitales-business/digitale-geschaeftsprozesse/workplace-as-a-service-waas-was-steckt-dahinter/

Mikrocontroller: Einfache Automatisierung im Internet of Things

Von der Computermaus bis zum Roboter-Arm: In immer mehr Geräten und Maschinen übernehmen Mikrocontroller wichtige Aufgaben von der Sensorabfrage bis hin zur Kommunikation. Auch im Internet of Things (IoT) sind sie weit verbreitet. Was macht die Mikrocontroller-Technik so erfolgreich und wie nutzen Sie deren Stärken für Ihr eigenes Unternehmen?

Mikrocontroller sind die weniger bekannten Geschwister der Mikroprozessoren. Doch nicht nur in der Consumer-Elektronik übernehmen sie immer mehr Aufgaben klassischer Prozessoren. Weil sie preisgünstig und kompakt sind, kommen sie überall dort zum Einsatz, wo andere Steuerungen zu aufwendig oder zu groß sind. Ihr breites Einsatzspektrum und ihre einfache Programmierbarkeit eröffnen den smarten Winzlingen immer neue Anwendungsfelder – auch im Internet of Things. Und das wächst rasant. Mit rund 75 Milliarden Maschinen und Geräten im IoT bis 2025 rechnet etwa das Statistikportal Statista.

 

Was ist ein Mikrocontroller?

Ein Mikrocontroller (manchmal auch Microcontroller, MCU oder Ein-Chip-System) ist ein programmierbarer, digitaler Prozessor. In seinem Gehäuse befinden sich zusätzlicher Programm- und Arbeitsspeicher (RAM) sowie weitere Schaltkreise für die Ein- und Ausgabe und zur Ansteuerung von Peripheriegeräten. Häufig ist auch noch eine Unterstützung für verbreitete Bus-Systeme wie USB, Ethernet oder I²C vorhanden.

Aufgrund ihres großen Einsatzspektrums und ihrer geringen Kosten sind Mikrocontroller in fast jeder Form von Endgeräten und Peripherie anzutreffen. In der Computertechnik beispielsweise in Druckern, Mäusen, Hubs und Ladegeräten. Als sogenannte Embedded Systems (Eingebettete Systeme) werden Mikrocontroller aber auch als Steuerungen in vielen anderen technischen Geräten, etwa in der Medizintechnik, in der Anlagenüberwachung oder im Automobilbau (Infineon TriCore, NXP S32K3) verbaut.

 

Häufig genutzt für Spezialaufgaben

Mikrocontroller sind inzwischen weiter verbreitet als Mikroprozessoren (CPU). Während klassische Prozessoren in Computern sehr unterschiedliche Aufgaben erfüllen können, haben Mikrocontroller meist genau eine Aufgabe, zum Beispiel Gerätesteuerung. So gibt es beispielsweise in vielen aktuellen Kraftfahrzeugen Mikrocontroller, die jeweils nur eine einzige Komponente steuern und überwachen – wie etwa das Antiblockiersystem (ABS), den Parkassistenten, das Notruf-System oder die Telematik.

In der Regel führen Mikrocontroller hierbei nur ein einziges Programm aus, das sich in einer Endlosschleife wiederholt. Der Controller einer optischen Computermaus liest beispielsweise ununterbrochen die Werte seiner Optik aus, die an der Unterseite verbaut ist. Hieraus errechnet er die eigentliche Bewegung der Maus auf der Tischoberfläche und sendet diese Information bei jeder Wertänderung  per Bluetooth an den Computer, an den die Maus angeschlossen ist.

Anwendung von Mikrocontrollern

Dank ihrer leichten Programmierbarkeit sind Mikrokontroller ideal für die Automatisierung ganz individueller Aufgaben. Mit einem Mikrocontroller können Sie sich beispielsweise sehr einfach eine Klimasteuerung für Ihr Firmengebäude erstellen. Dabei überwacht ein Controller über seine Eingänge mehrere Temperatursensoren in Ihren Innenräumen. Über- oder unterschreiten die Temperaturen bestimmte Grenzwerte, aktiviert der Mikrocontroller über seine Ausgänge per Ethernet oder WiFi Ihre Klima- oder Heizungsanlage.

Oder der Mikrocontroller öffnet im Sommer die Oberlichter, die er bei Regenwetter automatisch wieder schließt, sofern Sie hierfür Regensensoren verbaut haben. Außerhalb der Geschäftszeiten und am Wochenende aktiviert der Mikrocontroller selbsttätig die Regulierung Ihrer Heizung. Der US-amerikanische Technologiehersteller Texas Instruments hat beispielsweise mit seiner Mikrocontroller-Plattform SimpleLink ein entsprechendes Baukastensystem entwickelt.

 

Aufbau eines Mikrocontrollers

Verbreitete Mikrocontroller

Bekannte Mikrocontroller-Typen sind die in vielen Arduinos verbauten Chips der Familie Microchip AVR (früher: Atmel AVR), der ESP32 und der ESP ESP8266 von Espressif, der PICmicro von Microchip Technology sowie der MSP430 von Texas Instruments. Auch die Kinetis K-Series von Freescale Semiconductor (früher: Motorola) erfreut sich großer Beliebtheit, ebenso wie die zeitlose MCS-51-Familie von Intel mit ihren vielen Abkömmlingen auch von Drittherstellern. Besonders im Automobilbau und in der Industrie sind die über 200 Varianten des 8-Bit-Mikrocontrollers Motorola 68HC05 und seiner Nachfolge-Generationen Motorola 68HC08 und Freescale S08 seit langer Zeit eine feste Größe mit mehreren Milliarden verkauften Exemplaren. Auch auf Basis der einst von Acorn RISC Machines entwickelten ARM-Architektur gibt es ARM-Mikrocontroller. Bekannt ist hier beispielsweise der StrongARM-Mikrocontroller.

Unterschiede zwischen Mikrocontrollern, Mikroprozessoren und sonstigen Systemen wie System-on-a-Chip

Die technische Abgrenzung zwischen Mikroprozessoren und Mikrocontrollern ist schwierig. Die Übergänge sind oft fließend. Ein Mikroprozessor für einen Computer oder Server am Arbeitsplatz wird meist in aktueller 32- oder 64-Bit-Technologie hergestellt. Er verfügt über mehrere Rechenkerne und ist hoch getaktet. Dadurch ist er viel leistungsfähiger als die meisten Mikrocontroller, die oft auf älteren Architekturen basieren. Dafür fehlen beim Mikroprozessor wichtige Funktionen, die bei Mikrocontrollern bereits auf dem Chip integriert sind. Hierzu zählen beispielsweise Speichercontroller für den direkten Zugriff auf den Arbeitsspeicher.

Ein Mikroprozessor befindet sich üblicherweise auf einer Hauptplatine. Dort stehen ihm spezialisierte Chips zur Seite, zum Beispiel für das Ansteuern der verschiedenen Speicherarten und der Peripherie. Für die Grafikausgabe gibt es meist einen eigenen Prozessor, den Grafikprozessor (GPU) auf der Hauptplatine oder auf einer Grafikkarte. Der eigentliche Mikroprozessor ist technisch hoch spezialisiert und kann seine primären Aufgaben deshalb umso schneller abarbeiten.

Viele Mikrocontroller basieren noch auf älteren 8- oder 16-Bit-Mikroprozessoren, deren Architektur um zusätzliche Schaltkreise auf den Chips erweitert wurde. Dadurch kommen Mikrocontroller ohne Hauptplatine aus und sind trotzdem erheblich preisgünstiger als aktuelle Hochleistungsmikroprozessoren. Dafür ist ihre interne Rechenleistung allerdings auch geringer. Sie sind beispielsweise nicht geeignet für Anwendungen mit aufwendiger Grafikausgabe oder künstlicher Intelligenz. Inzwischen kommen allerdings auch vermehrt Systeme in 32-Bit-Technologie auf den Markt, wie beispielsweise der ESP8266 von Espressif oder die M2000-Familie von Texas Instruments.

Eine Sonder- oder Zwischenform ist das sogenannte System auf einem Chip (System-on-a-Chip, kurz: SoC). Es vereint ähnlich viele Funktionen wie ein Mikrocontroller in einem Gehäuse, basiert aber auf neuester Mikroprozessortechnik mit vielen hochintegrierten Rechenkernen. In einem SoC sind zahlreiche Baugruppen einer Hauptplatine – darunter beispielsweise Grafikprozessor, Arbeitsspeicher und bestimmte Eingabe- und Ausgabe-Bausteine, etwa für den Mobilfunk oder die Netzwerk-Kommunikation. Die hohe Integration aller Komponenten spart Energie – einige SoC verfügen  hierfür über nur 4 nm breite Leiterbahnen. Das ist besonders für mobile Geräte von Vorteil. Durch ihre aufwendige Herstellung sind SoC meist erheblich teurer als Mikrocontroller und kommen daher nur in hochpreisiger Hardware zum Einsatz.

SoC kommen meist dort zum Einsatz, wo es auf hohe Leistungsfähigkeit und kompakte Bauformen ankommt, beispielsweise in Smartphones und Tablets. Einige Systeme gibt es aber auch in gängigen Notebooks und Desktoprechnern. So nutzt Apple sein SoC M1 einerseits im MacBook Pro und iMac Mini, aber auch in den Tablets iPad Pro und iPad Air.

 

Unterschiede zu Ein-Platinen-Computern

Wesentlich einfacher ist die Abgrenzung zwischen Mikrocontrollern und Ein-Platinen-Computern (englisch: Single Board Computer, kurz: SBC) wie dem Raspberry Pi, dem Banana Pi oder dem Asus Tinker Board. Hierbei handelt es sich um voll funktionsfähige Rechner auf einer einzigen, kompakten Platine. Auf dieser Platine befinden sich meist auch leistungsfähige Massenspeicher und Ein-/Ausgabe-Komponenten. Es fehlen aber meist die Steckplätze für Erweiterungskarten, wie sie auf größeren Hauptplatinen in PCs vorkommen.

Ein-Platinen-Computer besitzen meist spezialisierte Grafikprozessoren und unterstützen Videostandards wie HDMI. Deshalb sind Ein-Platinen-Computer beispielsweise als Video-Server in Netzwerken sehr beliebt. Sie kommen aber auch als einfache Desktop-Computer mit Tastatur und Bildschirm zum Einsatz. Über die Anbindung per Narrowband-IoT sind Ein-Platinen-Computer im Industrial Internet of Things vielfältig einsetzbar – genau wie Mikrocontroller.

 

Hardware

Mikrocontroller gibt es in sehr unterschiedlichen Bauformen: zum Beispiel als Chip im DIL-Gehäuse mit zwei seitlichen Pin-Reihen. Insbesondere 16- und 32-Bit-Mikrocontroller werden wegen ihrer höheren Pin-Anzahl bevorzugt im quadratischen QFP-Format mit Beinen an allen vier Seiten gefertigt. Beispiele sind der ESP32 oder sein Nachfolger, der ESP8266 von Espressif. Besonders kleine Modelle wie der Kinetis KL03 messen dabei nur wenige Quadratmillimeter.

Viele Mikrocontroller werden bereits auf einer fertigen Platine ausgeliefert. Diese besitzt meist Lötkontakte oder Schraubanschlüsse für die digitalen und analogen Ein- und Ausgänge des Controllers. Außerdem verfügt sie in der Regel über einen Quarz für die Taktung und einen Reset-Taster sowie LED für die Anzeige des Betriebszustandes. Die Größe der Platinen variiert stark – auch in Abhängigkeit davon, wie viele Anschlüsse sie jeweils besitzen. Die Digispark-Platine in der Revision 3.0 ist gerade einmal so groß wie ein Daumennagel – und bietet trotzdem einen USB-Anschluss und Bohrungen für sechs I/O-Pins.

 

Programmierschnittstelle und Spannungsversorgung

Auf eine Platine aufgelötete Mikrocontroller haben in der Regel bereits Anschlüsse für die Spannungsversorgung, zum Beispiel in Form von Hohlstecker-Buchsen oder als VCC- und GNC-Pins. Die eigentliche Programmierung erfolgt häufig über den USB-Anschluss. Für Chips ohne Platine benötigen Sie entsprechende Programmierplatinen mit einem sogenannten Nullkraftsockel zur Aufnahme der integrierten Schaltkreise (IC).

Ein vorhandener USB-Anschluss kann auch als Stromanschluss dienen. Gängige Mikrocontroller benötigen eine dauerhafte Versorgung mit 3,3 bis 5 Volt Gleichspannung. Der Digispark beispielsweise verträgt dank seines integrierten Spannungsreglers aber auch bis zu 35 Volt Eingangsspannung.

Schnittstellen

An den Ein- und Ausgängen Ihres Mikrocontrollers können Sie Sensoren, Aktoren oder Kommunikationsmodule anschließen oder anlöten, zum Beispiel für WLAN, Bluetooth, GSM oder Narrowand-IoT. Für einige Mikrocontroller-Platinen wie den Arduino oder die D1-Boards mit ESP8266 gibt es sogenannte Shields. Das sind Aufsteck-Platinen, deren Stiftleisten Sie einfach in die entsprechenden Buchsenleisten der Controller-Platine stecken und so ohne Verlöten kontaktschlüssig verbinden.

Die Belegung der Pins Ihres Mikrocontrollers sehen Sie in der Regel aufgedruckt auf der Platine. Einige Pins sind je nach Modell mehrfach belegt. Beim Arduino definieren Sie bestimmte Anschlüsse beispielsweise über den pinMode()-Befehl wahlweise als Ein- oder Ausgänge. Größere Lasten an den Ausgängen können Sie über zusätzliche Opto-Koppler und Relais-Platinen schalten.

Möchten Sie mehr Peripherie-Geräte oder Aktoren steuern, als Ihr Mikrocontroller Ausgänge hat, können Sie diese über Bus-Systeme aneinanderreihen. Verbreitet ist hierfür beispielsweise der I²C-Bus oder auch der im Automobilbau häufig genutzte CAN-Bus.

Verwendete Programmiersprachen

Für die Mikrocontroller-Programmierung gibt es zahlreiche quelloffene Programmierumgebungen (Integrated Development Environment, kurz: IDE) und Betriebssysteme. Mikrocontroller arbeiten wie Mikroprozessoren intern mit Maschinensprache. Für die meisten Systeme gibt es Compiler, die das Programmieren in verschiedenen, meist vereinfachten C-Dialekten erlauben. Aber es gibt inzwischen auch Programmierumgebungen für Basic und MicroPython. Da viele Mikrocontroller auf älterer Prozessor-Hardware basieren, gibt es sogar IDE für Sprachen wie Ada und Forth. Speziell für PICmicro wurde die Sprache JAL (Just Another Language) entwickelt.

Ein Mikrocontroller-Programm kann neben Ein- und Ausgabebefehlen auch Verzweigungen und bedingte Schleifen enthalten. Damit können Sie in der Praxis sehr komplexe Steuerungs- und Überwachungs-Aufgaben automatisieren. Trotzdem ist die Programmierung sehr leicht zu erlernen. Daher sind Mikrocontroller in Schule und Ausbildung weit verbreitet und werden auch gerne für den Bau von Prototypen genutzt. Für den Arduino gibt es in den einschlägigen Foren frei verfügbare Arduino-Projekte mit Bauanleitungen und Programmen (Sketches) für viele Einsatzzwecke. Aber auch andere Mikrocontroller-Projekte sind im Internet zu finden.

Energieeffizienz

Mikrocontroller sind im Vergleich sehr energieeffizient. Weil sie in der Regel nur grundlegende Berechnungen ausführen und niedrig getaktet sind, kommen sie im Unterschied zu vielen Mikroprozessoren und insbesondere Grafikprozessoren ohne aktive oder passive Kühlung aus. Modelle mit 16 oder 32 Bit haben üblicherweise einen etwas größeren Energieverbrauch als solche mit 8 Bit. Aber auch hier gibt es Ausnahmen: Der MSP430 von Texas Instruments ist zwar ein 16-Bit-System, kommt aber dank seiner hohen Energieeffizienz oft in Geräten mit Langzeitbatterie zum Einsatz, etwa in Blutdruckmessgeräten oder Datenloggern.

 

Echtzeitfähigkeit

Ein großer Vorteil von Mikrocontrollern ist ihre Echtzeitfähigkeit. Obwohl Mikrocontroller in der Regel über vergleichsweise wenig Rechenleistung verfügen, führen sie ihre Berechnungen immer zeitnah durch, da sie zu keinem Zeitpunkt durch andere Aufgaben blockiert werden. Das ist beispielsweise in sicherheitsrelevanten Systemen sehr wichtig: Ein ausschließlich für die Überwachung des ABS in Kraftfahrzeugen zuständiger Mikrocontroller überwacht kontinuierlich die Bremssensoren und kann bei Bedarf zeitnah eingreifen. Ein zentraler Steuercomputer für das Gesamtsystem Auto hingegen könnte im entscheidenden Moment durch parallel ablaufende Berechnungen für das Navigationssystem oder das Entertainment blockiert werden. Daher übernehmen Mikrocontroller häufig zeitkritische Aufgaben.

 

Sicherheit

2018 berichtete ein Hersteller von Antiviren-Software, von dem Diebstahl von Kundendaten aus einem Spielcasino. Hacker hatten hierbei über ein Aquarienthermometer in der Lobby des Casinos einen Zugang in dessen internes Netzwerk gefunden.

Auch für Mikrocontroller besteht also eine grundsätzliche Gefahr durch Schadsoftware. Einige Mikrocontroller bieten deshalb per Hardware angelegte Sicherheitsfunktionen wie einen Bootloader-Schutz gegen das Einspielen von Malware. Andere Controller für den industriellen Einsatz im IioT wie etwa die RX65N/RX651-Serie von Renesas sichern ihren mobilen Datenverkehr mittels zusätzlicher Transportverschlüsselung per AES, 3DES, SHA oder TRNG.

 

Die richtige Auswahl treffen – diese Modelle gibt es

Das Angebot an Mikrocontrollern ist groß. Einige Modelle sind in bestimmten Disziplinen sehr gut, aber keine Gerätebaureihe ist in allen Bereichen führend. Daher sollten Sie bei Ihrer Entscheidung für einen Mikrocontroller zuerst die folgenden Fragen klären. Damit können Sie das für Sie und Ihre Einsatzzwecke am besten geeignete System finden.

 

Wie wichtig ist Ihnen eine hohe Systemleistung des Mikrocontrollers?

Geräte, die auf aktuellen 32-Bit-Mikroprozessoren basieren, sind meist schneller als ältere Modelle, die intern noch mit 8 Bit arbeiten. Achten Sie beim Blick auf das Datenblatt neben der Datenbus-Breite aber auch auf weitere Leistungsdaten wie die interne Taktrate und die Größe und Art des verbauten Speichers.

Mit dem Wandel zur Industrie 4.0 steigt der Bedarf an Hochleistungs-Mikrocontrollern, die wie moderne SoC über Mehrkernprozessoren verfügen und mit hohen Taktraten arbeiten. Hier setzt beispielsweise Texas Instruments mit Sitara AM2x an oder STMicroelectronics mit Teilen seiner STM32-Familie.

 

Suchen Sie ein preisgünstiges System, mit dem Sie sehr leicht Prototypen bauen können?

Für Mikrokontroller wie den Arduino oder die ESP32-/ESP8266-Reihe gibt es im Handel preisgünstige, vorkonfektionierte Zubehörmodule, speziell für Mikocontroller-Anfänger, die die Programmierung erlernen möchten. Das Angebot reicht von Sensoren und Aktoren über Schalt-Relais bis hin zu Kommunikationsmodulen mit GSM, WLAN, NFC oder Bluetooth. Damit können Sie sehr schnell eigene Prototypen im Baukastensystem erstellen. Auch Bauanleitungen und Programme für diese Systeme finden Sie in großer Zahl im Netz.

 

Benötigen Sie Mikrocontroller für Systeme ohne externe Spannungsversorgung?

Benötigen Sie Mikrocontroller für batteriegespeiste Systeme? Größere Rechenleistung geht in der Regel auch mit höherem Energieverbrauch einher. 16-Bit-Systeme arbeiten schneller als 8-Bit-Systeme, konsumieren aber auch mehr Energie. Daher können Sie durch die Wahl stromsparender Modelle die Intervalle zwischen Batteriewechseln deutlich verlängern. Bedenken Sie auch, dass die Datenübertragung per WLAN oder Mobilfunk mehr Strom benötigt als der Datenaustausch per Bluetooth oder NFC.

 

Welche Sicherheitsstandards sollte die Technik erfüllen?

Nicht alle Mikrocontroller sind gegen Malware und Angriffe über das Netz gleichermaßen gut geschützt. Wollen Sie Geräte in Ihr Firmennetz einbinden, sollten Sie die Technik daher auch unter dem Sicherheitsaspekt auswählen, um keine Einfallstore für Schadsoftware zu öffnen. Vergleichen Sie die Sicherheitsfunktionen der jeweiligen Hardware.

 

Wie robust soll die Technik sein?

Produktionssysteme stellen hohe Anforderungen an Langlebigkeit und Ausfallsicherheit. Einige im Handel verfügbare Komponenten sind eher für den Bau von Prototypen oder für den Heimanwenderbereich gedacht. Bei der Robustheit ihrer Steckverbindungen oder bei der Wärmeabfuhr im Dauerbetrieb zeigen sie hingegen Schwächen. Achten Sie daher auch auf die Qualität der verbauten Komponenten.

Viele Hersteller haben deshalb eigene Mikrocontroller-Baureihen für den industriellen Einsatz im Programm, beispielsweise Infineon mit seiner XMC-Familie oder Toshiba mit seinen Serien TXZxA+ und TXZxE+ speziell für die Maschinensteuerung.

 

Wie sieht die Ersatzteilversorgung aus?

Manche Hersteller fertigen ihre Mikrocontroller-Baureihen mit leichten Modifikationen seit über 40 Jahren, beispielsweise die Motorola mit den 68H-Abkömmlingen oder Intel mit seiner MCS-51-Familie. Auch Microchip AVR, ESP32/ESP8266 und PICmicro sind inzwischen weit verbreitet. Hier werden Sie voraussichtlich noch lange Support und Ersatzteile erhalten. Andere Mikrocontroller-Baureihen haben nur eine kurze Lebenszeit und werden nur in kleinen Stückzahlen gefertigt. Auch dies sollten Sie bei Ihrer Entscheidung berücksichtigen.

 

Wie gut sind die einzelnen Mikrocontroller für das Internet of Things geeignet?

Über entsprechende Peripherie-Bausteine können Sie heute alle verfügbaren Mikrocontroller via WLAN, GSM oder Narrowband-IoT mit dem Internet of Things verbinden. Einige Baureihen bringen die entsprechende Technik bereits auf dem eigenen Chip mit. Das reduziert den Programmieraufwand und hilft Ihnen, Ihre Baugruppen klein und schlank zu halten.

Internet of Things: So vernetzen Sie Controller

Für die Steuerung und Überwachung von Maschinen und Geräten bieten Mikrocontroller viele Vorteile. Dank ihrer Echtzeitfähigkeit sind sie sehr zuverlässig. Ihr geringer Stromverbrauch macht sie besonders für mobile Geräte und Sensoren interessant. In eingebetteten Systemen arbeiten sie immer nah an der zu überwachenden oder zu steuernden Technik. So funktionieren sie beim Edge Computing in Umgebungen mit temporär schlechter Netzanbindung auch dann noch zuverlässig, wenn es zu Verbindungsabbrüchen kommt.

Mit Mikrocontrollern als Access Points und Datenknoten können Sie aber auch bestehende Netzwerke erweitern, beispielsweise ein vorhandenes WLAN oder 5G-Campus-Netz, das die Geräte Ihres IIoT verbindet.

Mikrocontroller sind wertvolle Bausteine des Internet of Things, die sich gut mit weiteren Technologien ergänzen, etwa dem Distributed-Multi-Access-Edge-Computing, das Funktionen der künstlichen Intelligenz (KI) am Rand von Netzen bereitstellt. Mikrocontroller können hier per Mobilfunk- oder WLAN-Verbindung ihre Sensorwerte an eine Edge KI übermitteln. Diese wertet die Daten dann aus und liefert die Ergebnisse zurück an die Controller.

So kann beispielsweise ein Mikrocontroller in einem Zugangssystem Kamerabilder oder andere biometrische Daten an eine KI übertragen. Diese prüft dann, ob diese Daten zu Personen mit Zugangsberechtigung gehören. Ist dies der Fall, sendet sie eine entsprechende Freigabe an das Zugangssystem, das wiederum die jeweilige Tür öffnet.

Aber auch autonome Fahrzeuge können ihre Mikrocontroller mit eine Edge KI verbinden. So erhalten sie Informationen über Verkehr, Wetter und ihren Zustand – und können sie dann von der künstlichen Intelligenz auswerten lassen.

Ein weiteres Einsatzgebiet für Mikrocontroller ist das Energie- und Gebäudemanagement. Per Mikrocontroller können Sie Verbrauchsmessgeräte, Temperaturfühler, Infrarotkameras und andere Sensoren per WLAN oder Mobilfunk verknüpfen und Ihr IIoT für ein effizientes Energiemanagement nutzen. Damit sparen Sie Ressourcen und somit auch Kosten.

Das Internet of Things eröffnet also viele neue Anwendungsfelder für die ohnehin schon sehr vielseitige Technik der Mikrocontroller.

 

Mikrocontroller in der Übersicht

  • Mikrocontroller kommen in zahlreichen Gerätesteuerungen als Embedded Systems zum Einsatz.
  • Mikrocontroller unterscheiden sich von Mikroprozessoren, SoC und Ein-Platinen-Computern.
  • Auf dem Markt gibt es zahlreiche Baureihen von älterer, günstiger 8-Bit-Technologie bis hin zu schnellen 32-Bit-Systemen.
  • Jede Mikrocontroller-Familie hat ihre besonderen Stärken und Eigenarten.
  • Mikrocontroller sind wichtige Komponenten im Internet of Things. Über verschiedene Funk- und Mobilfunk-Standards verbinden sie sich untereinander, mit dem Firmen-Netzwerk oder der Cloud.

Quelle:

https://www.vodafone.de/business/featured/digitales-business/digitale-geschaeftsprozesse/mikrocontroller-einfache-automatisierung-im-internet-of-things/

 

Deep Learning: Wie Maschinen mit neuronalen Netzen unser Gehirn nachbilden

Mit Big Data und immer leistungsfähigeren Sensoren und Massenspeichern wächst das weltweite Datenvolumen exponentiell. Auch für Unternehmen wird es zunehmend schwieriger, ihre anfallenden Datenmengen zu sortieren und auszuwerten. Hier setzen Methoden der künstlichen Intelligenz und des Maschinenlernens an. Eine davon ist das Deep Learning.

Noch vor wenigen Jahren war allein die Vorstellung Science-Fiction: Maschinen, die in unserer Sprache mit uns kommunizieren, auf Kamerabildern Menschen erkennen oder ein Fahrzeug sicher durch den Großstadtverkehr lenken. Heute sind viele dieser Anwendungen bereits Realität: dank künstlicher Intelligenz und Deep Learning. Auch das Auswerten und Aufbereiten riesiger Datenmengen ist damit möglich.

Die Unternehmensberatung McKinsey schätzt den globalen Wertschöpfungsbeitrag der künstlichen Intelligenz (KI) bis 2030 auf bis zu 13 Billionen US-Dollar. Die Consultingfirma ist überzeugt: „KI übertrifft den jährlichen Wachstumseffekt, den seinerzeit Dampfmaschinen, Industrieroboter und die Verbreitung der Informations- und Kommunikationstechnologien erzielten.“ Doch wie funktioniert das Deep Learning per KI eigentlich und wo kommt es bereits jetzt zum Einsatz? Das und mehr lesen Sie im Folgenden.

 

Was ist Deep Learning?

Maschinelles Lernen ist die Art und Weise, wie künstliche Intelligenz neues Wissen aus Informationen gewinnt. Deep Learning ist eine bestimmte Methode des maschinellen Lernens, die hierfür künstliche neuronale Netze nutzt.

Künstliche neuronale Netze sind den Nervennetzen des menschlichen Gehirns nachempfunden. Sie bestehen aus Ebenen künstlicher Nervenknoten, die jeweils über Datenleitungen verbunden sind – so wie die Neuronen des biologischen Gehirns per Synapsen verbunden sind. Zu verarbeitende Daten wandern von Ebene zu Ebene durch das künstliche Nervennetz. Die einzelnen digitalen Neuronen enthalten mathematische Funktionen, die ankommende Daten bearbeiten und dann zur nächsten Ebene weiterleiten.

Daten wandern in der Regel immer in derselben Richtung durch das neuronale Netz. Am Anfang steht die Eingabe-Ebene (Input Layer). Von dort werden die Daten über eine oder mehrere unsichtbare Ebenen (Hidden Layers) weitergereicht, bis sie schließlich in der Ausgabe-Ebene (Output Layer) ankommen.

Von Ebene zu Ebene wächst das Abstraktionsniveau der Daten. Während die Eingabe-Ebene beispielsweise ein komplettes Foto als Muster aus Bildpunkten aufnimmt, enthält die nächsthöhere Ebene (erster Hidden Layer) nur noch Umrisse oder Bildelemente, die nach einer bestimmten Logik aus dem Bild herausgelesen wurden. Eine weitere Ebene vereint diese Elemente zu geometrischen Mustern, bis schließlich auf der Ausgabe-Ebene die Muster bestimmten Kategorien zugeordnet werden (Würfel, Quadrat oder menschliches Gesicht beispielsweise).

Der Arbeitsauftrag „Identifiziere Personen auf einem Foto“ wird somit in viele einzelne Teilschritte zerlegt und erst dadurch für den Computer überhaupt ausführbar. Die Ausgabe-Ebene enthält meist deutlich weniger Neuronen als die Input-Ebene, denn meist sollen die Daten beim Durchlauf durch das neuronale Netz aggregiert und zu wenigen, höherwertigen Informationen zusammengefasst werden. Ein Netzwerk kann auf Input-Seite Millionen Neuronen haben und auf Output-Seite nur ein einzelnes Neuron, das die einfache Information liefert: „Eingescanntes Foto enthält Gesicht eines Menschen“ mit den möglichen Ausgabewerten eins („Ja“) und null („Nein“).

Eine Besonderheit des künstlichen neuronalen Netzes ist seine Fähigkeit, Synapsen (also Datenleitungen) zwischen den Ebenen laufend so umzubauen, dass die Ergebnisse auf der Ausgabe-Ebene immer besser werden. Die künstliche Intelligenz kann diesen Umbau der Synapsen je nach Programmierung autonom durchführen. Es handelt sich hierbei also nicht um einen starren, sondern um einen selbstadaptiven (selbstanpassenden) Algorithmus: Die KI lernt durch Erfahrung.

 

Formen des maschinellen Lernens – wie der Mensch Rückmeldung gibt

Um besser zu werden, muss die künstliche Intelligenz Rückmeldungen erhalten, damit sie ihr Netzwerk stetig optimieren kann. Diese Rückmeldungen erhält das System von seinen menschlichen „Lehrer:innen“. Das können Programmierer:innen sein, aber auch entsprechend geschulte Anwender:innen. Deren Lehrverfahren unterscheiden sich je nach Abstraktion und Komplexität des Lernens:

  • Überwachtes Lernen (Supervised Learning): Bei jedem Durchgang erhält die künstliche Intelligenz das Eingabemuster und ein optimales Ergebnismuster als Trainingsdaten. Datenquelle kann beispielsweise eine Bilderdatenbank sein, deren Einzelbilder alle schon das Ergebnis der jeweiligen Bildanalyse im Dateinamen tragen („Bild Mensch“, „Bild Auto“, „Bild Haus“). Die KI lernt damit, Ein- und Ausgaben zu assoziieren und dabei Gesetzmäßigkeiten zu finden. So sammelt die künstliche Intelligenz etwa die Erfahrung, dass das Objekt Auto eine Karosserie und Räder besitzt und sich auf einem Untergrund befindet, also nicht fliegen kann (Lernen durch Generalisierung). Damit optimiert die KI ihr neuronales Netzwerk beim überwachten Lernen. Nach dem erfolgreichen Training kann sie mit realen Daten arbeiten. Ihre Analyse-Ergebnisse werden sich bei diesem Lernverfahren allerdings in einem erwartbaren Rahmen bewegen und nicht wesentlich über die trainierten Zuordnungen hinausgehen (“Dieses Bild gehört in diese Namenskategorie.”). Sie erkennt also, dass ein Bild beispielsweise einen Menschen zeigt. Sie wird aber nicht lernen, selbst weitere Kategorien zu definieren oder Unterkategorien zu bilden (beispielsweise Autos mit bestimmten Eigenschaften oder Menschen, die vor Häusern stehen). Dafür ist ihr Training zu speziell auf die eine ihr bekannte Aufgabe zugeschnitten. Ihre Intelligenz und ihr Wissen reichen nicht darüber hinaus. Kurz: Es fehlt eine erlernte Fähigkeit zum Transfer.
  • Bestärkendes Lernen (Reinforcement Learning): Hier erhält die KI nur Eingabemuster, aber keine ideale Lösung für jeden einzelnen Durchgang. Stattdessen wird die KI (auch als Agent bezeichnet) für das fehlerfreie Abarbeiten eines gesamten Datensatzes belohnt. Dies kann geschehen, indem verschieden optimierte Agenten einer KI gegeneinander oder gegen einen Menschen antreten. Der Agent, der hierbei den Sieg erringt, wird belohnt, indem seine neuronale Struktur weitervererbt wird. Dieses Lernverfahren ist deutlich aufwendiger und langwieriger als das überwachte Lernen. Da hierbei bewusst keine optimalen Lösungen für jeden einzelnen Durchgang vorgegeben werden, kann die KI im Idealfall aber auch bessere Lösungen finden als die Lehrer:innen selbst.
  • Unüberwachtes Lernen (Unsupervised Learning): Die KI erhält nur noch Eingabemuster, aber keinerlei Rückmeldung von den Lehrer:innen. Die künstliche Intelligenz versucht eigenständig, in den vorliegenden Daten Muster zu erkennen, ohne zu wissen, welche Art von Mustern sie überhaupt finden könnte. Diese Lernform ist dem natürlichen, biologischen Lernen am ähnlichsten. Denn auch Menschen wissen beispielsweise vor dem Ansehen eines Bildes nicht, welche Inhalte sie darauf erkennen werden und welche Erfahrungen sie aus dem vielfachen Betrachten von Bildern gewinnen könnten. Die KI kann bei diesem Lernverfahren Muster oder Gesetzmäßigkeiten finden, die ihr zuvor noch nicht bekannt waren. Eine solche KI könnte beispielsweise in einem Set von Bestelldaten mit zunehmender Erfahrung Auffälligkeiten bei Kundenpräferenzen entdecken oder Vorhersagen über zukünftige Zahlungsausfälle bestimmter Kundentypen treffen. Ein typisches Einsatzgebiet für unüberwachtes Lernen ist die Fraud Detection: Künstliche Intelligenz analysiert Firmendaten und entdeckt schneller als der Mensch Spuren von Betrug durch winzige Auffälligkeiten und Abweichungen in Geschäftsvorgängen, die vorher nie auffällig schienen.

Warum Deep Learning so bedeutsam ist: Die wichtigsten Anwendungsfelder

Deep Learning als Form des maschinellen Lernens kommt dort zum Einsatz, wo die Regeln einer gestellten Aufgabe sehr komplex und schwer in mathematische Gesetzmäßigkeiten zu fassen sind. Hierzu zählen beispielsweise die Erkennung von Handschriften, Aufgaben im Bereich der Marktanalyse und das Einordnen von Bildinhalten in abstrakte Kategorien. Insbesondere dort, wo es nur wenige Informationen über zu erwartende Ergebnisse gibt, kann eine KI neue, unerwartete Erkenntnisse liefern. Vor allem wenn sie mit unüberwachtem Lernen geschult wurde.

Übersetzung und Spracherkennung: Mit der zunehmenden Verbreitung von Sprachsteuerung und digitalen Assistenten wie Siri, Alexa und Google Assistant kommt der Spracherkennung per KI wachsende Bedeutung zu. Dabei muss die künstliche Intelligenz aus gesprochener Sprache eindeutige Sinnzusammenhänge und Sprachbefehle herausfiltern und anschließend ihre eigene Antwort in menschliche Sprache zurückübersetzen und dabei deren Syntax und Satzbau berücksichtigen. Solche Systeme sind häufig als Software as a Service oder Function as a Service ausgelegt, wobei der Anbieter seine Sprach-KI fortlaufend zentral trainiert.

Als Kund:in mieten Sie dann zum Beispiel fallweise die Funktion der Spracherkennung, um den Avatar Ihres Shopsystems mit Ihren Kund:innen sprechen zu lassen. In weiteren Ausbaustufen kann die Software auch in verschiedenen Sprachen mit Ihren Websitebesucher:innen kommunizieren oder Dialoge zwischen Ihren Servicemitarbeiter:innen und Ihren Kund:innen simultan dolmetschen. Oder Sie setzen die KI ein, um Ihr neues Produktportfolio Geschäftspartner:innen aus anderen Ländern vorzustellen – und zwar per Videokonferenz in der jeweiligen Landessprache.

Bilderkennung: Die Bild- und Mustererkennung ist besonders vielfältig einsetzbar. Das Aufgabengebiet reicht von der Vorhersage von Wetterphänomenen auf Basis von Satellitenkarten über die Gesichtserkennung am Firmentor bis hin zur KI, die alte Schwarz-Weiß-Filme nachkoloriert. Viele Anwender:innen nutzen im Alltag täglich die Bilderkennung, wenn beispielsweise die Smartphone-Kamera automatisiert auf Fotos Gesichter erkennt oder das Handy per Gesichtserkennung entsperrt wird. Aber auch die Auswertung von Fotos von Materialproben fällt in diese Disziplin.

Ein besonderes Verfahren hierbei ist das sogenannte Deep Residual Learning (zu Deutsch etwa: Lernen mit Restwerten). Hierbei blendet die KI einzelne Inhalte oder Ebenen ihres neuronalen Netzes gezielt aus und arbeitet nur noch mit den verbleibenden Restwerten. So kommt sie zum einen deutlich schneller zu Ergebnissen und kann zum anderen bestimmte Fehlertypen, die sich über zu viele Abstraktionsschritte aufsummieren würden, wirksam ausschließen.

An der Ruhr-Universität Bochum helfen KI-Agenten, indem sie Röntgenbeugungsdaten und Kristallstrukturen verschiedener Werkstoffe auf mögliche neue Eigenschaften hin analysieren. Aber auch autonome Transportfahrzeuge in größeren Fabrikanlagen nutzen KI und Bilderkennung.

Autonomes Fahren: Expert:innen sind sich einig, dass es ohne KI kein autonomes Fahren im öffentlichen Raum geben kann. Für den vollautomatisierten Fahrbetrieb wird künstliche Intelligenz darauf trainiert, sich sicher und unfallfrei fortzubewegen. Möglich wird ein solches autonomes Fahren erst durch die Beobachtung des Umfeldes und den gleichzeitigen Informationsaustausch mit anderen Fahrzeugen per Machine-2-Machine-Kommunikation. Nur dann kann sich das Fahrzeug zügig auf der idealen Route fortbewegen und zugleich Staus vermeiden. Bei Mercedes-Benz heißt es hierzu: „Durch Deep Learning werden Fahrzeuge ‚lernen‘, ihre Umwelt zu verstehen. Mit der Cloud verbunden, entwickeln sie sich so zu einem anpassungsfähigen Co-Piloten, der innerhalb und außerhalb des Fahrzeugs permanent Sicherheit und Komfort seiner Insassen im Auge hat.“

Internet of Things (IoT): Im Netzwerk der Dinge fallen sehr große Datenmengen an, die von Menschen oder von einfachen Suchalgorithmen längst nicht mehr allein ausgewertet und strukturiert werden können. Ein Beispiel sind die Bilddaten mehrerer Kameras auf einem Firmengelände, die alle auf einen zentralen Server streamen. Künstliche Intelligenz clustert derartige Massendaten nach Sinnzusammenhängen und gewinnt aus Big Data über Zwischenschritte Smart Data, also höherwertige Daten. Diese Daten können Sie wiederum zur Optimierung der zugrunde liegenden Prozesse nutzen. Im Fall der Kameras etwa sammelt die KI aus den vielen Bildinhalten nur die Informationen, welche Personen sich zu welcher Zeit wo aufgehalten haben. Bei einer per Kamera überwachten Fertigungsstraße behält die KI nur solche Aufnahmen, bei denen sie Auffälligkeiten festgestellt hat, und leitet diese an das Qualitätsmanagement weiter. Erkennt sie Spuren von Verschleiß an der Anlage, sendet sie einen Hinweis an die Wartungsabteilung, dass diese Maschine möglicherweise bald ausfallen könnte (Predictive Management).

Deep Learning: Algorithmen für die Mustererkennung

Die Mustererkennung per neuronalem Netzwerk gehört zu den klassischen Einsatzgebieten des Deep Learning. Hierfür gibt es verschiedene Algorithmen sowie Fachbegriffe, die die Anwendung dieser Algorithmen beschreiben:

Transfer Learning

Beim Transfer Learning wird das digitale Wissen einer KI auf verwandte Einsatzgebiete übertragen. Eine KI, die gelernt hat, Gesichter wiederzuerkennen, kann dank Transfer Learning beispielsweise dafür eingesetzt werden, auch andere biometrische Daten in einer Zugangskontrolle zu erkennen.

Merkmalsextraktion

Die Merkmalsextraktion (Feature Extraction) ergibt sich aus der Unterscheidung der KI zwischen im Sinne der Aufgabe wichtigen und unwichtigen Eigenschaften eines Musters. Eine künstliche Intelligenz, die Lastwagen auf den Bildern einer Verkehrskamera identifizieren soll, wird zum Beispiel lernen, die Umrisse von Lkw wiederzuerkennen (wichtige Merkmale) und weiterzuverarbeiten, aber beispielsweise die Farben von Werbetexten auf Anhängern (unwichtige Merkmale) zu ignorieren.

Backpropagation

Ein Backpropagation-Algorithmus kommt speziell beim überwachten Lernen zum Einsatz. Hierbei wird zuerst ein Muster durch das neuronale Netzwerk geführt (propagiert). Anschließend wird die Ausgabe des Netzwerks mit einer zuvor bereits bekannten, optimalen Lösung für dieses Muster verglichen. Mit Blick auf die Abweichungen von der Ideallösung durchläuft das Muster nun das neuronale Netzwerk in umgekehrter Richtung (sogenannte Backpropagation). Dabei erfolgt eine Neugewichtung der einzelnen Neuronenverbindungen: Verbindungen, die maßgeblich zur Entstehung des Fehlers beigetragen haben, werden geschwächt oder ganz gelöscht.

Führt beispielsweise eine bestimmte Lichtquelle in Bildern von Überwachungskameras häufig zu falsch erkannten Mustern, gewichtet die KI zukünftig Bildinhalte, die von speziell dieser Lichtquelle beleuchtet werden, als weniger wichtig für das Gesamtergebnis: Sie schwächt also die zugehörigen Knoten im Netzwerk.

Neuronen-Modellierung

Jedes künstliche Neuron besteht wie das Neuron eines menschlichen Gehirns aus mehreren Komponenten, ist allerdings deutlich einfacher strukturiert. Das künstliche Neuron hat eine Eingangsseite, auf der Eingabedaten oder Daten vom vorherigen Layer eintreffen. Diese unterschiedlichen Daten werden jeweils einzeln gewichtet und dann mathematisch zu einem Wert zusammengefasst. Dies geschieht in der Übertragungsfunktion.

Diese Funktion gibt den zusammengefassten Zahlwert als sogenannte Netzeingabe an die Aktivierungsfunktion weiter. Nur wenn dieser Zahlwert einen bestimmten Schwellwert überschreitet, gibt die Aktivierungsfunktion einen Impuls an die nächste Ebene des neuronalen Netzes (“Aktivierung”). Andernfalls „schweigt” sie bei diesem Durchgang.

Aktivierungsfunktionen

Die Aktivierungsfunktion eines Neurons gibt üblicherweise nicht einfach den erhaltenen Zahlwert an die nächste Ebene weiter, sondern bearbeitet diesen Wert zuerst mittels einer mathematischen Funktion. Ein Teilgebiet der KI-Forschung befasst sich mit dem Finden der idealen Funktion für diese Aufgabe. Heutige neuronale Netze verwenden Aktivierungsfunktionen wie die Sigmoidfunktion oder die Hyperbelfunktion. Seit dem Jahr 2000 ist die Rectified Linear Unit (ReLU) die beliebteste KI-Funktion.

Jede Funktion hat dabei andere Stärken und Schwächen. Die ReLU-Funktion ist beispielsweise gut geeignet für die schnelle Annäherung (Konvergenz) an gewünschte Ergebnisse. Sie kann bei sehr vielen Lerndurchläufen aber auch zum sogenannten Dying ReLU-Problem (Neuronensterben) führen. Das geschieht, wenn immer mehr Neuronen eines Netzes auf der Übertragungsseite nur noch negative Zahlwerte erhalten und somit nicht mehr aktiviert werden.

Die Bedeutung neuronaler Faltungsnetzwerke (CNN)

Faltungsnetzwerke heißen auch Faltungsneurale Netzwerke (Convolutional Neural Network). Sie sind eine Methodik der Musterverarbeitung, etwa bei Fotos. Hierbei werden alle Pixel eines Eingangsmusters nacheinander mit einer mathematischen Funktion verknüpft („gefaltet“). Die hierbei entstehenden Convolutional Layer (Einzelbilder) werden dann zu einer neuen Bildebene (Pooling Layer) zusammengefasst, wobei ein Großteil der zuvor in den einzelnen Layern enthaltenen Informationen als unwichtig verworfen wird.

Vereinfacht gesagt legt die KI mit diesem Verfahren einen Bildbearbeitungsfilter über das Foto, der bestimmte Strukturen herausarbeitet und verstärkt. Dieser Prozess kann innerhalb eines neuronalen Netzes beliebig oft wiederholt werden. Wie das gesamte neuronale Netz ist auch diese Methode eine Imitation biologischer Vorgänge im menschlichen Gehirn, hier speziell in der Sehrinde. Im Ergebnis erkennt die KI durch dieses Verfahren Strukturen besser, so wie auch das menschliche Gehirn in einem beliebigen Muster bestimmte auffällige Strukturen schnell hervorheben und identifizieren kann.

 

GPU als KI-Beschleuniger

Grafikprozessoren (Graphics Processing Units, kurz: GPU) unterstützen die Hauptprozessoren von Computern bei der immer komplexeren Bildausgabe, beispielsweise in 3D-Computerspielen. Es hat sich gezeigt, dass diese GPU auch für andere Aufgaben sehr gut geeignet sind, etwa für das Errechnen von digitaler Währung (Bitcoin Mining). Auch die KI-Forschung greift mittlerweile auf GPU-Cluster zurück und erledigt damit besonders rechenintensive Aufgaben in immer kürzerer Zeit. Entsprechend gehören Grafikkartenspezialisten wie Nvidia heute zu den Hauptlieferanten von KI-Hardware.

Frameworks und Programmiersprachen im Deep-Learning-Umfeld

Für die Entwicklung von neuronalen Netzwerken und ganz allgemein für das Maschinenlernen gibt es mittlerweile eine Vielzahl von Frameworks und Programmiersprachen. Sie möchten sich selbst mit Deep Learning befassen und suchen die richtige Sprache und Programmierumgebung? Hier stellen wir Ihnen einige beliebte Kombinationen vor:

Python

Python ist sehr vielfältig und unterstützt unterschiedliche Programmierparadigmen. Auch deshalb ist Python die wahrscheinlich meistgenutzte Programmiersprache für von Grund auf selbst gecodete KI-Anwendungen. Hierfür gibt es eine große Anzahl an Machine-Learning- und Deep-Learning-Frameworks. Der leicht verständliche Programmierstil ist für Einsteiger:innen ideal. Entsprechende Programmierbibliotheken für die Auswertung großer Datenmengen (Big Data) sind vorhanden.

PyTorch

Schon der Name lässt es erahnen: PyTorch ist ein Deep-Learning-Framework für die Programmiersprache Python, das auf der bekannten Torch-Bibliothek basiert. Zwar funktioniert es auch mit C, doch KI-Entwickler:innen geben beim Thema künstliche Intelligenz mehrheitlich Python den Vorzug. PyTorch ist Open-Source-Software und wurde von Facebook entwickelt, dessen Entwickler:innen für das geplante Metaversum selbst an KI-Anwendungen feilen. Gut: PyTorch funktioniert auch auf mobilen Plattformen wie Android und iOS.

Keras

Das Framework Keras für Python ist für die Erstellung neuronaler Netzwerke optimiert. Auch die Keras-Macher:innen sind um eine möglichst einsteigerfreundliche Gestaltung bemüht. Die Software ist als Open-Source-Bibliothek angelegt und wird somit von einer weltweiten Gemeinschaft engagierter Informatiker:innen stetig weiterentwickelt.

TensorFlow

TensorFlow ist ebenfalls ein Open-Source-Framework für das Deep Learning mit Python. Aktuell dürfte es für diesen Einsatzzweck das meistgenutzte Framework sein, noch vor PyTorch und Keras. Das ist nicht zuletzt seiner prominenten Herkunft aus dem Google-Universum zu verdanken, von wo es 2015 in die kostenfreie Nutzung entlassen wurde. Auch Google selbst verwendet die Technologie für Google Search, Gmail und die Google-Spracherkennung. Die Kombination von TensorFlow mit C++ ist ebenfalls möglich, aber für KI-Themen weniger relevant.

Deep Learning Toolbox Matlab

Das Deep-Learning-Framework von den Matlab-Macher:innen bei MathWorks ist für die Entwicklung und Implementierung tiefer neuronaler Netze auch mit vortrainierten Modellen und Apps gedacht. Sie können es beispielsweise mit neuronalen Faltungsnetzwerken sowie LSTM-Netzen (Long Short-Term Memory) verwenden. Die Toolbox bietet Transferlernen mit DarkNet-53, ResNet-50, NASNet, SqueezeNet und weiteren vortrainierten Modellen.

MXNet

Apache MXNet ist ein Open-Source-Framework für das Deep Learning. Es ist leicht skalierbar und besticht besonders durch die Vielfalt der unterstützten Sprachen wie Python, C++, Java, JavaScript, Go, R und Perl. Wie am Namen der Software zu erkennen ist, steht dahinter die Non-Profit-Organisation Apache Software Foundation, die vielen Anwender:innen durch die Apache-HTTP-Server bekannt ist.

R

Die Programmiersprache R ist als Statistiksprache weltweit bekannt und geschätzt. Insofern ist der Einsatz im Bereich künstlicher Intelligenz nicht ungewöhnlich. Schließlich gibt es zwischen beiden Themengebieten große Überschneidungen. Die Sprache wird als Open-Source-Software für Windows, Linux und macOS angeboten. R funktioniert mit dem weiter oben erwähnten Framework TensorFlow. Aber auch mit Microsofts Cloud-Plattform Azure, dem Service Watson Machine Learning von IBM und der Oracle-Cloud Free Tier lassen sich KI-Anwendungen unter R erstellen.

Deep Learning: Zukunftstechnologie im KI- und IoT-Umfeld

  • Deep Learning ist eine Form des Maschinenlernens, durch die KI Muster oder Sprachen erlernen oder beim autonomen Fahren die Umgebung überwachen kann.
  • Per Deep Learning geschulte Systeme sind in der Lage, auch große Datenmengen, wie sie im Internet of Things entstehen, sinnvoll zu strukturieren und zu vereinfachen.
  • Bereits heute kommen KI und Deep Learning auf vielen Anwendungsgebieten zum Einsatz, etwa in der Spracherkennung und in der Smartphone-Fotografie.
  • Je nach angewandtem Lernverfahren kann KI beim Deep Learning sehr schnell trainiert werden oder aber so angelegt sein, dass die künstliche Intelligenz auch übergeordnete Regeln erkennt, die selbst ihren menschlichen Lehrer:innen zuvor nicht bekannt waren.
  • Die Forschung zur künstlichen Intelligenz arbeitet an der permanenten Verbesserung der KI-Algorithmen, beispielsweise durch die Weiterentwicklung der in den Neuronen verwendeten Funktionen.
  • Für die Arbeit mit künstlicher Intelligenz gibt es bereits zahlreiche Programmiersprachen und Frameworks sowie vorkonfektionierte neuronale Netzwerke, die individuell modifiziert werden können. Viele der angebotenen Sprachen und Frameworks sind als Open-Source-Software verfügbar.

Quelle:

https://www.vodafone.de/business/featured/technologie/deep-learning-wie-maschinen-mit-neuronalen-netzen-unser-gehirn-nachbilden/

Was ist Serverless Computing?

Serverless Computing ist wie IaaS (Infrastructure as a Service), PaaS (Platform as a Service) und SaaS (Software as a Service) eine spezifische Art des Cloud-Services. Es beschreibt die Bereitstellung von Backend-Diensten (Datenverarbeitung im Hintergrund von Webanwendungen) auf Grundlage der tatsächlichen Nutzung. Im Gegensatz zu anderen Services basiert das Prinzip nicht auf einer fest gemieteten Bandbreite, Speicherkapazität oder Rechenleistung. Unternehmen zahlen lediglich für den Umfang der genutzten Webanwendungen. 

Serverless Computing bedeutet im Unterschied zur wörtlichen Übersetzung nicht, dass für die jeweilige Anwendung kein Server benötigt wird. Stattdessen betreiben Anbieter die Server für Nutzer:innen und nehmen ihnen dabei sämtliche Aufgaben ab, die damit einhergehen. Dadurch können sich zum Beispiel Entwickler:innen ganz auf die Programmierung und Bereitstellung ihres Codes konzentrieren. Die „Serverlosigkeit” auf Kundenseite wird also wie so vieles im Cloud-Umfeld durch Abstraktion und Virtualisierung hergestellt.

Wir erklären, wie Serverless Computing funktioniert und welche Vorteile es Ihrem Unternehmen bringen kann.

 

Was ist Serverless Computing?

Wollten Unternehmen in der Vergangenheit Webanwendungen nutzen, mussten sie zunächst entsprechende Geräte wie zum Beispiel Server anschaffen. Das war teuer und brachte oft erheblichen Personal- und Materialaufwand mit sich. Die meisten Cloud-Dienste ersparen Unternehmen diese Investitionen. Deren Entwickler:innen können sich vor allem auf ihre Kernaufgaben konzentrieren, anstatt sich immer wieder mit der Verwaltung und Pflege von IT-Strukturen zu beschäftigen.

Aber auch die Administration und Konfiguration von Serverstrukturen sowie die korrekte Funktion von Backend-Diensten für Webanwendungen kostet Unternehmen wertvolle Entwicklungszeit und verzögerten mitunter Projekte. Serverless Computing nimmt Entwickler:innen diese lästigen Verwaltungsaufgaben komplett ab. Konfigurierte Server und modulare Angebote zur Entwicklung eigener Backends für Webanwendungen stehen beim Serverless Computing jederzeit bereit. Lediglich die Geschäftslogik und die Verwaltung des Datenbestands von Unternehmen fallen weiterhin unter deren Hoheit.

Dazu zählen:

  • Bereitstellung von theoretisch unbegrenzter Rechen- und Speicherkapazität in der Cloud
  • Konfiguration und Administration der Server-Infrastruktur
  • Wartung des Betriebssystems (zum Beispiel durch Patches, Updates usw.)
  • Bereitstellung leistungsfähiger Anwendungen und Funktionsmodule zur Backend-Entwicklung
  • Skalierung aller benötigten Ressourcen je nach Leistungsbedarf (unter anderem Speicher, Netzwerk, Laufzeitumgebungen)

Entwickler:innen laden also lediglich ihren Code in die Cloud und können sofort damit beginnen, ihn mithilfe der angebotenen Backend-Tools zu testen oder ihn Nutzer:innen im Frontend einer Webanwendung zur Verfügung zu stellen.

Wie ist Serverless Computing aufgebaut? 

Serverless Computing unterteilt die Backend-Architektur für Anwendungen als kombiniertes Cloud-Service-Modell in Funktionsbereiche. Jeder einzelne davon führt eine andere Aufgabe innerhalb der Anwendung aus und kann individuell gestartet oder gestoppt werden.

Innerhalb der Architektur von Serverless Computing unterscheidet man grundlegend zwei Bereiche:

  1. Function-as-a-Service (FaaS): Dieses verhältnismäßig neue Konzept ähnelt dem Dienst Software-as-a-Service (SaaS). Es stellt Entwickler:innen die Möglichkeit zur Verfügung, einzelne Funktionen für Webanwendungen auf einfache Weise zu mieten oder zu generieren. Sie erstellen ihren Code dabei nach wie vor eigenständig und laden ihn modular in zustandslose (stateless) Instanzen, die ihnen der Anbieter zur Verfügung stellt. Diese Funktionen starten und stoppen auf einzelne Ereignisse (Events) hin.
  2. Backend-as-a-Service (BaaS): Diese Entwicklungsumgebungen erlauben Entwickler:innen, im Browser eigene Backends für Webseiten und -anwendungen zu erstellen. Der Service stellt Module und standardisierte Funktionen zur Verfügung, die häufig bei der Verwaltung von Webseiten zur Anwendung kommen. Gleichzeitig hosten die Anbieter auch das Backend. Dieses können die Entwickler:innen nach der Erstellung mit einem gewöhnlichen Webbrowsers aufrufen und konfigurieren.

Die wichtigste Eigenschaft der aus diesen Services bestehenden Serverless-Architektur ist die Skalierbarkeit: Anwendungen des Serverless Computing passen sich automatisch der Zahl der Nutzer:innen und der damit einhergehenden Last an. Funktionen werden nur nach Bedarf gestartet – werden sie nicht benötigt, kommt es auch nicht zur Ausführung. Unternehmen zahlen dabei lediglich die tatsächlich genutzte Rechen- und Speicherkapazität und keine pauschalen Gebühren wie bei anderen Cloud-Services.

Backend-Dienste für Serverless Computing

Serverless Computing stellt innerhalb der oben geschilderten Architektur Backend-Dienste nach dem FaaS-Prinzip bereit. Diese können Funktionsmodule umfassen, die entweder von Programmier:innen erstellt oder vom Service-Provider angeboten werden. Sie können durch Edge Computing zudem an den Rand des lokalen Netzwerks ausgelagert werden, um Rechenleistung und Bandbreite bei der Verbindung zur Cloud einzusparen. Häufig angewendete Funktionen sind zum Beispiel Datenbank- und Speicherdienste für Daten von Kund:innen.

 

Zusätzliches Sicherheitskonzept

Daneben muss Serverless Computing gegenüber klassischen Webanwendungen ein weiteres Sicherheitskonzept berücksichtigen: Während ersteren eine singuläre Prüfung der Sicherheitsregeln für Benutzer:innen genügt, reicht dies bei Serverless-Computing-Anwendungen nicht aus. Dort benötigt jede modulare und zustandslose Funktionseinheit eine separate Authentifizierung, die durch entsprechende Dienste innerhalb der Anwendung zur Verfügung gestellt werden muss.

Die Überprüfung ist bei jedem Start einer funktionalen Einheit notwendig, findet also im Verlauf einer einzelnen Session von Benutzer:innen recht häufig statt. Ein API-Gateway kann als Management-Tool diese Sicherheitsabfragen übernehmen und gewissermaßen als „Tür” zwischen der Anwendung und dem Backend dienen. Das Gateway wandelt Anfragen der Nutzer:innen in authentifizierte Events um und sendet sie an die funktionalen Einheiten, die daraufhin starten.

Serverless Computing im Vergleich zu anderen Cloud-Services

Serverless Computing weist als integriertes Angebot mit verschiedenen Ebenen Unterschiede zu singulären Cloud-Services auf:

  • Function-as-a-Service (FaaS) besteht aus zustandslosen, ereignisgesteuerten, skalierbaren und serverseitigen Funktionen, die vollständig vom Anbieter verwaltet werden. Einzig die Daten und die Geschäftslogik verwalten Nutzer:innen selbst. FaaS wird oft mit Serverless Computing gleichgesetzt, hält als singulärer Service allerdings lediglich einzelne Funktionen und keine kompletten Anwendungen oder ein Backend-Hosting bereit.
  • Backend-as-a-Service (BaaS) bietet Module für das komplette Backend von Webanwendungen an. Das Backend kann dabei allerdings nicht individuell skaliert werden. Beim Serverless Computing wird es hingegen in Kombination mit FaaS in kleinere Blöcke unterteilt, die nach Bedarf ausgeführt und beendet werden.
  • Software-as-a-Service (SaaS) bedeutet, dass Sie eine einzelne Software-Lösung oder ein Software-Paket bei Ihrem Cloud-Anbieter auf Zeit mieten, anstatt regelmäßig neue Lizenzen oder Updates zu kaufen (zum Beispiel ein Office-Paket).
  • Platform-as-a-Service (PaaS) stellt Entwickler:innen wie beim Serverless Computing Server, Ressourcen und eine Umgebung für ihre Arbeit zur Verfügung. PaaS ist dabei aber weniger leicht skalierbar: Die Anwender:innen müssen die Skalierung beziehungsweise ihren Bedarf gewöhnlich bereits im Voraus (grob) planen.
  • Infrastructure-as-a-Service (IaaS) bietet Hardware, Speicher, Rechenleistung und Netzwerkressourcen. Diese können nach Umfang oder genutzter Zeit gemietet werden und sind häufig frei skalierbar. Konfiguration und Verwaltung der darauf installierten Software obliegt dabei den Nutzer:innen.

Anwendungsbereiche von Serverless Computing

Serverless Computing wird für Unternehmen immer wichtiger, die Aufwand und Kosten für Ihre Webanwendungen minimieren möchten. Dessen Funktionen kommen vor allem in zwei Bereichen zum Einsatz:

  1. Bei der Übermittlung von Ereignissen und Daten zwischen Services: Darunter fällt zum Beispiel die Zerlegung und Umwandlung einer Eingabe in ein für die Weiterverarbeitung nutzbares Format (sogenanntes Parsing).
  2. Bei der Entwicklung einer API zu einem konkreten Zweck: Diese in sich geschlossenen Schnittstellen oder kleinere Services stehen Unternehmen zur Verfügung, um damit singuläre Funktionen einer Webanwendung zu starten. Dabei müssen sie sich keine Sorgen um die Skalierung oder langfristige Kosten machen: Während die Skalierung durch den Provider erfolgt, entstehen Kosten lediglich bei dem konkreten Aufruf des Services.

Resultierend daraus kann Serverless Computing unter anderem bei folgenden Anwendungen eingesetzt werden:

  • Web-Applikationen (skalierbare Anwendungen für Benutzer:innen)
  • API-Backends (Zusammenführung der Services einer Anwendung in einem Backend)
  • Microservices (unter anderem Zahlungsverarbeitung, Netzwerk- und Messagingdienste)
  • Datenverarbeitung (zum Beispiel Text-, Bild-, Video- und Audiobearbeitung bei großen, unregelmäßig eingehenden Dateien)
  • Stream-/Batch-Verarbeitung (unter anderem App-Protokolle, IoT-Sensoren, Finanzdaten)
  • Customer Relationship Management (CRM) (beispielsweise Chatbots, Email- oder Anruffunktionen)

Vorteile von Serverless Computing

Serverless Computing bietet für den Einsatz in Ihrem Unternehmen viele Vorteile. Diese bestehen letztlich vor allem in der Einsparung betrieblicher Ressourcen sowie einem Zeitgewinn gegenüber herkömmlichen Backend-Diensten. Serverless eignet sich vor allem bei schwankendem Workload hervorragend für den Betrieb Ihrer Webanwendungen.

Die wichtigsten Vorteile von Serverless Computing sind:

  • Niedrige Investitionen: Sie müssen nicht in teure Server und weitere Hardware investieren, deren Kapazitäten Ihr Unternehmen vielleicht nur zum Teil ausschöpft.
  • Keine Server-Verwaltung: Ohne eigene Hardware ist auch keine Konfiguration, Administration und Wartung notwendig. Dies spart Ihnen zusätzliches Personal und Ressourcen (wie zum Beispiel Strom) ein.
  • Hohe Sicherheit: Regelmäßige Updates und Patches durch den Service-Provider garantieren Ihnen größtmögliche Sicherheit für Ihre Geschäftsdaten.
  • Automatische Skalierung: Serverless Computing skaliert die erforderliche Rechen- und Speicherkapazität auch bei Lastspitzen flexibel auf Ihre Bedürfnisse.
  • Pay-on-demand: Die Abrechnung erfolgt ausschließlich nach tatsächlich ausgeführtem Code. Sie zahlen statt pauschaler Beträge nur die Gebühren für die von Ihnen genutzten Kapazitäten.
  • Zeitgewinn: Die Konfiguration und Wartung von Servern wird auf ein Minimum reduziert. Ihre Entwickler:innen haben mehr Zeit für die Entwicklung und Verbesserung neuer oder bestehender Anwendungen.

Herausforderungen für Entwickler:innen 

Serverless Computing klingt in der Theorie perfekt für die Arbeit von Programmierer:innen, doch in der Praxis müssen sie einige Herausforderungen bewältigen.

Der Service setzt funktionale Einheiten für Anwendungen voraus, deren Laufzeit möglichst kurz ausfallen sollte. Nur so ist eine schnelle Kommunikation zwischen Client (Nutzer:innen der Anwendung) und Server gewährleistet. Der Provider führt automatisch für jede Anfrage eine neue Instanz der funktionalen Einheit aus, angepasst an die aktuelle Auslastung.

Bei zustandslosen (stateless) Anwendungen erfolgt dies problemlos. Viele Webanwendungen sind jedoch zustandsorientiert (stateful) aufgebaut und müssen zum Beispiel auf Datenbanken zugreifen oder Daten darin speichern. Die Logik der Workflows verschiebt sich dabei hin zum Client – erst recht bei der Nutzung von Single Page Applications (SPA). Diese Einzelseiten-Webanwendungen laden Inhalte dynamisch nach und verstärken die Last noch.

Ein Beispiel dafür ist der Warenkorb in einem Online-Shop: Die Anwendung merkt sich den Inhalt des Warenkorbs und auch nach einem erneuten Laden der Seite bleiben dessen Einträge erhalten. Soll dies im Rahmen des Serverless Computings erfolgen, müssen die Anwendungen entsprechend angepasst werden.

Wie bei anderen Cloud-Services, bei denen die Anwender:innen viele Aufgaben an den Service-Provider übertragen (wie zum Beispiel bei PaaS), ergeben sich auch beim Serverless Computing mögliche Nachteile aus diesem Prinzip:

  • erschwertes Debugging: Die Wartung und Fehlerbehebung innerhalb der angebotenen Module ist von Seiten der Anwender:innen schwierig bis unmöglich. Tiefere Einblicke in die Backend-Prozesse (z.B. mit Debugger-Programmen) bleiben meist verwehrt.
  • aufwendiges Logging: Die ganzheitliche Protokollierung der Softwareprozesse wird durch die Modularisierung der einzelnen Funktionen erheblich komplexer.
  • umständliches Monitoring: Auch die Nachvollziehbarkeit und Auswertung der Logdaten gestaltet sich aufwendiger.
  • Kontrollverlust: Während Anwender:innen große Kontrolle und Möglichkeiten zur Individualisierung einzelner FaaS-Komponenten innerhalb ihres Backends besitzen, geben sie die Kontrolle über alle vom Anbieter betriebenen Komponenten komplett ab. Ähnlich wie bei PaaS kann sich dieser Vorteil schnell in einen Nachteil verwandeln, wenn die Infrastruktur, auf denen Serverless Computing betrieben wird, nicht ordnungsgemäß arbeitet.
  • Abhängigkeit vom Provider: Durch die Abgabe der Kontrolle über die Infrastruktur sind Anwender:innen nahezu vollständig vom Support der Anbieter von Serverless Computing abhängig.

Generell gilt: Serverless Computing ist eine leistungsstarke Alternative für Ihre Webanwendungen, wenn Sie Zeit und Kosten sparen wollen. Seine Stärken spielt diese Art von Cloud-Service vor allem bei schwankender Nachfrage von Nutzer:innen und ungleichmäßigen Workload aus. Sind die Webanwendungen Ihres Unternehmens hingegen eher gleichbleibend und auf einem hohen Niveau ausgelastet, empfiehlt sich eher ein anderer Cloud-Service auf PaaS-Basis ohne FaaS-Module.

Quelle:

https://www.vodafone.de/business/featured/technologie/was-ist-serverless-computing/

Was ist und wie funktioniert die IBM Cloud?

Das Thema Cloud-Lösungen gehört auch 2022 zu den Kernthemen in der modernen Wirtschaft. Viele Systeme arbeiten nach sehr ähnlichen Prinzipien. Doch es gibt auch Unterschiede. Die IBM Cloud unterscheidet sich zum Beispiel deutlich von anderen Cloud-Systemen. Denn hier stehen maßgeschneiderte Angebote für die unterschiedlichsten Anforderungen im Vordergrund. Diese Angebote sind auch einzeln buchbar und damit sehr flexibel nutzbar.

Die IBM Cloud ist ein Sammelbegriff für unterschiedliche IT-Services und -Infrastrukturen. Sie ermöglichen es, Daten plattformunabhängig auszutauschen und zu speichern. Der Begriff „Cloud“ deutet dabei an, dass für Anwender:innen sowohl die konkrete Software als auch die Hardware in der „Wolke“ verdeckt bleiben. Losgelöst von Systemwelten ist Zugriff auf die Daten jederzeit und von überall her möglich.

Wie ist es möglich, geräte- und systemunabhängig auf Daten, Anwendungen und andere Ressourcen zuzugreifen? Hier kommt das Cloud-Computing ins Spiel. Cloud-Computing bietet Datenspeicherung, Datenzugriff, Netzwerkfunktionen sowie Entwicklungstools in der Cloud. Für Unternehmen ergibt sich daraus eine bedarfsorientierte IT-Struktur on demand. Denn alle notwendigen Ressourcen stellt der Cloud-Service-Provider (CSP) zur Verfügung, wobei die Leistung skalierbar ist.

 

IBM-Cloud-Plattform: Alle Cloud-Arten unter einem Dach

Das Cloud-Computing-Angebot in der IBM Cloud umfasst die vier gängigsten Cloud-Arten: Private CloudsPublic CloudsHybrid-Clouds und Multi-Clouds.

Unterschiedliche Cloud-Typen

Private Clouds sind meist auf eine geschlossene Benutzergruppe oder einzelne Benutzer:innen beschränkt. Der Zugriff ist häufig hinter einer Firewall isoliert zugewiesen.

Sogenannte Managed Private Clouds sind ein Sonderfall. Unternehmen ohne eigenes IT-Team entscheiden sich häufig für diese Option. Sie erlaubt die Nutzung von Cloud-Services und IT-Infrastrukturen, wobei der CSP die Administration komplett übernimmt.

Public Clouds sind Cloud-Umgebungen, die ihre Dienste typischerweise offen über das Internet anbieten. Zu den größten Anbietern von Public Clouds zählen neben IBM mit der IBM Cloud Mitbewerber wie Amazon Web Services (AWS), AlibabaGoogle Cloud und Microsoft Azure.

Hybrid-Clouds wiederum sind IT-Umgebungen, die sich aus LANs (Local-Area-Networks), WANs (Wide-Area-Networks) beziehungsweise VPNs (Virtual-Private-Networks) zusammensetzen und über APIs (Programmierschnittstellen) verbunden sind. Nach außen erscheinen diese Clouds wie eine homogene IT-Umgebung.

Multi-Clouds ermöglichen die Nutzung von Diensten und Plattformen unterschiedlicher Anbieter. Trotzdem wirkt dieser Cloud-Typ für Anwender:innen wie eine einzige große Cloud. In eine Multi-Cloud können außerdem mehrere Cloud-Modelle (Private und Public Cloud) verschiedener Anbieter integriert sein.

Welche Cloud-Art ist am besten geeignet?

Welche Cloud für Ihr Unternehmen am besten geeignet ist, hängt von den individuellen Anforderungen ab. Ein paar Richtwerte helfen bei der Auswahl:

  • Firmen mit volumenintensiven Workloads und häufig wechselnden Anforderungen greifen meist zu Public Clouds.
  • Bei Workloads mit vorhersehbaren, gleichbleibenden Verwendungsmustern oder besonderen Anforderungen an den Datenschutz empfehlen sich Private Clouds.
  • Mit Hybrid-Clouds lassen sich (fast) beliebige Workloads an verschiedenen Orten hosten. Häufig ist diese Lösung für Unternehmen die flexibelste.

Daneben gibt es drei Haupttypen von Cloud-Services: IaaS (Infrastructure-as-a-Service)PaaS (Platform-as-a-Service) und SaaS (Software-as-a-Service).

IaaS (Infrastructure-as-a-Service) stellt Kund:innen virtualisierte Ressourcen und eine IT-Infrastruktur bereit, die sich über das Internet abrufen lassen. Das gesamte Segment der Server- und Netzwerk-Virtualisierung und des Data-Storage zählt dazu.

Über PaaS können Unternehmen beispielsweise Anwendungshosting oder Softwareentwicklung betreiben. Meist kommt PaaS als ergänzende Dienstleistung zum Einsatz – und weniger, um die komplette IT-Infrastruktur eines Unternehmens abzubilden (beziehungsweise auszulagern). PaaS basiert auf der Open-Source-Plattform Cloud Foundry, die die Programmiersprachen Java, Node.js, PHP und Python unterstützt.

SaaS ist ein Service, der Software-Anwendungen bereitstellt. Meist sind SaaS-Apps Webanwendungen oder mobile Apps, auf die Nutzer:innen über einen Webbrowser zugreifen.

Die Auswahl des passenden Cloud-Modells und die Auswahl der Cloud-Services sind so spezifisch wie die Anforderungen Ihres Unternehmens. Keine Lösung gleicht der anderen.

 

Wie die IBM Cloud funktioniert

Wer von IBM Cloud spricht, meinte bisher IBM Bluemix und IBM Softlayer. Diese beiden Angebote gehen in der neuen Definition der IBM Cloud auf. Die Begriffe sind seit vielen Jahren eingeführt und tauchen häufig noch in Beschreibungen auf, auch wenn sie inhaltlich vollständig durch die neue IBM Cloud abgelöst wurden. Die IBM Cloud stellt eine integrierte Umgebung bereit, über die der Zugriff auf die ausgewählten Services erfolgt. Das Angebot richtet sich an Entwicklungsteams, Organisationen und Unternehmen.

IBM Cloud: Services in der Übersicht

Über das PaaS-Angebot der IBM Cloud greifen Entwickler:innen auf mehr als 130 Services zu. Weitere Analysewerkzeuge und Dienste der IBM Cloud über IaaS lassen das Angebot auf über 170 Services der unterschiedlichsten Kategorien anwachsen.

In den folgenden Bereichen bietet die IBM Cloud Dienste an, die heute bei vielen Kund:innen zum Standardrepertoire gehören:

  • Internet der Dinge (Internet of Things, IoT)
  • Künstliche Intelligenz (KI)
  • VMware, Compute
  • Network
  • Storage
  • Management
  • Sicherheit
  • Daten-Management
  • Analytics
  • Mobile
  • Entwickler-Tools
  • Blockchain
  • Integration
  • Migration

Die in der IBM Cloud zur Verfügung gestellten Dienste bilden nicht nur aktuelle Anforderungen ab, sondern bieten auch eine solide Basis für Ideen und Visionen zukünftiger IT-Szenarien.

Internet der Dinge (IoT)

Das Internet der Dinge (IoT) bezeichnet die Vernetzung und das Zusammenwirken unterschiedlicher Geräte und Datenströme. Meist sind die einzelnen Objekte dieses Netzwerks nicht nur untereinander, sondern auch über das Internet vernetzt. Diese globale Infrastruktur bildet die Grundlage für Dienstleistungen und Anwendungen, die das Zusammenspiel von Geräten, Sensoren und anderen Objekten nutzen.

Künstliche Intelligenz (KI)

Das zum Cloud-Portfolio gehörende IBM Watson Studio ist das Mittel der Wahl, um Data-Science-Landschaften zu entwickeln und KI-gestützte Prozessdigitalisierung umzusetzen. Ebenso ist es die Basis für die Entwicklung von Anwendungen in den Bereichen Machine-Learning, Sprachverarbeitung und Bilderkennung.

VMware und Compute stellen Rechenressourcen zur Verfügung, über die Unternehmen Arbeitsaufträge – sogenannte Workloads – hosten. Die Rechenleistung wird durch Bare-Metal-Server, virtuelle Server, Serverless-Computing-Dienste und Container-Strukturen in der Cloud zur Verfügung gestellt. VMware ermöglicht dabei die Migration von VMware-Workloads in die IBM Cloud über virtuelle Maschinen (VMs).

Cloud-Netzwerkdienste wie beispielsweise Load-Balancer, Content-Delivery-Networks (CDN), VPN-Tunnel und Firewalls sind klassische Netzwerkdienste. Load-Balancer sind in der Regel Servern oder VMs vorgeschaltet. Sie sorgen dafür, dass die Serverlast gleichmäßig verteilt wird und keine Überlastungen auftreten.

Management-Tools sorgen für die Überwachung von Cloud-Deployments. Dazu zählen Protokollanalysen, Automatisierungen und Infrastructure-as-Code (IAC) zur dynamischen Steuerung von Rechnerressourcen. Security-Services bieten alle Instrumente für ein erfolgreiches Identity-and-Access-Management (IAM, Zugriffsverwaltung) und sichere Benutzer-Authentifizierungen.

Beim Datenmanagement stehen SQL- und NoSQL-Datenbanken sowie Query- und Migrationstools zur Verfügung. Über Toolkits wie IBM Lift CLI und Cloud Mass Data Migration lassen sich Daten und Strukturen jeder Herkunft in die Cloud überführen. Zur Datenanalyse bietet die IBM Cloud eine Reihe von Data-Science-Tools wie Apache Spark, Apache Hadoop, IBM Watson Machine Learning sowie Streaming-Analysedienste.

Für Entwickler:innen stehen weitere Entwicklungswerkzeuge in der IBM Cloud zur Verfügung. Ein Beispiel ist die IBM-Programmsammlung mit Command-Line-Interface (CLI) und Tools zur Bereitstellung und Veröffentlichung von Applikationen und Anwendungs-Pipelines. Außerdem bietet die IBM Cloud Toolkits zur Überwachung von mobilen Apps und deren Backend-Komponenten.

Im Bereich Blockchain als Software-as-a-Service-Angebot bietet die IBM Cloud Entwickler:innen Instrumente zur Entwicklung von Apps und zum Monitoring von Blockchain-Transaktionen. Mit Anwendungen wie API Connect, App Connect und IBM Secure Gateway gibt es darüber hinaus ein breites Angebot für die Entwicklung standardisierter Schnittstellen.

 

5G und Edge-Computing in der Cloud

5G und Edge-Computing finden sich ebenfalls als Elemente in unterschiedlichen Bereichen und Services der IBM Cloud. Entwickler:innen haben die Möglichkeit, mobile Apps und deren Backend-Komponenten anzulegen und zu überwachen. Das IBM Cloud Pak for Network Automation ermöglicht es, Teile des Netzwerkbetriebs KI-basiert zu automatisieren und Prozessdigitalisierungen auch über Mobilfunknetze zu realisieren.

Klassische Einsatzfelder dafür sind beispielsweise vRANs (Virtual Radio-Access-Networks). Diese zählen zu den zentralen Projekten in der Mobilfunkbranche, sowohl in 4G-LTE- als auch in 5G-Mobilfunknetzen. Ein typisches Einsatzgebiet sind beispielsweise Streamingdienste innerhalb eines virtuellen Netzes.

Datenschutz in der IBM-Cloud-Umgebung

Sichere Passwörter und geschützte Zugangscodes sind eine wesentliche Basis für wirksamen Datenschutz in der Cloud-Umgebung. Ein schwacher Passwortschutz ermöglicht Unbefugten den Zugriff auf Ihre Daten, sofern diese nicht zusätzlich verschlüsselt sind. Über den Passwortschutz hinaus sollten Zugriffsrechte auf Dateien und  Verzeichnisstrukturen individuell und nicht pauschal eingerichtet werden. Ist die Cloud verschlüsselt, schützt dies zusätzlich vor Datenspionage.

Zur IBM Cloud Security gehört die SSL-Verschlüsselung (Secure Socket-Layer) von Internetverbindungen. Eine bessere Datensicherheit bietet die SSL-Weiterentwicklung TLS (Transport-Layer-Security), bei der Protokollschwächen von SSL bereinigt wurden. Viele Zertifikatsanbieter bezeichnen TLS-Zertifikate allerdings nach wie vor als SSL-Zertifikate. Daher besteht die Namenskonvention weiter, auch wenn sich SSL- und TLS-Verschlüsselung in der Qualität unterscheiden. Generell gilt: Sensible Daten sollten zusätzlich durch separate Verschlüsselung abgesichert sein oder gar nicht erst in der Cloud landen.

Greifen Cloud-Lösungen auf Provider-Dienste zu, die Server außerhalb der EU betreiben, müssen die Anbieter dieser Dienste dem Safe-Harbour-Abkommen zugestimmt haben. Dies soll gewährleisten, dass der Anbieter die EU-Sicherheitsbestimmungen akzeptiert und einhält. Hintergrund: Bei Multi-Cloud-Lösungen genügt eine ungeprüfte API zu AWS oder Google-Diensten, um gegen EU-Recht und die DSGVO zu verstoßen. Entsprechend wichtig ist es, bei Cloud-Lösungen auf EU-konforme und zertifizierte Angebote zu setzen.

Die IBM Cloud im Vergleich mit Microsoft Azure, AWS und Google Cloud

Eine wesentliche Stärke der IBM Cloud liegt im umfangreichen Angebot von skalierbaren Services, die sich flexibel und individuell buchen lassen. Sie gilt als zuverlässig und fair, was das Preismodell angeht, da Unternehmen durch maßgeschneiderte Angebote nur die benötigten Dienstleistungen bezahlen müssen.

Wer in erster Linie Wert auf komplexe Webanwendungen, Cloud-Computing und Skalierbarkeit legt, der findet mit der Google Cloud ein ebenfalls passendes Produkt. Doch auch die Cloud-Services von Microsoft und Amazon können je nach Anforderungen eine brauchbare Alternative sein. Wie so oft kommt es auf den konkreten Anwendungsfall an, für den Sie die jeweiligen Angebote im Detail studieren sollten.

Microsoft beispielsweise liefert mit Azure ein im Vergleich zur IBM Cloud und Google Cloud insgesamt kleineres Spektrum an Anwendungen. Vorteile gegenüber dem IBM-Angebot bringt die nahtlose Integrierung von Azure mit den Microsoft-Produkten OneDrive, SharePoint und MS-Teams. Besitzer von IBM-Hardware oder bestehenden Rahmenverträgen dort sind hingegen wohl mit der IBM Cloud im Vorteil.

Ähnliches gilt für Amazon mit den Amazon Web Services beziehungsweise dem Elastic Cloud Computing. Besonders bei der Anzahl verfügbarer Komponenten kann die Amazon-Cloud-Lösung überzeugen. Mehr Komponenten und Services bietet keiner der Anbieter. Den Support gibt es wiederum nur als kostenpflichtiges Online-Angebot, was manch einen Unternehmenskunden vielleicht abschreckt.

IBM Cloud: Für jede IT-Anforderung die passende Lösung

Cloud-Lösungen bieten Unternehmen viele Vorteile. Sie reduzieren zum Beispiel die Kosten für die IT-Infrastruktur bei gleichzeitig höherer Flexibilität. Dank der unterschiedlichen Cloud-Varianten bietet die IBM-Cloud-Plattform für jedes Unternehmen maßgeschneiderte Lösungen. Von der Unternehmens-IT über Webshops bis hin zu Entwicklungsplattformen und Blockchain-Anwendungen lässt sich das gesamte Leistungsspektrum einer modernen IT-Landschaft abbilden. Umfangreiche Migrationsdienste erleichtern dabei den Einstieg und den Wechsel zu modernen Cloud-Strukturen. Den anderen großen Anbietern Microsoft, Amazon und Google steht die IBM Cloud in nichts nach und richtet sich vornehmlich, aber nicht nur an große Unternehmen mit besonderen Anforderungen.

Quelle:

https://www.vodafone.de/business/featured/technologie/was-ist-und-wie-funktioniert-die-ibm-cloud/

Google Cloud Platform: Das kann das Plattform- und Computing-Angebot des Suchmaschinenriesen

Die Google Cloud Platform ist eine Sammlung verschiedener Cloud-Computing-Dienste für Entwickler:innen. Das Angebot umfasst neben cloudbasierten Entwicklungsplattformen vor allem Computing-, Analyse- und KI-Funktionen. Was das Cloud-Angebot von Google alles beinhaltet und wie es im Vergleich mit Microsoft Azure, den Amazon Web Services und der IBM Cloud Platform abschneidet, erfahren Sie hier.

Bereits seit dem Frühjahr 2008 bietet Google Cloud-Dienste für die Allgemeinheit an. Zuvor dienten diese vor allem als Grundlage für hausinterne Angebote wie Google Mail, Drive und die Workspace-Suite. Das Angebot umfasst inzwischen neben den weithin bekannten Dienstleistungen für Software-as-a-Service (SaaS) wie Google Mail auch Dienstleistungen für Plattform-as-a-Service (PaaS) und für Infrastructure-as-a-Service (IaaS) auf Basis der Google Cloud Platform.

Die Abrechnung erfolgt entweder im flexiblen Mietmodell oder basierend auf dem Aufwand. Darüber hinaus ist das Angebot jederzeit skalier- und auch kündbar. Aktuell erzielt Google mit seinen Cloud-Services einen Umsatz von mehr als zehn Milliarden US-Dollar jährlich. Zu den bekanntesten Referenzkunden der Google Cloud Platform zählen Apple, Airbus, PayPal und eBay sowie die REWE-Gruppe. Doch welche Gründe sprechen eigentlich für das Google-System und wie schneidet das Angebot gegenüber Wettbewerbern wie IBM, Microsoft und Amazon ab?

 

Google Cloud Platform: Das steckt dahinter

Die Google Cloud Platform bietet im Wesentlichen (aber nicht nur) die Rechenpower der Google-Server für „fremde” Entwickler:innen an. Diese können dabei verschiedene Dienstleistungen nutzen: sowohl PaaS-Angebote, als auch Infrastruktur-Dienstleistungen (IaaS) oder reine Funktionsaufrufe (FaaS) und sogar Serverless Computing. Auch ein Cloud-Container-System („Containers as a Service”, CaaS) ist dabei.

Zentrale Steuerung: Die Google Cloud Console bietet Zugriff auf alle Cloud-Platform-Services

Damit die Steuerung der Google Cloud Platform und der verbundenen Dienste übersichtlich bleibt, gibt es die Google Cloud Console. Sie bündelt sämtliche Cloud-Platform-Dienste des Suchmaschinenriesen unter einem Dach: Mit ihr können Sie etwa Projekte, den verbrauchten Speicherplatz oder Abrechnungsfragen zentral verwalten. Sie können auch die einzelnen Plattformdienste bequem hinzubuchen oder wieder abbestellen. Außerdem verwalten Sie an dieser Stelle wesentliche Sicherheitsaspekte Ihrer Cloud-Umgebung.

iese Dienste beinhaltet die Google Cloud Platform

Der Angebotsumfang der Google Cloud Platform ist riesig. Zu den wichtigsten Diensten zählen (in Klammern dahinter das zugehörige Cloud-Modell):

  • Google App Engine (PaaS): Mit Hilfe der Google App Engine können Sie Webanwendungen auf Servern bereitstellen. Zu den unterstützten Programmiersprachen zählen Python, Java, PHP und Go.
  • Google Maps Platform (PaaS): Verwalten Sie hier beispielsweise Fahrtrouten, Lieferketten und standortbezogene Informationen auf Basis von Google Maps.
  • Google Compute Engine (IaaS): Erzeugen Sie mithilfe der Google Compute Engine virtuelle Maschinen, buchen Sie Rechenleistung auf Anforderung oder entscheiden Sie sich für Bare-Metal-Angebote (also beispielsweise dedizierte Server).
  • Google Cloud Storage (IaaS): Als Suchmaschinenbetreiber verfügt Google über eine große Anzahl an Rechenzentren mit vielen Terabyte an Speicherkapazität. Das Google-Cloud-Storage-Angebot bietet nicht nur Cloud-Speicher, sondern ermöglicht Ihnen auch das Hosting umfangreicher Datenmengen – unter Berücksichtigung verschiedenster Sicherheits- und Performance-Aspekte.
  • VPC-Netzwerk (IaaS): Eine Virtual Private Cloud ist ein virtueller privater Rechnerverbund innerhalb der Public Cloud. Er erhält von Google ein eigenes IP-Subnetz und eine virtuelle Kommunikationsstruktur, beispielsweise auf Basis eines VLAN (virtuelles Unternehmensnetz). Die Kommunikation erfolgt üblicherweise verschlüsselt.
  • Google Container Engine (IaaS, FaaS, Containers as a Service (CaaS)): Eigene Cloud-Container werden auf Basis der Google-eigenen Google Kubernetes Engine (GKE) betrieben und verwaltet. Ziel ist die besonders einfache Skalierbarkeit von Anwendungen. Alternativ bietet Google in diesem Zusammenhang die Nutzung von Cloud Run als verwalteter Serverless-Alternative an.
  • Google Cloud Computing (FaaS, Serverless): Analysieren Sie große Mengen an Daten mithilfe riesiger Serverfarmen – und treffen Sie auf Basis von Big Data intelligente(re) Entscheidungen.
  • Google Cloud Vision (FaaS, Serverless): Analysieren Sie mithilfe einer KI- und maschinenlernbasierten API („AutoML Vision”) Bildmaterial und klassifizieren Sie es anhand der von Ihnen vorgegebenen Kategorien.
  • Google Text to Speech (FaaS, Serverless): Verbessern Sie die Kundeninteraktion mit lebensnaher Sprachsynthese. Mehr als 220 Stimmen stehen derzeit in 40 Sprachen und Variationen zur Auswahl.
  • BigQuery (Serverless Computing): Das „Große-Frage“-System (deutsche Übersetzung) richtet sich an Entwickler:innen, die SQL-Abfragen in Datenbanken unterschiedlicher Strukturebenen durchführen wollen. BigQuery ist ein Cloud-Indexsystem auf Basis von Spalten (verschiedene Datenbanken). Andere Systeme ermöglichen lediglich Abfragen auf Basis von Zeilen (Datensätze innerhalb einer Datenbank).

 

Wie erfolgt die Anmeldung an der Google Cloud Platform?

Schon bei der Einrichtung, spätestens jedoch bei der Anmeldung im Google Play Store verlangen handelsübliche Tablets und Smartphones auf Android-Basis die Eingabe (oder Einrichtung) einer Google-Mailadresse (meist mit der Endung @gmail.com).

Diese Mailadresse dient in der Praxis für weit mehr als nur als Empfangs- und Absenderkennung für elektronische Post. Sie ist vielmehr die eindeutige Benutzerkennung, unter der Google nicht nur Gmail, sondern auch sämtliche anderen Google-Cloud-Dienste einer natürlichen Person oder einem Unternehmen zuordnet – darunter auch die Google Cloud Platform. Für die Abrechnung verlangt Google eine Kreditkarte.

Die wichtigsten Vorteile der Google Cloud

Neben den üblichen Vorteilen cloudbasierter Anwendungen wie eine jederzeitige, weltweite Verfügbarkeit, Sicherheit gegen Ausfälle, Verschlüsselung und flexible Mietmodelle bietet die Google Cloud Platform noch mehr. Sie kann bei der Umsetzung verschiedenster Vorhaben wertvolle Unterstützung liefern, so zum Beispiel im Bereich Infrastruktur, Datenanalyse, Maschinenlernen, Sicherheit und App-Entwicklung. Zu den wichtigsten Vorteilen der Google Cloud Platform (und der Google Cloud insgesamt) für Unternehmer:innen zählen:

  • Moderne(re) Infrastrukturen schaffen: Eigene Server für SAP, Oracle oder Windows sind mit der Google Cloud Platform in vielen Unternehmen nicht mehr notwendig: Sie lassen sich in die Cloud verlagern und dort quasi beliebig skalieren. Die Migration geschieht nach Google-Angaben besonders einfach und schnell.
  • Produktivität und Zusammenarbeit verbessern: Der Google Workspace als Teil der Google Cloud beinhaltet Produktivitäts-Tools wie Google Mail, den Google-Kalender und Google Meet. Außerdem bietet er Google-eigene Online-Versionen beliebter Office-Programme wie Word, Excel und PowerPoint.
  • Datenbanken online bereitstellen, verwalten und analysieren: Auch die Zeiten, in denen Datenbanken inhouse oder in gemieteten Racks gespeichert wurden, können Sie mithilfe der Google Cloud Platform hinter sich lassen.
  • Anwendungen modernisieren: Die Google Cloud Platform ermöglicht es, herkömmliche (Legacy-)Anwendungen in die Cloud zu portieren und dort flexibel zu skalieren
  • Sicherheitsaspekte verbessern: Nutzen Sie die Sicherheitsfunktionen der Google Cloud Platform, um Online-Bedrohungen zu identifizieren und Ihr Unternehmen besser vor Cyber-Attacken zu schützen.
  • Plattformbasierte Analysen durchführen: Gerade im komplexen geschäftlichen Umfeld sind Business-Intelligence-Analysen für eine starke Marktposition unverzichtbar. Die Google Cloud Platform bietet hierfür eine passende Umgebung und die nötige Rechenpower.
  • KI- und Machine-Learning-Anwendungen nutzen: Ebenso wichtig wie Big-Data-Analysen sind inzwischen KI- und Machine-Learning-Verfahren, beispielsweise zur Mustererkennung. Die Google Cloud Platform bietet hierzu entsprechende Umgebungen mit dafür eingespielten Algorithmen.
  • APIs und Anwendungen erstellen und flexibel nutzen: Indem Sie vorhandene Daten mit Programmierschnittstellen (APIs) erweitern, nutzen Sie das volle Potenzial der Vernetzung mit anderen Anbietern, Herstellern oder Zulieferern über die gesamte Produktions- und Lieferkette hinweg.

Welche Einsatzfelder und Branchen bedient die Google Cloud Platform?

Mit den genannten allgemeinen Vorteilen der Google Cloud Platform zielt das Angebot laut Google insbesondere auf diese Branchen und Anwendungsbereiche ab:

  • Einzelhandel: Wer heute im Einzelhandel tätig ist, muss die gesamte Wertschöpfungskette im Blick haben und fortlaufend optimieren. Moderne Cloud-Services können dabei wertvolle Dienste leisten.
  • Finanzdienstleistungen: Gerade der Finanzmarkt ist in den letzten Jahren noch schnelllebiger geworden. Wer heutzutage noch attraktive Renditen erwirtschaften und konkurrenzfähige Leistungen in diesem Bereich anbieten will, kommt um künstliche Intelligenz und Co. kaum herum.
  • Gesundheitswesen und Biowissenschaften: Nicht erst die Pandemie zeigt die Notwendigkeit, die Effizienz und Leistungsfähigkeit des Gesundheitswesens weiter zu verbessern. Auch die Forschung profitiert von schnelle(re)n Auswertungen.
  • Medien- und Unterhaltungsbranche: Wer keinen hervorragenden Content in bester Qualität bereitstellt, fällt schnell im Wettbewerb zurück. Ohne Cloud und verteilte Infrastrukturen geht hier wenig.
  • Gaming-Sektor: Auch hier gilt: Wer Spieler global vernetzen will und neue Entwicklungsansätze verfolgt, braucht Cloud-Services wie die von Google.
  • Öffentliche Verwaltung: Hier hat sich bereits viel getan, doch auch auf dem Weg zur digitalen Behörde führt kaum ein Weg an Cloud-Diensten vorbei.
  • FertigungsbereichEdge ComputingSmart Data und künstliche Intelligenz im Internet der Dinge: Kaum ein Bereich ist derart disruptiven Veränderungen unterworfen und gefordert wie die Fertigung mit ihren Just-in-time-Produktionszyklen und weltweiten Lieferketten. Sie ist besonders auf Cloud-Services, künstliche Intelligenz und das Internet der Dinge angewiesen.

 

Wo befindet sich die Google Cloud? Die Frage nach dem Serverstandort und der DSGVO

Nach Google-Angaben werden die Daten, die Kunden in die Google-Cloud hochladen, gemäß dem Industriestandard SOC 2/3 gesichert (Stand: April 2022). Die zugehörige Zertifizierung besagt, dass verschiedene Maßnahmen zur Absicherung der Daten getroffen werden. Hierzu gehören eine logische und physische Sicherheit der Datenzentren, wirksame Maßnahmen zum Umgang mit unerwünschten Vorfällen, Mechanismen zum Datenschutz und vieles mehr.

Hinsichtlich der europäischen Datenschutzgrundverordnung (DSGVO) wird seitens Google die Konformität zumindest zugesichert. Der Anbieter weist jedoch explizit darauf hin, dass sich Google-Server auch außerhalb des Europäischen Wirtschaftsraums (EWR) befinden, was in einigen Unternehmen zu Compliance-Schwierigkeiten führen kann. Explizite Serverstandorte sichert Google im Gegensatz zu anderen Anbietern insgesamt nicht zu, auch wenn Sie diese teilweise in den Produkt-Optionen der Google Cloud Platform anwählen können.

 

Die Abrechnungsmodelle in der Google Cloud

Google-Cloud-Preise: Abrechnung nach Zeit, Rechenleistung oder Datenvolumen

Wer sich für das Angebot der Google Cloud Platform entscheidet, erhält zunächst ein gewisses Guthaben, um die angebotenen Services auszuprobieren. Außerdem wirbt Google (Stand: April 2022) damit, mehr als 20 Produkte dauerhaft kostenlos beziehungsweise inklusive anzubieten.

Im Rahmen des sogenannten „Pay as you go”-Modells zahlen Kunden darüber hinaus in der Cloud-Plattform ausschließlich für die Dienste, die sie auch tatsächlich nutzen. Etwaige Einrichtungsgebühren entfallen ebenso wie eventuelle Mindestvertragslaufzeiten (von Ausnahmen abgesehen).

Obwohl das Preisgefüge aufgrund seiner Granularität als fair zu bezeichnen ist, kann es aus ebendiesem Grund auch verwirren. Google hat tatsächlich für jeden einzelnen Plattformdienst ein eigenes Preismodell aufgestellt. Hinzu kommt innerhalb der Modelle jeweils ein eigener Preis pro verwendetem Rechner, Anzahl der CPU-Kerne, verbautem Speicher und so weiter. Die Idee scheint also grundsätzlich zu sein, dass der Kunde zunächst die benötigten Services konfiguriert und sich dann im Rahmen des Test-Budgets oder mit Hilfe des Angebotsrechners für eine dauerhafte oder echte, zweckbezogene Nutzung entscheidet.

Mit dem Google Cloud Pricing Calculator ein Angebot erhalten

Um etwas mehr Licht in die Vielfalt der Einzelpreise für die Google Cloud Platform zu bringen, gibt es den Google Cloud Pricing Calculator. Hier wählen Sie zunächst einen der angebotenen Dienste. Anschließend legen Sie verschiedene Parameter dieses Dienstes fest, wie beispielsweise die Anzahl benötigter Instanzen, das verwendete Betriebssystem, die Rechenleistung und vieles mehr. In einigen Fällen können Sie sogar den Serverstandort bestimmen oder sich anstelle des flexiblen Abrechnungsmodells für ein Abo inklusive Verwaltung durch Google entscheiden. Am Ende steht dann ein Angebot beziehungsweise eine Einschätzung, was die von Ihnen benötigte Leistung kosten wird.

Die Google Cloud Platform als Teil des Google-Cloud-Angebots

Bei der Vielzahl an Diensten und Preismodellen, die Google anbietet, ist es nicht immer leicht, den Überblick zu behalten. Während sich die Google Cloud Platform vornehmlich an Entwickler:innen richtet, die ein bestimmtes Vorhaben umsetzen wollen, dient der Google Workspace vor allem der Verbesserung der Produktivität.

Das Google-Cloud-Storage-Angebot wiederum richtet sich an Privat- und Geschäftskunden mit Speicherbedarf in der Cloud. Die Grenzen verschwimmen allerdings insofern, als dass Sie gebuchten Speicherplatz in der Google-Cloud sowohl für Entwicklungszwecke als auch für die reine Dateiablage nutzen können.

Google Workspace: Mails, Office-Anwendungen und Kommunikation

Für Geschäftskunden mit mehreren Arbeitsplätzen bietet das Workspace-Angebot von Google ebenfalls die oben genannten Funktionen – allerdings erfolgt die Abrechnung hier pro Nutzer:in und nach genutztem Speicherplatz. Im Gegensatz zum Konto für Privatanwender ist für die geschäftliche Nutzung mit mehreren Anwender:innen eine entsprechende Lizenz je nach Anzahl benötigter Zugänge erforderlich.

Der Workspace ist genau wie die Google Cloud Platform Teil des Google-Cloud-Angebots. Enthalten sind unter anderem Dienste wie das bekannte Gmail (Google Mail), Google Meet (Videokonferenzen), Google Chat (zuvor: Hangouts) und Online-Versionen bekannter Produktivitäts-Lösungen wie Microsoft Word, Excel und PowerPoint und entsprechende Kollaborationsfunktionen.

AWS, Azure und IBM Watson: Alternativen zur Google Cloud im Vergleich

Die Google Cloud im Vergleich mit Amazon Web Services (AWS)

Im magischen Quadranten von Gartner liegen die Amazon Web Services bezogen auf Infrastruktur-Dienstleistungen (IaaS) weit vor dem Google-Angebot. Sowohl was die technologische Führerschaft als auch die Weiterentwicklung der Dienste angeht, scheint Amazon Google überlegen zu sein. Dennoch bleibt festzuhalten, dass beide neben Microsoft als die größten Player in der Cloud-Branche anzusehen sind.

Wenn es um die Frage geht, welcher Anbieter insgesamt „besser” sei, gibt es keine eindeutige Antwort. Letztlich sind viele der Entscheidungskriterien für oder gegen eine bestimmte Plattform häufig subjektiv oder von Compliance-Vorgaben, Vertrauensfragen und anderen, teils weichen Faktoren geprägt. Festzuhalten ist aber, dass Amazon in vielen Bereichen derzeit günstiger ist als Google. Vom Funktionsumfang her liegt Amazon aktuell ebenfalls vorn.

Google Cloud im Vergleich mit Microsoft Azure

Microsoft zählt mit seinem Azure-Angebot wie Google und Amazon auch zu den weltweit führenden Cloud-Anbietern. Sie alle berichten immer wieder von beeindruckenden Wachstumszahlen des Cloud-Computings. Auch bei Microsoft bewegen sich die jährlichen Umsatzzahlen diesbezüglich konstant im zweistelligen Milliardenbereich.

Auffällig ist allerdings, dass Microsoft serverseitig in beinahe doppelt so vielen Regionen wie Google unterwegs ist (knapp 60 gegenüber etwa 30) und mehr als doppelt so viele sogenannte Zonen anbietet (140 gegenüber 60). Im Bereich des VPC (Virtual Private Computing) wiederum scheint Google verglichen mit Microsoft die Nase vorn zu haben, da es flexibler skalier- und konfigurierbar ist.

Was die Preisgestaltung angeht, gibt es wegen der vielen unterschiedlichen Produkte und Detailaspekte bezüglich der konkreten Anforderungen an die Cloud keinen klaren Sieger. Es kommt also auch bei der Frage „Google oder Microsoft?” wie so oft auf den benötigten Funktionsumfang und weitere projektspezifische Faktoren an.

Google Cloud im Vergleich mit der IBM Cloud

Mit einem Marktanteil von etwa sechs Prozent in 2020 spielt auch IBM in der Liste der führenden Anbieter von Cloud Services mit. Das Unternehmen konnte sich vor allem mit seiner beeindruckenden KI-Plattform Watson und Chatbots für Websites einen Namen machen. Vor allem bietet die IBM Cloud Vorteile für Kunden, die bereits über IBM-Produkte verfügen und in die Cloud migrieren wollen.

Obwohl die IBM Cloud erst 2011 gelauncht wurde und zunächst hinter den drei anderen genannten Anbietern zurückfiel, brachte die Akquise von Linux-Distributor und Softwareanbieter Red Hat wohl den entscheidenden Durchbruch. Bis heute gilt die IBM Cloud mit ihrer professionellen Implementierung, dem breiten Funktionsumfang und den vielfach erfolgten kundenspezifischen Anpassungen als echter Geheimtipp – allerdings nicht unbedingt als das günstigste Angebot.

Das Wichtigste zur Google Cloud Platform in Kürze zusammengefasst

Bis auf gelegentliche Zwischenfälle gilt die Google-Cloud als vergleichsweise zuverlässig und sicher. Ein solcher Vorfall war beispielsweise der Incident #19012 im Dezember 2019: Dabei kam es zu zeitweisen Ausfällen von SSD-Platten in einzelnen Rechenzentren und Hackerangriffen auf Google-Dienste. Das Problem konnte jedoch relativ schnell behoben werden. Nennenswerte Datenverluste gab es nicht.

Über die Jahre sind zur Google Cloud immer mehr Dienste hinzugekommen. Die Google Cloud Platform als Teil dieses Angebots richtet sich vornehmlich an Entwickler:innen mit speziellem Bedarf im Bereich App-Entwicklung, künstliche Intelligenz und Cloud Computing allgemein.

Insgesamt ist die Google Cloud Platform wie auch die Google Compute Engine vor allem für Unternehmen mit wenig Beratungsbedarf und überschaubaren Sicherheitsanforderungen eine gute Wahl. Das kostenlose Startguthaben, die Inklusiv-Dienste und die faire Abrechnung dürften so manches Entwicklerteam von der Google Cloud Platform überzeugen. Trotzdem lohnt es sich, im Cloud-Umfeld auch auf die Angebote von Microsoft, IBM und Amazon einen Blick zu werfen.

Sie haben Fragen dazu? Wir helfen Ihnen gern. Und übrigens: Die verschiedenen Google-Dienste aus anderen Bereichen und deren zugrunde liegenden Technologien stellen wir Ihnen in vielen spannenden Beiträgen auch an anderer Stelle hier im V-Hub vor.

Quelle:

https://www.vodafone.de/business/featured/technologie/google-cloud-platform-das-kann-das-plattform-und-computing-angebot-des-suchmaschinenriesen/

Telefonischer Service und E-Commerce schließen sich nicht aus

Von einfachen Service-Nummer bis zur Contact Center – Lösung für unterschiedliche Eingangskanäle mit Collaboration-Möglichkeiten

Was genau sind Servicenummern und für welchen Zweck sind sie geeignet?
Und welche Features sind möglich – bzw. welche Erweiterungen stehen als Produkt-Ergänzung zur Verfügung?

Einige Netzbetreiber und natürlich auch die Telekom bieten seit vielen Jahren für große und auch kleine Unternehmen Servicenummern an.
Spielen denn Servicenummern heute in Zeiten von E-Commerce und Social Media überhaupt noch eine Rolle? Warum ist eine Servicenummer eigentlich so wichtig?
Ganz einfach – Telefonische Erreichbarkeit schafft Vertrauen.

Das „Telefon“ wird als Kontaktkanal von Verbrauchern nach wie vor erwartet, wie Studien belegen – wird z. B. eine Website mit Angabe einer Telefonnummer von vielen als vertrauenswürdig empfunden. Dieser Effekt verstärkt sich noch mal durch eine kostenlose freecall 0800 Servicenummer!

Daneben spielt die Erreichbarkeit eine entscheidende Rolle. Erreicht der Anrufer keinen Ansprechpartner, wird er vielleicht später noch einmal anrufen oder aber den Kauf-Vorgang abbrechen und die Anfrage bzw. die Bestellung bei einer anderen Firma platzieren – oder gar nicht mehr bei dieser Firma anrufen.

Eine Servicenummer (früher auch „Telefonmehrwertdieste“ oder „Intelligente Netz-Leistungen“ genannt) bieten den Kunden die Möglichkeit der optimalen Erreichbarkeit. Es handelt sich hierbei um eine eigene „Vermittlungstechnologie“ außerhalb der normalen Telefonie-Plattform.
Kunden können Anrufe an verschiedenen Zielen, z.B. unterschiedliche Standorte und/oder CallCenter, entgegennehmen. Die Verteilung der Anrufe lassen sich ganz einfach selbst über eine Weboberfläche steuern. So ist es z. B. möglich, bei zu erwartenden Anrufspitzen auch Außendienstmitarbeiter oder Mitarbeiter an anderen Standorten in das Telefonrouting mit einzubeziehen. Zeit- oder ursprungsabhängige Steuerung und IVR – interaktive Voice Response auch komplexe Routing-Szenarien sind möglich.

Mit Hilfe von Statistiken kann der Kunde seine Erreichbarkeit jederzeit überprüfen. So kann man beispielsweise sehen, wie viele potenzielle Anrufer verloren gegangen sind, bzw. die Firma nicht erreicht haben. Oder wie oft ein Käufer vergeblich versucht hat, den Lieferanten zu erreichen, bevor ein Gespräch zustande gekommen ist.

Die Servicerufnummern lassen sich mit bestimmten komplexe Szenarien auch in die restliche Festnetzwelt des Kunden zusammen mit einem Company Flex abbilden. Kundenindividuelle Lösungen sind über einen Rahmenvertrag für nationale Festnetz-Telefonie abbildbar – dem Corporate Voice Solutions (CVS).

Neben den bereits genannten freecall 0800 -Rufnummern, stehen auch 0180call Servicenummer (Shared-Cost) zur Verfügung. Damit teilen sich die Kosten zwischen dem Anrufer und dem Anbieter der Rufnummer auf. Hinzu kommen internationale Servicenummern für eine weltweit optimale Erreichbarkeit – kostenlos oder zu fairen, transparenten Preisen. Eine Übersicht findet man auf der Seite: https://servicenummern.telekom.de/home/

Für den Fall, dass man seine eigene Festnetzrufnummer für den telefonischen Service verwenden möchte, stehen mit „Local Service Call“ alle Leistungsvorteile, wie z.B.  Verkehrsführungsprogramme, Statistiken, etc. zur Verfügung. In der heutigen Zeit der „Festnetz-Flat-Tarif-Welt“ ist das ähnlich vergleichbar mit freecall 0800.

Nicht zu vergessen sind die AddOn´s, die man auf der Netzplattform mit den Servicenummern kombinieren kann.
Diese sind auch Teil der MagentaBusinessCollaboration – Familie (MBC) und ergänzen die Produkte hervorragend, denn neben Anrufen sind heutzutage auch E-Mails, SMS, Voice-Mails, Facebook- und Twitter-Einträge als Eingangskanäle zu betrachten.

Lösungen wie “Omnichannel Contact Center”, “engage Multichannel ACD” und “KI basierte Bots” zeichnen sich als Cloud-Komplett-Paket der Telekom inkl. Service, Updates und Security aus.
Durch den Einsatz von Künstlicher Intelligenz wird der Kundendialog optimiert und die Kundenzufriedenheit gesteigert.

Die Vorteile liegen auf der Hand:

  • Entlastung der Mitarbeiter von Standardanfragen
  • Fallabschließende Bearbeitung des Anliegens
  • Schnellere Service und direkte Problemlösung

Eine Übersicht finden Sie hier: https://contact-solutions.telekom.de/

Quelle:

https://www.epsilon-telecom.de/hub/telefonischer-service-und-e-commerce-schliessen-sich-nicht-aus

Wi-Fi 6: Das solltest Du über den WLAN-Standard wissen

Der neue WLAN-Standard Wi-Fi 6 macht Dein drahtloses Heimnetzwerk gigaschnell, noch zuverlässiger und noch sicherer. Doch wie funktioniert das genau und was solltest Du über den Wi-Fi-6-Standard wissen?

Alle wichtigen Fragen und wesentlichen Vorteile von Wi-Fi 6 zeigen wir Dir jetzt. Außerdem erfährst Du, wie Du Dein WLAN auf den neuesten Stand bringst und Wi-Fi 6 nutzt.

Wi-Fi 6: Was ist das? 

Wi-Fi 6 ist der neueste WLAN-Standard. Er wird auch als WLAN AX oder IEEE 802.11ax bezeichnet. Im Vergleich mit dem Vorgänger Wi-Fi 5, auch bekannt als WLAN AC, bekommt Dein WLAN mit dem neuen Standard ein großes Upgrade spendiert. Es wird schneller, stabiler, zuverlässiger und sicherer.

Wi-Fi 6 vs. Wi-Fi 5: Was sind die Vorteile des neuen Standards? 

Du teilst Dir das WLAN mit der Familie oder Deiner WG? Dann bringt Wi-Fi 6 Deinem Haushalt eine Menge, denn die Funktechnologie sorgt einerseits dafür, dass das WLAN insgesamt stabiler läuft und andererseits viele Geräte gleichzeitig ins Internet gehen können.

Übrigens: Wi-Fi 6 hat noch mehr Bandbreite und ist bei optimalen Bedingungen gigaschnell. Bis zu 1,2 Gigabit pro Sekunde schafft der neue WLAN-Standard im 5-Gigahertz-Band, wenn Dein Router und Dein Gerät dies unterstützen. Parallel bedient es die 2,4-Gigahertz-Frequenz mit bis zu 600 Megabit pro Sekunde, sodass Du auf allen Frequenzen so schnell wie nie zuvor unterwegs bist.

Wi-Fi-6 punktet darüber hinaus auch bei der Sicherheit. Der Verschlüsselungsstandard WPA3 sichert Deine Verbindung nämlich noch ausgeklügelter als WPA2, sodass Deine Daten noch stärker verschlüsselt und dadurch noch besser geschützt sind.

Router-Unterschiede: Darauf solltest Du achten

Du möchtest Dein Zuhause mit Wi-Fi 6 ausstatten? Dann benötigst Du zunächst einen Router, der den Wi-Fi-6-Standard unterstützt. Achte bei der Produktbeschreibung auf Wi-Fi 6, WLAN AX oder IEEE802.11ax. Um die Vorteile des Wi-Fi-6-Standards nutzen zu können, brauchst Du auch Wi-Fi-6-fähige Geräte. Die neuesten Smartphones haben Wi-Fi 6 meist schon an Bord. Auch immer mehr Tablets, Notebooks und Streaming-Boxen unterstützen Wi-Fi 6.

Gut zu wissen: Wi-Fi 6-Router sind abwärtskompatibel. Du kannst also bereits jetzt zu einem Wi-Fi 6-Router greifen, auch wenn Dein Gerät den neuen WLAN-Standard womöglich noch nicht unterstützt. Auf die Vorteile musst Du dann zwar zunächst verzichten, kannst aber später zum Beispiel mit einem neuen Smartphone, das Wi-Fi 6-fähig ist, sofort profitieren.

Ab wann lohnt sich Wi-Fi 6?

Die Verbindung über Wi-Fi 6 ist nicht nur schneller, sondern auch stabiler und sicherer verschlüsselt. Schon jetzt lohnt sich Wi-Fi 6 also, wenn Du richtig schnelle Drahtlosverbindungen schätzt. Alle Vorteile von Wi-Fi 6 kannst Du jedoch nur dann ausnutzen, wenn sowohl Dein Router als auch Deine WLAN-Geräte Wi-Fi 6 unterstützen. Wenn Du Dir einen neuen Router aussuchst, greif am besten direkt zu einem Wi-Fi-6-fähigen Modell. So bist Du bestens für schnelles WLAN ausgerüstet.

Häufig gestellte Fragen: 

Unterstützen alle Hersteller (Apple, Android, etc.) Wi-Fi 6?

Ja, alle Hersteller unterstützen in der Regel auch Wi-Fi 6. Allerdings noch nicht bei allen Modellen. Achte also bei der Wahl Deines nächsten Smartphones darauf, ob es Wi-Fi-6-fähig ist.

Ist mein Netzwerk überhaupt ausgelegt für Wi-Fi 6? Wie erkenne ich, ob alles kompatibel mit den neuen Geräten ist und genauso stabil läuft wie vorher?

Ob Dein Netzwerk für Wi-Fi 6 ausgelegt ist, erfährst Du in der Bedienungsanleitung Deines Routers. Achte auf die Bezeichnungen Wi-Fi 6, WLAN AX oder IEEE802.11ax. Alle drei Begriffe haben dieselbe Bedeutung und stehen für den neuen WLAN-Standard.

Wohin kommen die Wi-Fi 6 Access Points?

Die ideale Position für einen Access Point mit Wi-Fi 6 ist leicht erhöht, frei und zentral in Deinem Zuhause. Das gilt auch für einen WLAN-Repeater mit Wi-Fi 6. Beachte außerdem die Aufstellhinweise in der Bedienungsanleitung Deines Gerätes.

Was sind Wi-Fi-6-Clients?

Als Wi-Fi-6-Client bezeichnet man alle Geräte, die Wi-Fi 6 unterstützen und sich mit Deinem WLAN verbinden. Dazu gehören Smartphones, Notebooks, Spielekonsolen, Smart-TVs, smarte Lautsprecher und so weiter. Jedes Gerät ist ein Teilnehmer (also Client) im Netzwerk.

Mit welcher Geschwindigkeit kann ich bei Wi-Fi 6 praktisch rechnen? Ist das bei allen Geräten gleich?

Das ist von mehreren Faktoren abhängig. Zum Beispiel von Deiner gebuchten Internet-Geschwindigkeit, von dem Frequenzband, das Du gerade nutzt, und vom Wi-Fi-Standard sowie den technischen Eigenschaften Deines Gerätes. Vor allem die Anzahl der WLAN-Antennen (siehe MIMO) spielen hier eine wichtige Rolle. Aber auch wie weit Du vom Router entfernt bist, welche Störquellen vielleicht im Weg sind oder Nachbar-Netze, die gerade dazwischenfunken, beeinflussen Deine WLAN-Geschwindigkeit.

Warum verbindet sich mein WLAN-Gerät nicht mit meinem neuen Wi-Fi-6-Router?

Im Zusammenspiel mit älteren Geräten kann es vorkommen, dass diese sich im 2,4 Gigahertz-Frequenzband nicht mit dem neuen Wi-Fi-6-Router verbinden können. Schalte dann testweise im 2,4 Gigahertz-Frequenzband den axStandard (entspricht Wi-Fi 6) im Router aus.

Du hast noch weitere Fragen zu Deinem WLAN oder Du möchtest Dich einfach über WLAN informieren? Hier bist Du genau richtig: Hilfe | Alles zu WLAN: einrichten, installieren und optimieren

Fachwörter: Die wichtigsten Begriffe und was sie bedeuten

Auf technischer Ebene hat sich bei Wi-Fi 6 viel getan. Hier erklären wir die wichtigsten Begriffe im Zusammenhang mit dem neuen WLAN-Standard.

  • Access Point
    • Ein Access Point ist eine Station, die Daten empfängt und sendet. Dieser verbindet Anwender:innen mit anderen Nutzer:innen im Netzwerk und kann auch als Verbindungspunkt zwischen dem Funknetz und dem drahtgebundenen Netzwerk (LAN) fungieren.
  • MIMO
    • Die Abkürzung steht für Multiple Input Multiple Output. Das bedeutet, dass gleich mehrere Antennen genutzt werden, um Daten-Streams zu übertragen, was eine erhöhte Datenrate ermöglicht. Voraussetzung: Router und Gerät verfügen über MIMO, zum Beispiel 4×4 MIMO. Allerdings ist bei MIMO nur eine Übertragungsrichtung möglich (entweder Upload oder Download).
  • MU-MIMO
    • MU-MIMO steht für Multi User Multiple Input Multiple Output. So nennt sich die Technologie, die es Deinem Router ermöglicht, mit mehreren Geräten gleichzeitig in beide Richtungen zu kommunizieren. Dadurch wird die Wartezeit reduziert und der Datendurchsatz im gesamten WLAN-Funknetz erhöht.
  • OFDMA
    • OFDMA ist die Abkürzung für Orthogonal Frequency Division Multiple Access. Diese Technologie dient zur Verteilung der Datenströme im WLAN. Dadurch kann Dein Wi-Fi-6-Router jedem WLAN-Gerät genau die Bandbreite zuteilen, die es gerade benötigt.
  • 1024-QAM
    • QAM bedeutet Quadraturamplitudenmodulation. Wi-Fi 6 setzt auf 1024-QAM und überträgt Symbole mit 10 Bit. Im Gegensatz zu Wi-Fi 5, das mit 256-QAM und 8 Bit pro Symbol arbeitet, kann Wi-Fi 6 Daten bis zu 25 Prozent schneller übertragen.
  • BSS Coloring
    • Bei Wi-Fi 5 war es bisher so, dass ein WLAN-Gerät sämtliche WLAN-Daten angehört und weiterverarbeitet hat. Dieses „Anhören“ kostete Zeit und somit Bandbreite. Bei Wi-Fi 6 bekommen alle Daten deshalb eine Identifikationskennung (BSS: Basic Service Set) innerhalb des WLANs. Es werden ihnen sozusagen Farben zugeteilt (das nennt man BSS Coloring). So kann ein Wi-Fi-6-Router die eigenen Pakete von fremden Datenpaketen unterscheiden und störungsfrei übertragen.
  • TWT
    • TWT ist die Abkürzung von Target Wake Time. Diese Technologie lässt das WLAN-Modul in Deinen mobilen Geräten, wie zum Beispiel Deinem Smartphone, schlafen und weckt sie erst auf, wenn neue Daten über WLAN zum Empfang bereitstehen. So sparst Du Energie und kommst längere Zeit mit einer Akkuladung aus.

Quelle:

https://www.vodafone.de/featured/service-hilfe/wi-fi-6-das-solltest-du-ueber-den-wlan-standard-wissen/#/

iOS 16.2 ist da: Das können Freeform-App und Apple Music Sing

Ab sofort ist es so weit: Mit iOS 16.2 bringt Apple im Dezember 2022 das nächste Update zu seinem Betriebssystem iOS 16 heraus. Freeform, Apple Music Sing, Notruf via Satellit und neue Optionen für den Sperrbildschirm – erfahre hier, welche Neuerungen das Update auf Dein iPhone bringt und was Du zum Roll-out wissen musst.

Bereits das Update auf iOS 16.1 wartet mit reichlich neuen Features und Verbesserungen auf. Nun erscheint mit iOS 16.2 die nächste neue Firmware für das iPhone. Parallel erscheint mit iPadOS 16.2 auch eine neue Version des iPad-Betriebssystems mit ähnlichen Features. Hier erhältst Du alle Infos zum iPhone-Update.

iOS 16.2: Release im Dezember 2022

Am 12. Dezember hat Apple mit dem Roll-out des iPhone-Updates begonnen. Auch in Europa steht die neue Version des Betriebssystems bereits zum Download zur Verfügung.

 

Wenn Du zum Release noch keine Benachrichtigung erhalten hast, kannst Du die Installation von iOS 16.2 auch händisch starten. Dazu öffnest Du die „Einstellungen”, navigierst zum Menüpunkt „Allgemein” und tippst dann auf „Softwareupdate”. Anschließend führt Dich Apples Assistenz durch den Installationsprozess.

Diese Neuerungen bringt iOS 16.2 mit

Freeform-App: Dokumente gemeinsam bearbeiten

Mit Freeform steht nach dem Update eine brandneue Apple-App zur Verfügung. Die Anwendung funktioniert wie ein digitales Whiteboard: Sie ermöglicht es Dir, auf einem geteilten Arbeitsbereich Texte, Bilder, Zeichnungen, Notizzettel und mehr für Freund:innen und Kolleg:innen bereitzustellen. Geteilte Inhalte können dann alle gemeinsam bearbeiten.

Praktisch ist laut Apple die Möglichkeit, im Arbeitsbereich mit dem Finger auf dem iPhone zu zeichnen. Auf diese Weise kannst Du beispielsweise Einzelheiten hervorheben. Apple zufolge ermöglicht Freeform das gemeinsame Arbeiten an Dokumenten über iPhone, iPad und Mac.

Karaoke mit Apple Music Sing

Wenn Du das Feature in Apple Music zum Anzeigen von Liedtexten während der Wiedergabe kennst, weißt Du auch, wie Apple Music Sing funktioniert. Die Anzeige soll es aber dank besserer „Beat-zu-Beat-Liedtexte” noch einfacher machen, dem Text beim Karaoke-Singen zu folgen.

Neben der Anzeige des Textes in Echtzeit gibt es in Sing einen Schalter, mit dem Du den Gesang im Lied herunterregeln kannst, damit Dein eigener Gesang besser hörbar wird. Auf diese Weise kannst Du aber auch mit dem oder der originalen Künstler:in zusammen singen.

Beachte, dass Apple Music Sing nicht automatisch für jeden Song in der Apple-Music-Mediathek verfügbar ist. Laut Apple sind es „Millionen Deiner Lieblingstitel”.

Das neue Karaoke-Feature unter iOS 16.2 ist Teil von Apple Music. Du brauchst also einen Account bei dem Musik-Streamingdienst, um es nutzen zu können. Es ist mit dem iPhone, dem iPad und dem Apple TV 4K kompatibel.

otruf-SOS via Satellit

Mit dem iPhone 14 und dem iPhone 14 Pro hat Apple ein besonderes Feature eingeführt: Die aktuellen Modelle ermöglichen es Dir, einen Notruf abzusetzen, auch wenn kein WLAN und kein Mobilfunk verfügbar sind. Das kann zum Beispiel beim Wandern praktisch sein.

Mit dem Release der iPhone-14-Reihe stand diese Notruf-SOS-Funktion zunächst nur in den USA und Kanada zur Verfügung. Mit iOS 16.2 unterstützen die kompatiblen Modelle das Satelliten-Feature nun auch in Teilen Europas.

Mehr Optionen für das Always-on-Display

iOS 16.2 bringt mehr Einstellungsmöglichkeiten für das Always-on-Display auf dem iPhone 14 Pro und dem iPhone 14 Pro Max. So hast Du die Möglichkeit, für den Sperrbildschirm in den Einstellungen Wallpaper und Benachrichtigungen ein- und auszuschalten.

iPhone 14 Pro und iPhone 14 Pro Max: Die Pro-iPhones im Hands-on

Auf diese Weise kannst Du noch genauer bestimmen, welche Informationen das Always-on-Display anzeigen soll und welche nicht. Wenn Du die Schalter für Wallpaper und Benachrichtigungen auf „Aus” stellst, zeigt das Always-on-Display nur noch die Zeit und die Widgets an, die Du für den Sperrbildschirm eingestellt hast. Dadurch kannst Du zum Beispiel den Akku entlasten.

Neue Widgets, die das Always-on-Display nun unterstützt, sind zum Beispiel „Schlafen” und „Medikamente”.

Unfallerkennung: Meldung falscher Alarme an Apple

Eigentlich soll die Unfallerkennung nur im Notfall einen automatischen Notruf absetzen. Doch Berichten zufolge schlägt die SOS-Funktion immer wieder fälschlicherweise an.

Unfallerkennung beim iPhone 14: So funktioniert sie 

In den USA löste sie angeblich häufiger auch bei Achterbahnfahrten den Alarm aus. Unter iOS 16.2 kannst Du einen Bericht an Apple senden, wenn Du ähnliche Erfahrungen machst. Auf diese Weise kann das Unternehmen das Feature in Zukunft verbessern.

Game Center: Besser zusammen spielen

Das Game Center auf dem iPhone unterstützt unter iOS 16.2 nun SharePlay. Auf diese Weise kannst Du mit anderen per FaceTime-Anruf zusammen spielen.

Außerdem gibt es nach dem Update ein Widget namens „Aktivität”. Dieses Widget zeigt Dir auf dem Startbildschirm an, welche Games Deine Kontakte gerade spielen und wie erfolgreich sie dabei sind.

Weitere Änderungen und Bug-Fixes des Updates

  • Smart Home: Mit iOS 16.2 soll das Zusammenspiel von Smart-Home- und Apple-Geräten besser funktionieren.
  • Bildersuche in Nachrichten: Du kannst nun in Deinen Nachrichten die Bilder nach Schlagworten durchsuchen, wie zum Beispiel „Hund”.
  • Änderungen in Notizen live verfolgen: Du kannst in Echtzeit sehen, wenn andere Personen in einem geteilten Notizen-Dokument etwas verändern. Parallel soll die Synchronisation via iCloud besser funktionieren.
  • AirDrop wird sicherer: Nach zehn Minuten stellt AirDrop automatisch auf „nur Kontakte” um. Auf diese Weise will Apple verhindern, dass Du beispielsweise in der Öffentlichkeit keine unerwünschten Anfragen erhältst.

iOS 16.2: Kompatible Geräte

Das Update läuft auf jedem iPhone-Modell, das auch iOS 16 unterstützt. Auf den neuesten Geräten, wie etwa dem iPhone 14 Plus, ist das Betriebssystem bereits in Version 16 vorinstalliert.

Darüber hinaus ist iOS 16.2 mit allen ab dem Jahr 2017 erschienenen iPhone-Modellen kompatibel. Eine Übersicht aller unterstützten Geräte findest Du in unserer Übersicht zum Thema.

Quelle:

https://www.vodafone.de/featured/smartphones-tablets/ios-16-2-update-live-aktivitaeten-und-weitere-features/#/