Geschichte des Internets: Wie das World Wide Web entstand

Das Internet ist heute weder aus dem privaten noch dem beruflichen Umfeld wegzudenken: Was als Forschungsnetzwerk für wenige Fachleute begann, ist heute ein unverzichtbares Informations- und Kommunikationsmedium für die Gesamtbevölkerung – und damit ein wichtiger wirtschaftlicher Faktor. Dabei ist das World Wide Web erst seit 1993 kommerziell nutzbar.

Die Erfindung des Internets

Das Internet ist ein weltweites Computernetzwerk. Heute ermöglicht es die Nutzung verschiedener Dienste wie z. B. des World Wide Web (WWW) – das ist der allgemein zugängliche Bereich des Internets für Websites. Zudem werden Angebote wie Internettelefonie, E-Mail, Chat und Dateiübertragung über das Netz bereitgestellt.

Welche Bedeutung das Internet bis heute erlangt hat, zeigen die folgenden Zahlen:

Ein Satellit gibt den Anstoß

Die Grundidee des Internets entsteht in den 1950er-Jahren: Als 1957 die Sowjetunion den Satelliten Sputnik ins All schießt, sieht das US-Verteidigungsministerium darin eine potenzielle Bedrohung für das amerikanische Nachrichtensystem. Als Konsequenz soll ein computergesteuertes System entwickelt werden, das aus mehreren Knoten besteht und auch bei Ausfall eines dieser Knoten weiterhin funktioniert.

Mit der Koordination der Forschung wird die 1958 gegründete ARPA betraut (Advanced Research Project Agency – deutsch etwa: Behörde für fortgeschrittene Forschungsprojekte). Heute heißt sie DARPA, das D steht für Defence, also Verteidigung. Ziel der Behörde ist es damals, den technischen Rückstand auf die Sowjetunion aufzuholen. Die Arbeit der beteiligten Forschungseinrichtungen nimmt einige Jahre in Anspruch und bringt den Vorgänger des heutigen Internets hervor.

Die Entwicklung des Internets von den Anfängen bis heute

 

Grafik der wichtigsten Entwicklungen rund um das Internet im zeitlichen Ablauf

1960er-Jahre: Militär und Universitäten entwickeln das ARPANET

Die ARPA beginnt Ende der 1950er-Jahre in den USA ihre Arbeit und lässt das dezentral aufgebaute ARPANET entwickeln. Am Anfang ist es ein rein militärisches Projekt. Ab 1965 erhalten auch einige Universitäten Zugang zu dem Forschungsprojekt, das schließlich Ende des Jahrzehnts der Öffentlichkeit vorgestellt wird. Die erste Datenübertragung zwischen zwei Knoten des Netzwerks findet am 29. Oktober 1969 statt.

Zu diesem Zeitpunkt besteht das Netz aus vier miteinander verbundenen Rechnern. Diese befinden sich an der University of California Los Angeles, dem Stanford Research Institute, der University of California Santa Barbara und der University of Utah.

In dieser Entwicklungsphase werden die Grundlagen für das Internet gelegt, es wird für erste Anwendungen vorbereitet. Treibende Kräfte der Entwicklung sind einerseits militärische Interessen des US-Verteidigungsministeriums, andererseits der Wunsch nach einem schnellen und effizienten Datenaustausch in der Wissenschaft und an Universitäten.

Die dezentrale Organisation und das Prinzip der Übermittlung von Datenpaketen finden sich noch im heutigen Internet. Allerdings nutzt das ARPANET damals andere Protokolle für diese Zwecke.

1970er-Jahre: Entwicklung des TCP/IP

Bereits im Jahr 1971 besteht das ARPANET aus 15 Knoten und wächst langsam, aber stetig weiter.

Anfang der 1970er-Jahre gelingt zudem die erste Verbindung des ARPANET mit einem anderen Netzwerk – dem ALOHAnet der Universität Hawaii. Der Prozess wird als Inter-Networking bekannt. Da die damaligen Netzwerke jeweils unterschiedliche Schnittstellen, Paketgrößen, Übertragungsraten und Kennzeichnungen nutzen, ist eine Verbindung unter ihnen schwierig.

Gelöst wird dieses Problem 1973: Die US-Informatiker Vinton Cerf und Robert Kahn entwickeln das Transmission Control Protocol (TCP). Dieses neue Protokoll basiert auf dem französischen Projekt CYCLADES (der französischen Antwort auf das ARPANET). In den Spezifikationen des TCP wird im folgenden Jahr das erste Mal der Begriff Internet verwendet.

Wenige Jahre später und nach einigen weiteren Iterationen des Protokolls wird es in TCP und IP (Internet Protocol) aufgespalten. Dieser TCP/IP-Ansatz bildet noch heute die Grundlage des Datenaustauschs über das Internet.

1980er-Jahre: Der Name Internet setzt sich durch

1983 tritt die noch heute verwendete vierte Version des Internet Protocol in Kraft (IPv4). Damit setzt sich auch die Bezeichnung Internet durch.

Eine wichtige Entwicklung dieser Zeit ist das Ethernet als neue Form des lokalen Computernetzwerks. Bereits in den 1970er-Jahren entwickelt, wird es in den 1980ern standardisiert und treibt im Verbund mit TCP/IP die Ausbreitung des Internets stark voran.

Einen weiteren entscheidenden Meilenstein in der Geschichte des Internets bildet die Entwicklung des Domain Name System (DNS) im Jahr 1984. Dieses System ermöglicht es auch heute noch, Rechner mit einfach zu merkenden Domainnamen anstatt mit komplizierten, bis zu zwölfstelligen IP-Adressen anzusteuern. Ein DNS-Dienst sucht daraufhin in einer Datenbank nach der zugehörigen IP-Adresse und leitet die Anfrage an den richtigen Rechner im Internet weiter.

Diese Technik findet auch im heutigen WWW Anwendung: Anstatt sich z. B. 141.101.90.99 zu merken und einzutippen, gibt man einfach o2business.de in die Adresszeile des Browsers ein und erreicht so den Server und die darauf gehostete Website.

1990er-Jahre: Das World Wide Web entsteht

1990 beschließt die US-amerikanische National Science Foundation, das Internet auch für kommerzielle Zwecke zu öffnen. Bis dato ist es ausschließlich als Forschungsnetzwerk und für militärische Zwecke genutzt worden. Nun sollen auch Privatpersonen darauf zugreifen können. Im selben Jahr geht das ARPANET außer Betrieb.

Vor allem die Erfindungen des britischen Physikers und Informatikers Tim Berners-Lee bereiten den Weg für das World Wide Web und tragen zu dessen rasanter Verbreitung bei. Die Idee eines weltweiten Hypertext-Netzwerks hat er bereits 1989 vorgestellt. Während seiner Zeit am europäischen Kernforschungszentrum CERN entwickelt Berners-Lee u. a.:

Die Auszeichnungssprache HTML (Hypertext Markup Language), auf der heute noch alle Webseiten im WWW basieren.

Das Protokoll HTTP (Hypertext Transfer Protocol), das das Aufrufen von Webseiten und die Navigation über Links ermöglicht.

Die URL (Uniform Resource Locator), die die Adresse einer Datei oder Webseite auf einem Server angibt.

Den ersten Webserver (info.cern.ch), den er 1991 auf seinem Computer einrichtet.

Den Webbrowser – sein Modell ist allerdings weniger erfolgreich als der grafische Browser Mosaic, den Marc Andreessen und Eric Bina 1993 am NSCA entwickeln (National Center for Supercomputing Applications).

Damit stehen die Grundpfeiler des WWW. Am 30. April 1993 gibt das CERN das World Wide Web kostenlos für die Öffentlichkeit frei.

Es folgt ein starkes Wachstum und viele Internetfirmen gründen sich.

1994: 

Die Suchmaschinen Lycos und Yahoo sind verfügbar.

Die Zahl der kommerziellen Nutzerinnen und Nutzer übersteigt erstmals die der wissenschaftlichen – rund drei Millionen Rechner sind an das Internet angeschlossen.

Das Unternehmen Amazon gründet sich.

1997: 

Rund sechs Millionen Computer sind mit dem Internet verbunden.

1998: 

Das Internetprotokoll IPv6 wird veröffentlicht, um der steigenden Zahl von Geräten im Internet weiterhin IP-Adressen zuweisen zu können. 

Das Unternehmen Google wird gegründet und die gleichnamige Suchmaschine geht online.

2000er-Jahre: Web 2.0

Das neue Jahrtausend beginnt mit einem Börsencrash – dem sogenannten Platzen der Dotcomblase. Viele Internetfirmen melden Insolvenz an und die erste Hochphase des Internets endet.

Dennoch steigt die Zahl der Nutzerinnen und Nutzer weiter an und es beginnt die zweite Hochphase, die auch als Web 2.0 bekannt ist. Dabei spielen weniger technische Neuerungen eine Rolle. Es geht eher um eine veränderte Nutzung und Wahrnehmung des Internets und des World Wide Web. Neue Webseiten, Dienste und Anwendungen entstehen, die unser Leben noch heute beeinflussen. Dazu zählen etwa:

Wikipedia (2001)

Facebook (2004)

YouTube (2005)

Twitter (2006, heute X)

Durch die sozialen Netzwerke gewinnt das WWW weiter an Bedeutung – sowohl im privaten als auch im politischen und wirtschaftlichen Bereich. Dazu trägt auch eine Entwicklung bei, die heute nahezu jede Person besitzt: das Smartphone.

Heute: Schnelles mobiles Internet

2007 erscheint das erste iPhone. Die bahnbrechende Neuerung damals: Es handelt sich um ein Mobiltelefon, mit dem man im Web surfen kann. In der Folge schreitet die Entwicklung der Smartphones schnell voran. Mit diesen vielseitigen Handys wächst der Bedarf der Menschen an neuer Technik. Gleichzeitig gibt es immer mehr technologische Möglichkeiten.

Heute ist schnelles mobiles Internet dank Mobilfunktechnologien wie LTE und 5G Standalone für nahezu alle Menschen verfügbar. Durch ausgereifte Smartphones ist das Internet und besonders das WWW für viele Personen zu einem Alltagsmedium geworden – im Privaten wie im Beruflichen.

Ein Blick in die Zukunft

Schauen wir noch einmal auf die Zahlen, die eingangs zur Sprache kamen:

80 % der Deutschen nutzen das Internet täglich, 95 % zumindest selten. 

Nahezu 100 % der 14- bis 49-Jährigen sind Internetnutzer. 

Eine weitere Steigerung dieser Zahlen scheint kaum möglich. Gleichzeitig sehen Experten voraus, dass sich menschliche Aktivitäten noch weiter in den digitalen Raum verlagern werden. Hier sollten besonders Unternehmen aufmerksam werden – um ihre Kunden auch in Zukunft zu erreichen, benötigen sie einen ansprechenden Internetauftritt.

Schlüsseltechnologien der Zukunft

Ein wichtiges Themengebiet ist Experten zufolge das Internet der Dinge (IoT), das künftig weiter anwachsen und an Bedeutung gewinnen wird. Besonders in Industrie und Produktion, aber auch in anderen Branchen werden Automatisierung und Digitalisierung demnach zunehmend wettbewerbsentscheidend.

Weiterhin rechnen Fachleute mit einem starken Bedeutungszuwachs bei Technologien wie Augmented Reality (AR) und Virtual Reality (VR). Außerdem wird die Mobilität der Zukunft mit z. B. autonomen Fahrzeugen eine wichtige Rolle spielen.

Als technische Treiber der weiteren Entwicklung des Internets sehen Analysten u. a. Technologien wie Blockchainund künstliche Intelligenz (KI).

Die Geschichte des Internets im Überblick

In den 1950er- und 1960er-Jahren entsteht mit dem ARPANET der Vorgänger des Internets.

Die 1970er und 1980er bringen grundlegende Entwicklungen hervor, die noch heute im Internet zum Einsatz kommen. Dazu gehören z. B. das Protokoll TCP/IP und das Ethernet.

Die 1990er-Jahre sind die Geburtsstunde des World Wide Web (WWW) als Dienst innerhalb des Internets. Nachdem die Öffentlichkeit 1993 Zugang zum WWW erhält, wächst es sehr rasch.

In den frühen 2000er-Jahren entstehen soziale Netzwerke – die Bedeutung des Internets (insbesondere des WWW) steigt weiter. Heute ist es das wahrscheinlich wichtigste Medium für viele Menschen.

Auch in Zukunft wird sich das Internet weiterentwickeln und neue Technologien werden an Bedeutung gewinnen. Die gesellschaftliche und wirtschaftliche Relevanz des Internets wird dadurch mutmaßlich weiter steigen.

Quelle:

https://www.o2business.de/magazin/geschichte-des-internets/

Trojaner: So schützen Sie Ihr Unternehmen vor getarnter Schadsoftware

Trojaner gehören zu den gefährlichsten Cyberbedrohungen für Unternehmen. Sie zählen zu den ältesten Formen von Malware, werden aber stetig weiterentwickelt und haben daher nicht an Gefährlichkeit verloren.  Obwohl es sich um eine bekannte Form von Schadsoftware handelt, sind Trojaner schwierig zu erkennen. Gleichzeitig gibt es wirksame Schutzmaßnahmen.

Was ist ein Trojaner?

Als Trojaner oder trojanisches Pferd bezeichnet man in der Informationstechnologie getarnte Schadsoftware. Cyberkriminelle verstecken dabei Malware in scheinbar nützlichen Programmen. Öffnen Anwender diese trojanischen Pferde, wird ihr Computer oder Handy infiziert. Die Folgen können verheerend sein. Je nach Art des Schadprogramms können Angreifer etwa…

…Tastatureingaben aufzeichnen 

…Passwörter auslesen

…Daten kopieren, blockieren, modifizieren oder löschen

…„Hintertüren“ öffnen und weitere Malware installieren

Im Unterschied zu Computerviren und Würmern, verbreiten sich Trojaner in der Regel nicht selbstständig weiter. Ihre Erschaffer setzen stattdessen auf Täuschung und bieten ihre trojanischen Pferde meist in unseriösen Quellen oder über verseuchte Werbung zum Download an.

Trojaner gehören zu den ältesten Schadprogrammen

Bereits Anfang der 1970er Jahre entstanden zunächst theoretische Konzepte zu Trojanern. Nur wenig später wurden die ersten schadhaften Programme dieser Art eingesetzt und sollen etwa im kalten Krieg eine Rolle gespielt haben.

Der erste Fall eines Erpressungstrojaners, der öffentliche Aufmerksamkeit erregte, war die AIDS-Ransomware aus dem Jahr 1989. Sie wurde damals noch nicht über das Internet verbreitet: Der Hacker verschickte postalisch 20.000 Disketten und versprach den Empfängern Informationen über das HI-Virus. Nach einiger Zeit begann die Malware, Dateien auf den infizierten Computern zu verstecken und die Dateinamen zu verschlüsseln.

Seither haben Cyberkriminelle immer neue Arten von Trojanern entwickelt, aber auch die Lösungen zur Datensicherheit wurden stetig verbessert. Zu den verschiedenen Arten von Trojanern lesen sie mehr im entsprechenden Abschnitt dieses Artikels.

So funktioniert die Schadsoftware

Durch das Ausführen des Wirtsprogramms wird auch die darin versteckte Schadsoftware gestartet und kann so Sicherheitsvorkehrungen, wie z. B. Firewalls, umgehen.

Aufbau und Funktionsweise

Bei Trojanern handelt es sich in der Regel um zwei eigenständige Programme, die miteinander verknüpft sind. Diese Verknüpfung wird oftmals über sogenannte Linker oder Dropper realisiert.

Linker verknüpfen den Trojaner mit einer beliebigen ausführbaren Wirtsdatei. Wird das Programm, an das sich der Trojaner gekoppelt hat, ausgeführt, startet zugleich auch die Malware unbemerkt im Hintergrund. Der Trojaner ist also nur aktiv, wenn auch das Wirtsprogramm ausgeführt wird.

Dropper hingegen legen das Schadprogramm auf dem System ab. Wird das trojanische Pferd geöffnet, installiert sich sie Malware unbemerkt im Hintergrund. In der Regel heftet sich die Schadsoftware an Autostartprogramme oder Hintergrunddienste und wird so bei jedem Start des Computers aktiv.

Eigenständige Trojaner gelangen, ebenfalls versteckt in anderen Programmen, auf die Rechner ihrer Opfer. Nach der Installation agieren sie allerdings eigenständig und können etwa den Browser für illegale Aktivitäten missbrauchen. Ein bekanntes Beispiel ist der Trojaner Emotet, der im Hintergrund Malware nachlädt, die dann das betroffene Gerät verschlüsselt.

Browser-Trojaner sind eine bekannte Variante der Integration des Schadcodes in die Wirtssoftware. In diesem Fall verlässt der Trojaner sein Versteck nicht, sondern verrichtet seine schadhafte Arbeit, sobald das Wirtsprogramm ausgeführt wird. Im Umkehrschluss bedeutet das, dass er mit der Wirtssoftware zusammen auch wieder deinstalliert werden kann.

Verbreitung

Verbreitet werden Trojaner etwa per Anhang in Phishing-Mails oder in präparierten Programmen, die meist kostenlos zum Download angeboten werden. Hacker wählen dafür häufig unseriöse Plattformen, die nur über geringe Sicherheitsvorkehrungen verfügen, um ihre Malware anzubieten.

Eine besonders perfide Methode ist der Download per Pop-up. Dabei erscheint ein Fenster auf Ihrem Endgerät, das Sie warnt, Ihr Computer oder Smartphone sei mit Malware infiziert. Folgen Sie den Anweisungen und laden sich das empfohlene Antiviren-Programm herunter, installieren Sie damit einen Trojaner auf Ihrem Gerät.

Diese Arten von Trojanern gibt es

Trojaner lassen sich einerseits nach Art und Aufbau (wie oben beschrieben) unterscheiden, andererseits nach ihrer Aktivität.

Backdoor-Trojaner manipulieren das Sicherheitssystem des infizierten Geräts und öffnen Hintertüren. Durch diese können Cyberkriminelle Zugriff auf das System erhalten oder weitere Schadsoftware installieren. 

Banking-Trojaner sind darauf ausgelegt, Kontodaten und Online-Banking-Zugänge zu erbeuten.

Trojan-Spy-Programme sind eine Form von Spyware mit der etwa Screenshots erstellt, vertrauliche Daten ausgelesen oder Tastenanschläge aufgezeichnet werden können.

Erpressungstrojaner sind auch bekannt als Ransomware. Diese Variante verschlüsselt Daten auf infizierten Geräten. In der Regel fordern Cyberkriminelle anschließend ein Lösegeld.

SMS-Trojaner befallen Smartphones und Firmenhandys. Sie sind z. B. getarnt als SMS-App und senden Nachrichten an kostenpflichtige Rufnummern. Sie kommen auch zum Einsatz, um Zwei-Faktor-Authentifizierungen zu manipulieren.

DDoS-Trojaner machen das infizierte Gerät zum Teil eines Bot-Netzwerks, mit dem DDos-Attacken ausgeführt werden. 

Fake-Antivirus-Trojaner tarnen sich als Anti-Virus-Software und zeigen falsche Sicherheitswarnungen an. In der Regel wird Geld gefordert, um die vermeintliche Bedrohung zu beseitigen. Zudem werden häufig sensible Bankdaten an die Hacker übermittelt.

Weitere Formen von Trojanern sind u. a. Rootkits, Exploits, Mailfinder oder Notifier. Die Vielzahl der Varianten dieser Malware macht deutlich, wie weit verbreitet Trojaner sind und wie wichtig ein effektiver Schutz gegen diese Bedrohung ist.

Trojaner erkennen und entfernen

Die Zeiten, in denen Trojaner sich recht zuverlässig durch Merkmale wie doppelte Dateiendungen verrieten, sind aufgrund der Weiterentwicklungen durch Cyberkriminelle leider größtenteils vorüber.

Bei folgenden Anzeichen sollten Sie aufmerksam werden und prüfen, ob Ihre Systeme infiltriert wurden:

Ihr Computer ist ungewöhnlich langsam: Die Hintergrundaktivität der Schadsoftware kann die Leistung beeinflussen, da sie Rechenleistung und Systemressourcen in Anspruch nimmt.

Ungewöhnliches Verhalten Ihres Computers, wie z. B. ein sich von selbst bewegender Mauszeiger oder sich selbstständig öffnende Anwendungen sind ebenfalls ein Alarmsignal.

Ungewöhnliche Pop-ups erscheinen: Kommt Ihnen ein plötzlich auftauchendes Fenster verdächtig vor und werden Sie darin zum Klick auf einen Link aufgefordert, sollten Sie vorsichtig sein und den Link nicht anklicken. Besser ist es, das Fenster umgehend zu schließen.

E-Mails mit ungewöhnlichen oder unerwarteten Anhängen können ebenfalls Trojaner enthalten. Da dies eine der häufigsten Verbreitungsmethoden ist, sollten Sie Anhänge und Links in Mails immer prüfen, bevor Sie sie öffnen.

Dateien verschwinden plötzlich, lassen sich nicht öffnen, oder werden unerwartet verschoben. 

Neue Applikationen tauchen im Startmenü auf oder es finden sich unerwartete Screenshots auf dem Desktop oder an anderen Stellen.

Eine langsame oder unterbrochene Internetverbindung kann ebenfalls ein Zeichen dafür sein, dass ein Trojaner im Hintergrund zusätzliche Malware herunterlädt.

All diese Merkmale können auch andere, harmlose Erklärungen haben. Allerdings sollten Sie diese Warnsignale ernst nehmen und umgehend einen Malware-Scan Ihres Geräts durchführen oder Ihre IT-Abteilung informieren.

Trojaner entfernen

Da es sich in den meisten Fällen bei einem Trojaner lediglich um ein Transportprogramm handelt, hilft die Deinstallation meist nicht, um die Bedrohung zu beheben. Ist die Malware abgekoppelt, verbleibt sie auch nach der Deinstallation des Wirtsprogramms auf dem Gerät. Eine Ausnahme sind hier die oben erwähnten Browser-Trojaner und ähnliche, bei denen der Schadcode in das jeweilige Programm integriert ist.

Da viele Formen von Trojanern bekannt sind, hilft häufig die Verwendung eines Anti-Viren-Programms. Dieses kann die Schadsoftware erkennen, isolieren und löschen.

Das Perfide an Trojanern ist, dass sie oftmals weitere Malware installieren. Um auch diese zu erkennen, empfiehlt sich ein vollständiger Scan des betroffenen Geräts, inklusive der Registrierungsdatenbank. Da diese oft sehr umfangreich ist, dauert ein manueller Check durch einen IT-Experten häufig sehr lang und ist zeit- und kostenintensiv.

Bestehen die Probleme nach der Überprüfung und Reinigung des Systems durch die Anti-Virus Software fort, hilft meist nur eine vollständige Systemwiederherstellung. Für diesen Fall sollten Unternehmen regelmäßig Backups ihrer Systeme anlegen, um Datenverlust zu vermeiden.

Halten Sie Ihre Mitarbeiterinnen und Mitarbeiter dazu an, sich an die grundlegenden Regeln der Cybersecurity zu halten. Dazu gehören:

Installieren Sie ausschließlich Programme und Anwendungen aus vertrauenswürdigen Quellen. Achten Sie darauf, dass keine (meist kostenlos angebotenen) Zusatzprogramme installiert werden.

Stellen Sie vor dem Öffnen von E-Mail-Anhängen sicher, dass es sich nicht um ausführbare Dateien handelt. Einige Trojaner verwenden nach wie vor doppelte Dateiendungen, wie z. B. „dokument.pdf.exe“.

Installieren Sie eine Anti-Virus-Software und aktualisieren Sie diese regelmäßig.

Auch Firewalls und andere Lösungen zur Datensicherheit schützen Ihre Computer, Tablets und Handys.

Besonders für Unternehmen mit mehreren Angestellten und entsprechend vielen Geräten lohnt es sich, eine Software zum Mobile Device Management (MDM) oder zum Enterprise Mobility Management (EMM) anzuschaffen. Damit können Firmengeräte zentral durch Ihre IT-Abteilung verwaltet und die Installation von Schadsoftware aller Art verhindert werden.

Quelle:

https://www.o2business.de/magazin/trojaner/

Mobile Datenerfassung in der Pflege: Herausforderungen meistern

Für mobile Pflegefachkräfte ist das Handy ein wichtiges Werkzeug. Sie nutzen es zur Terminplanung und der Kommunikation mit den Klienten. Gleichzeitig dient es zur mobilen Datenerfassung, Dokumentation und als Navigationsgerät. Daher stellt der Pflegeberuf besondere Anforderungen an Smartphones, aber auch an die IT-Abteilung im Hintergrund.

Mobile Datenerfassung steigert die Effizienz

Ambulante Pflegedienste sind heute auf mobile Geräte wie Firmenhandys angewiesen. Die Mitarbeiterinnen und Mitarbeiter verbringen die meiste Zeit ihres Arbeitstages unterwegs – das Smartphone ist daher ein essenzielles Arbeitsgerät.

Die mobilen Geräte steigern die Effizienz der mobilen Pflegefachkräfte. Sie ermöglichen es ihnen, wichtige Daten unterwegs zu erfassen. Dazu gehört u. a….

…die Dokumentation der Arbeitszeit

…die Dokumentation der erbrachten Leistung

…Prozessdokumentation

…Zugriff auf wichtige Daten der Klienten

…Bearbeitung der Patientenakte

Eintragungen in das digitale Übergabebuch

So geschieht es auch beim ABZ – Ambulantes Betreuungszentrum in Berlin. Die GmbH hat sich auf die Pflege im psychiatrischen und gerontopsychiatrischen Bereich spezialisiert. Prokurist Martin Grundmann hält fest:

Das Smartphone ist ein unverzichtbares Werkzeug und vereinfacht die tägliche Arbeit in vielerlei Hinsicht“. 

Die Angestellten des ABZ nutzen spezielle Apps für die mobile Datenerfassung. Sie erfassen Zeiten, dokumentieren Leistungen, koordinieren Termine und rufen wichtige Daten vom Unternehmensserver ab.

Anforderungen an Diensthandys für Pflegekräfte

Um die speziellen Apps für die Pflegedokumentation auf Smartphones nutzen zu können, müssen einige grundlegende Voraussetzungen erfüllt sein. Einerseits braucht es kompatible und leistungsfähige Geräte, andererseits Mobilfunktarife mit ausreichendem Datenvolumen.

Zu den Anforderungen an Handys für Pflegedienste gehören u. a….

…Zuverlässigkeit

…Modernität

…Lange Akkulaufzeit

…Robustheit

…Gutes Preis-Leistungs-Verhältnis

Mitarbeiterinnen und Mitarbeiter von Pflegediensten müssen sich auf Ihre mobilen Geräte verlassen können. Das bedeutet, ein Handy benötigt genügend Rechenleistung, um die Apps zur Pflegedokumentation zu nutzen. Es braucht zudem einen ausdauernden Akku, der den gesamten Arbeitstag Energie liefert.

Zudem ist die Robustheit entscheidend. Der Arbeitsalltag von Pflegekräften kann sehr anspruchsvoll sein – ein gutes Diensthandy muss daher auch außergewöhnlichen Belastungen standhalten. Es sollte etwa Stürze überstehen können und gegen Staub und Flüssigkeiten abgedichtet sein. Daher erfreuen sich robuste Smartphones wie die Samsung Galaxy XCover-Serie großer Beliebtheit in der Branche.

Aus unternehmerischer Sicht ist neben dem Preis-Leistungs-Verhältnis vor allem wichtig, dass die Geräte bei einer Neuanschaffung schnell verfügbar sind. Außerdem sollten sie problemlos eingerichtet und in das bestehende IT-System Ihres Pflegedienstes eingebunden werden können. Je schneller ein neues Smartphone einsatzbereit ist, desto geringer sind die Kosten für Ihr Unternehmen.

Datensicherheit bei mobil erfassten Gesundheitsdaten

Ein äußerst wichtiges Thema für Pflegedienste ist die Datensicherheit. Pflegefachkräfte nutzen die mobilen Geräte für die Planung und Koordination ihres Pflegealltags. Dafür greifen sie auf Patientenakten und andere hochsensible Daten der Klienten zu. Ein Hackerangriff könnte daher verheerende Folgen haben – besonders für den betroffenen Pflegedienst.

Um die Diensthandys Ihrer Pflegekräfte gegen Angriffe abzusichern, sollten diese regelmäßige Softwareupdates erhalten. Stellen Sie daher sicher, dass der Support für Ihre Geräte gegeben ist –aktuell und für möglichst lange Zeit. Zusätzlich empfehlen sich Schutzmaßnahmen wie Antivirenprogramme.

Zudem ist es wichtig, dass Sie Ihre Mitarbeiterinnen und Mitarbeiter regelmäßig schulen, damit sie die Unternehmensrichtlinien im Umgang mit sensiblen Daten einhalten. Letztere sollten beispielsweise nicht in privaten Ordnern der eigenen Dropbox abgelegt oder per Messenger verschickt werden.

Mobile Device Management steigert die Sicherheit

Ein gutes Mobile Device Management (MDM) System hilft dabei, die Sicherheit der Daten auf den Geräten zu erhöhen und die Richtlinien der DSGVO einzuhalten.

MDM gibt Ihnen auch aus der Ferne Kontrolle über Ihre Firmengeräte – per Fernwartung können Sie etwa die Installation wichtiger Updates auf den Geräten veranlassen. Falls nötig, z. B. bei Verlust oder Diebstahl, lassen sich das Gerät und die darauf befindlichen Daten aus der Ferne sperren.

Darüber hinaus können Sie Berechtigungen zur Installation von Apps steuern und Browsereinstellungen administrieren. Damit verhindern Sie, dass Schadsoftware wie Spyware den Weg auf die Geräte findet.

Und auch bei der Einhaltung der Datenschutzrichtlinien kann MDM unterstützen. Etwa indem private und berufliche Daten klar getrennt und bestimmte Dienste komplett gesperrt werden. Weitere Informationen zum Mobile Device Management finden Sie in unserem Artikel zum Thema.

Verwaltungsaufwand und Kosten minimieren

Eine MDM-Software bietet nicht nur Sicherheit, sondern vereinfacht auch die Einrichtung und Administration Ihrer mobilen Firmengeräte.

So erleichtert Mobile Device Management die Integration neuer Handys in Ihre bestehende Firmenstruktur. Oft bieten Smartphone-Hersteller eigene Lösungen zur Einbindung neuer Geräte an. Bekannte Lösungen sind etwa Samsung Knox und Apple DEP (Device Enrollment Program). Bei der Auswahl eines MDM-Systems lohnt es sich daher darauf zu achten, dass es mit den Programmen der Hersteller kompatibel ist.

Darüber hinaus lassen sich die Geräte aus der Ferne warten. Dadurch müssen Mitarbeitende seltener die IT-Abteilung aufsuchen. So schonen Sie die Ressourcen Ihrer IT-Abteilung und Ihrer Pflegekräfte.

Übersichtliche Verwaltung von Verträgen und Rechnungen

Neben der Geräteadministration spielt auch die Verwaltung und Skalierung der Verträge, SIM-Karten und Rechnungen eine wichtige Rolle. Das bestätigt auch Lars Neuwöhner, IT-Leiter beim DRK Bielefeld. Er freut sich eine Lösung gefunden zu haben, die ihm die Verwaltung durch ein nutzerfreundliches Onlineportal erleichtert:

Das Portal ist sehr übersichtlich. Falls doch einmal Hilfe notwendig war, konnten wir unser Problem nach einem kurzen Telefonat jedes Mal umgehend lösen“.

Die Angestellten des DRK Bielefeld sind u. a. in der Altenpflege tätig. Über eine App organisieren sie ihre Aufgaben, planen Routen, rufen Daten der Klienten ab und schreiben Berichte – ohne dafür ins Büro fahren zu müssen. So können sie jederzeit flexibel auf Änderungen am Tagesplan reagieren.

Überblick: Mobile Datenerfassung in der ambulanten Pflege

Mobile Datenerfassung …

…ist ein wesentlicher Bestandteil des mobilen Arbeitens. Sie entlastet Pflegekräfte und steigert gleichzeitig ihre Effizienz.

…benötigt entsprechende mobile Geräte. Diese sollten stets aktuell gehalten werden und abgesichert sein.

…erfordert besonders hohe Datensicherheit. Neben Antivirenprogrammen kann auch ein MDM-System sinnvoll sein.

…geht über die mobilen Pflegekräfte hinaus. Sie betrifft auch die IT-Abteilung und die Verwaltung des Pflegedienstes.

Quelle:

https://www.o2business.de/magazin/mobile-datenerfassung-pflege/

Ethernet: Die kabelgebundene Netzwerkverbindung erklärt

Ethernet-Datennetze sorgen für eine stabile und sichere Netzwerkumgebung in Ihrem Unternehmen. Ethernet wurde bereits in den 1970er Jahren entwickelt und wird seither beständig verbessert – heute gilt es als Goldstandard für Computernetzwerke. Wir fassen zusammen, wie die Technologie funktioniert.

Ethernet: Das steckt hinter der Technologie

Ethernet ist eine standardisierte Technologie, die in kabelgebundenen Netzwerken den Datenaustausch zwischen verschiedenen Endgeräten ermöglicht, indem es – vereinfacht ausgedrückt – die Kommunikation zwischen Software und Hardware regelt.

Das Ethernet verbindet also Geräte wie Desktop-PCs, Drucker, Router und Server über ein lokales Netzwerk (LAN – Local Area Network) miteinander und ggf. über Schnittstellen mit dem Internet. Es eignet sich darüber hinaus auch für IoT-Geräte.

Solche Datennetze können im privaten Gebrauch als Heimnetzwerk nützlich sein, spielen dort aber eher eine untergeordnete Rolle. Besonders Unternehmen profitieren von dieser Technologie, da sie eine effiziente, stabile und sichere Netzwerkumgebung im Büroumfeld schafft.

Ist Ethernet dasselbe wie LAN?

Der Begriff Ethernet wird oftmals synonym zu LAN-Verbindungen verwendet, da sich die Technologie gegenüber anderen (wie Token Ring oder ARCNET) durchgesetzt hat.

LAN ist jedoch ein Oberbegriff für diverse kabelgebundene Netzwerke, während Ethernet ein Standard von mehreren ist, die die LAN-Technik umsetzen. Im Gegensatz zum Ethernet ist aber auch ein WLAN (Wireless Local Area Network) Teil einer LAN-Umgebung.

Diese Übertragungsgeschwindigkeiten sind möglich

Während in den Anfangsjahren des Ethernets gerade einmal Übertragungen in einer Geschwindigkeit von bis zu 3 Megabit pro Sekunde (Mbit/s) möglich waren, werden heutzutage mit dieser Technologie Daten mit deutlich höheren Geschwindigkeiten transferiert – die folgenden Datenraten sind möglich:

Ethernet (klassisch): 10 Mbit/s

Fast-Ethernet: 100 Mbit/s

Gigabit-Ethernet: 1.000 Mbit/s, bzw. 1 Gigabit pro Sekunde (Gbit/s) – aber auch bis zu 10 Gbit/s sind möglich

Der Ethernet-Standard wird stetig weiterentwickelt – ab einer Übertragungsleistung von 100 Gbit/s spricht man von Terrabit-Ethernet. Aber auch Standards mit Übertragungsraten von 800 Gbit/s und mehr werden bereits getestet.

Die Vor- und Nachteile von Ethernet-Verbindungen

Grundsätzlich ermöglichen Ethernet-Datennetze Unternehmen den Aufbau einer stabilen Netzwerkstruktur. Darüber hinaus haben Ethernet-Verbindungen gewisse Vor- und Nachteile für Ihr Unternehmen. Die folgenden Punkte können daher für Sie relevant sein:

Vorteile

Kabelgebundenes Ethernet liefert eine stabile Datenübertragung und ist weniger störanfällig als kabellose Lösungen wie WLAN, bei der es zu Paketverlusten und Latenzproblemen kommen kann.

Ethernet-Netzwerke sind dank ihrer hohen Abwärtskompatibilität sehr langlebig und nachhaltig. Zwar wird die Technologie stetig weiterentwickelt, ältere Komponenten sind allerdings leicht mit neueren kombinierbar.

Dank der sogenannten Power-over-Ethernet (POE)-Technologie sind bei diesem Ethernet-Standard für Telefoniegeräte häufig keine zusätzlichen Kabel mehr nötig, da das Datennetz die Geräte bereits mit Strom versorgt.

In Ethernet-Umgebungen lässt sich genauestens überprüfen, welche Geräte mit dem lokalen Netzwerk verbunden sind. Das sorgt für eine höhere Datensicherheit und erschwert das Eindringen Cyberkrimineller in das System durch Sicherheitsmaßnahmen wie z. B. eine begrenzte Portanzahl.

Nachteile

Die Ethernet-Technologie eignet sich nur bedingt für zeitkritische Datenübertragungen: Die Informationen werden in Paketen ohne feste Zugriffsraster von Sender zu Empfänger transportiert („Best-Effort-Verfahren“). So kann nicht garantiert werden, dass die Daten innerhalb einer bestimmten Zeit am Zielgerät ankommen.

Die Anschlusskosten je Gerät liegen aufgrund des benötigten Equipments im Schnitt höher als bei kabellosen Verbindungen.

Nicht alle Endgeräte verfügen über entsprechende Ports, die für einen Ethernet-Anschluss erforderlich sind. Desktop-PCs sind in der Regel damit ausgestattet, modernere Laptops hingegen – je nach Gerätemodell – nicht zwangsläufig. Daher sind unter Umständen Adapter nötig.

Auch für Endgeräte wie Smartphones und Tablets, mit denen Sie Ihren Angestellten zwar flexibles Arbeiten ermöglichen, können Sie grundsätzlich nur mit entsprechendem Adapter ins kabelgebundene Ethernet einbeziehen.

Bei der Abwägung der Vor- und Nachteile von kabelgebundenen Ethernet-Verbindungen wird deutlich, dass die größte Stärke in ihrer Stabilität und Zuverlässigkeit liegt. Im Gegensatz zu WLAN-Lösungen laufen Sie zudem nicht Gefahr, dass Signale durch bauliche Gegebenheiten wie Wände oder andere Funksignale behindert werden und Sie Maßnahmen zur Verstärkung des WLAN-Signals ergreifen müssen.

So funktioniert das Ethernet: Wichtige Begriffe und ihre Bedeutung

Das Ethernet setzt sich aus verschiedenen Komponenten zusammen. Im Folgenden erfahren Sie mehr zu den wichtigsten Begriffen und der Funktionsweise des Datennetztes.

Ethernet-Aufbau

Im Ethernet wird jedem Gerät eine eigene Adresse zugeordnet – die sogenannte MAC-Adresse. Alle an die Ethernet-Verbindung angeschlossenen Geräte wie Rechner, Server, Drucker und Co. können so Daten miteinander austauschen. Die Kommunikation wird dabei über das Ethernet-Protokoll geregelt, das im Hintergrund dafür sorgt, dass Kollisionen bei der Datenübertragung vermieden werden. Heute sind im Büro-Umfeld vor allem die Standard-Varianten IEEE 802.3u (Fast Ethernet) und 802.3z bzw. 802.3ab (Gigabit-Ethernet) verbreitet.

Ethernet-Kabel

Die im Ethernet üblichen Netzwerkkabel gibt es in verschiedenen Varianten und Kategorien (erkennbar am entsprechenden CAT-Kürzel), die jeweils unterschiedliche Standards beschreiben. Sie unterscheiden sich bspw. in den möglichen Übertragungsgeschwindigkeiten, aber auch in der Isolierungsart.

Weit verbreitet sind sogenannte Twisted-Pair Kabel. Diese bestehen aus zwei miteinander verdrillten Kupferadern und sind besonders flexibel. Sie können laut Standard pro Einzelstrang bis zu 100 Meter lang verlegt werden.

Mehr Reichweite ermöglicht die Glasfaser-Technologie: Mit sogenannten Multimode-Glasfaser-Kabeln können je nach gewünschter Übertragungsgeschwindigkeit Strecken von bis zu zwei Kilometern (100 Mbit/s) überbrückt werden. Mit Singlemode-Glasfaserkabeln sind sogar bis zu zehn Kilometer ohne zwischengeschaltete Hardware zur Signalverstärkung möglich.

Die Kabel sind zudem in verschiedenen Farben erhältlich: An diesen lässt sich erkennen, welchen Standard das Kabel verwendet (Singlemode oder Multimode und zugehörige Faserarten).

Ethernet-Switch

Die dem Netzwerk zugehörigen Geräte sind in der Regel mit einem Switch verbunden und bauen zu diesem eine eigene Verbindung auf. Der Switch stellt in Verbindung mit den Ethernet-Protokollen sicher, dass einzelne Geräte ohne Übertragungskollisionen direkt miteinander kommunizieren können und die einzelne Leitung immer nur von einem Gerät gleichzeitig zur Übertragung genutzt wird.

Ethernet-Frame

Die Datenpakete, die per Ethernet übertragen werden, enthalten u. a. sogenannte Frames, die sich wiederum in verschiedene Datensätze aufteilen. Darin enthalten sind standardisierte Informationen, die für die Datenübertragung erforderlich sind – dazu zählen etwa die jeweiligen MAC-Adressen, Nutzdaten, Steuerungsinformationen und mehr.

Aufbau eines Datenpakets (vereinfacht)

Die Geschichte des Ethernets

Das Ethernet gibt es bereits seit rund 50 Jahren: In den 1970er Jahren wurde die Technologie im Forschungslabor des US-amerikanischen Technologie und Dienstleistungsunternehmens Xerox (Palo Alto Research Center) entwickelt. Damals sollte es lediglich firmenintern Geräte miteinander verbinden – bei einer Übertragungsgeschwindigkeit von maximal 3 Mbit/s.

In den 1980er Jahren wurde das Ethernet standardisiert und auf diese Weise der Öffentlichkeit zugänglich gemacht. Wenige Jahre später war die Technologie bereits weit verbreitet – 1985 folgte schließlich die Veröffentlichung des internationalen Standards ISO/DIS 8802/3, der die Grundlage bildete, mit der heutzutage zahlreiche Firmen dank Ethernet ihre Geräte vernetzen können.

Heute regelt das Ethernet-Protokoll IEEE 802.3 als Nachfolger der Standards IEEE 802.1 und IEEE 802.2 die Kommunikation der Geräte in einem entsprechenden Netzwerk. Festgelegt werden diese Standards vom Institute of Electrical and Electronics Engineers (IEEE) – einem weltweiten Berufsverband von Wissenschaftlern, Technikern und Ingenieuren.

Ethernet im Überblick

Ethernet…

…ist eine standardisierte Technologie für kabelgebundene Netzwerke und ermöglicht den Datenaustausch zwischen verschiedenen Endgeräten wie Rechnern, Druckern, Routern, Servern und mehr.

…ermöglicht effizientes Arbeiten für Unternehmen, da je nach Art der verwendeten Kabel im Netzwerk Übertragungsgeschwindigkeiten im Gigabit-Bereich erreicht werden können.

…ist deutlich stabiler und weniger störanfälliger als kabellose WLAN-Umgebungen.

…büßt im Vergleich zu kabellosen Netzwerken zwar an Flexibilität ein, ermöglicht aber eine höhere Datensicherheit im Unternehmen, da sofort erkennbar ist, welche Geräte im Netzwerk angeschlossen sind.

Quelle:

https://www.o2business.de/magazin/ethernet/

Android 15: Neuerungen, Release & Co. im Überblick

2024 veröffentlicht Google vermutlich eine neue Version seines Android-Betriebssystems: Doch welche Neuerungen könnte Android 15 auf unterstützte Geräte bringen? Und was wissen wir bereits über den Release? Wir fassen die wichtigsten Informationen hier zusammen.

Hinweis: Bitte bedenke, dass es bislang keine offiziellen Details zu Android 15 gibt. Die hiesigen Informationen basieren zum größten Teil auf Gerüchten und Spekulationen, die Du mit Vorsicht behandeln solltest.

Release von Android 15: Alles beim Alten?

In der Regel veröffentlicht Google jedes Jahr im Spätsommer beziehungsweise Frühherbst ein großes Android-Update. So ist Android 12 am 4. Oktober 2021 erschienen, Android 13 am 15. August 2022 und Android 14 am 4. Oktober 2023.

 

Wir gehen zum jetzigen Zeitpunkt davon aus, dass der Nachfolger in einem ähnlichen Zeitraum erscheint. Ein mögliches Release-Fenster für Android 15 ist der September oder Oktober 2024. Bereits im Februar 2024 sollte die erste Developer-Preview für Entwickler:innen erscheinen – und uns damit einen Ausblick auf die neue Version geben.

 

Der Öffentlichkeit präsentiert wird Android 15 vermutlich im Mai oder Juni 2024 auf der Entwicklerkonferenz I/O: Dort stellt Google in der Regel nicht nur neue Geräte, sondern auch die nächste große Android-Version vor. Anschließend sollte die öffentliche Betaphase zu Android 15 starten, bevor im Herbst 2024 dann der finale Roll-out erfolgt.

Zu den ersten Android-Smartphones, die das große Update bei Release installieren können, gehören vermutlich die Pixel-Smartphones von Google. Das Pixel 8 und Pixel 8 Pro sind zum Beispiel sichere Kandidaten. Das mutmaßlich im Herbst 2024 erscheinende Pixel 9 hat Android 15 wahrscheinlich ab Werk installiert.

Die Neuerungen von Android 15: Das wissen wir bereits

Die neue Android-Version soll Gerüchten zufolge intern „Android V” – „Android Vanilla Ice Cream” – heißen. Im Folgenden findest Du Gerüchte zu den Neuerungen, die mit Android 15 auf Deinem Smartphone landen könnten. Bedenke auch hier, dass es noch keine offiziellen Infos gibt. Und nicht alle Features, die in einer Android-Beta verfügbar sind, schaffen es auch in die finale Version.

 

Neu in Android 15: Widgets auf dem Sperrbildschirm?

Zu den Neuerungen könnten womöglich Widgets auf dem Sperrbildschirm gehören. Google hatte ein solches Feature bereits in Android 4.2 eingeführt. Anschließend ist es aber wieder aus dem Android-Betriebssystem verschwunden. Mit Android 15 könnte die Funktion nun ein Comeback feiern, wie Android Authority berichtet.

Für Nutzer:innen eines aktuellen Samsung-Smartphones würde das Feature aber nicht völlig „neu” sein: Unter „Einstellungen | Sperrbildschirm | Widgets” können sie bereits jetzt einige Widgets auf dem Sperrbildschirm ihres Handys ablegen.

 

Samsungs aktuelle Android-Version unterstützt bislang aber nur einige wenige Widgets, darunter für Wetter und Alarm. Widgets von Drittanbieter:innen kannst Du zum Beispiel nicht ablegen.

 

Auracast: Bluetooth-Feature erleichtert Audiostreaming für Gruppen

Zu den mutmaßlichen Funktionen von Android 15 gehört auch Auracast. Das zum Bluetooth-Standard LE Audio zählende Feature ermöglicht es Dir, Audioinhalte auf mehrere Geräte gleichzeitig zu übertragen – zum Beispiel Kopfhörer.

Bislang befindet sich die Funktion bei Google wohl noch im Entwicklungsstadium. Wie sie in Zukunft funktionieren könnte, ist noch nicht bekannt. Erste Hinweise in einer Android-Beta weisen aber darauf hin, dass Du das Feature vielleicht über die Verbindungseinstellungen aktivieren kannst.

 

Auracast ist eine Technologie der Bluetooth SIG (globale Gemeinschaft zur Weiterentwicklung von vernetzten Geräten) und wurde bereits 2022 vorgestellt. Bislang findet sie sich allerdings nur auf wenigen Geräten. Die gute Nachricht: Auracast lässt sich per Update nachgerüsten, wenn das entsprechende Gerät sowohl Bluetooth 5.2 als auch Low Energie Audio (LE) unterstützt.

Neu in Android 15: App-Archivierung ins Betriebssystem integrieren

Womöglich ebenfalls neu in Android 15: Die App-Archivierung könnte direkt ins Android-System integriert sein. Bislang funktioniert das Feature (sofern eingeschaltet) noch automatisch über den Google Play Store. Durch die Archivierung kannst Du laut Google bis zu 60 Prozent Speicherplatz zurückgewinnen. Gerade Android-Geräte, auf denen nur noch wenig Speicherplatz verfügbar ist, profitieren also davon.

Android Authority hat in einem Quellcode nun Hinweise darauf gefunden, dass die App-Archivierung künftig nicht mehr an den Play Store gebunden sein könnte. Möglicherweise kannst Du einzelne Anwendungen dann auch manuell archivieren.

Der Vorteil: Integriert Google die Funktion direkt ins Betriebssystem, lassen sich auch Apps archivieren, die Du außerhalb des Play Store heruntergeladen hast.

Android mit weiteren Infos zur Akku-Gesundheit

Möglicherweise erweitert Google mit dem kommenden Update auch die Akku-Einstellungen: So könnte Dich Dein Android-Handy künftig auch mit Informationen zu Alter und Zustand des Akkus sowie den erfolgten Ladevorgängen versorgen.

 

Hinweise auf dieses Feature wurden in einer Entwickler-Beta von Android 14 entdeckt, wie Android Police schreibt. Wahrscheinlich rollt Google sie aber erst mit der Folgeversion aus.

Neu in Android 15: Alternative Sprachassistenz per Aktivierungswort starten?

Gerüchten zufolge könnte Google es mit Android 15 erleichtern, eine alternative Sprachassistenz zu nutzen. Wir erinnern uns: Auf einem Android-Smartphone kannst Du via „Hey Google” schnell und einfach den Google Assistant aktivieren. Für alternative Sprachassistenzen (mit Ausnahme von vorinstallierter Software wie Bixby) wird ein solches Feature bislang nicht angeboten.

Das könnte sich mit Android 15 ändern: So ist es künftig vielleicht möglich, auch für Software wie ChatGPT ein entsprechendes Aktivierungswort festzulegen. Wie genau das Ganze funktioniert, ist bislang aber nicht bekannt.

Quelle:

https://www.vodafone.de/featured/smartphones-tablets/android-15-update-neue-funktionen-release/#/

 

Computervirus: Erfolgreich erkennen und entfernen

Ein Computervirus ist eine Schadsoftware, die sich über Netzwerke, E-Mails oder Dateiübertragungen selbst weiterverbreiten kann. Ein solches Virus manipuliert, beschädigt oder löscht Daten und kann besonders Unternehmen schädigen. Welche Arten von Computerviren es gibt, was Sie dagegen tun können und wie Sie sich schützen.

Was ist ein Computervirus?

Ein Computervirus ist ein schädlicher Programmcode, der sich häufig innerhalb einer zunächst harmlos wirkenden Datei versteckt und sich auf einem befallenen System oder in ungeschützten Netzwerken selbständig vervielfachen oder in besonders kritische Systembereiche eindringen kann. Auf diese Weise infiziert es häufig mehrere Dateien auf einem Computer und springt auch auf andere Geräte über, wenn z. B. infizierte Dateien per E-Mail versendet oder über einen Wechseldatenträger übertragen werden.

Einige Computerviren sind lästig, stellen aber keine große Gefahr dar. Andere hingegen richten bei Cyberangriffen erheblichen Schaden an: Die Programmcodes sind in der Lage, Systemsoftware zu zerstören, wichtige Dateien zu löschen oder die Kontrolle über Geräte zu erlangen. Auch als Ransomware kommen bisweilen Viren zum Einsatz, denn sie können u. a. Unternehmensdaten verschlüsseln. In der Regel wird der Code zum Entschlüsseln im Anschluss von Cyberkriminellen zum Kauf angeboten.

Computerviren sind besonders gefährlich für die unternehmensinterne Sicherheit, gefährden aber auch private Nutzerinnen und Nutzer: Nach einer bevölkerungsrepräsentativen Studie des digitalen Versicherungsmanagers CLARK (in Zusammenarbeit mit YouGov) aus dem Jahr 2022 hatten 10 % der Bundesbürger schon mindestens einmal einen Computervirus auf dem eigenen PC.

Echte Computerviren (im technischen Sinn) bilden heutzutage jedoch nicht die Hauptbedrohung in der Cyberwelt. Sie machen nur rund 10 % aller Schadsoftware-Fälle aus. Trotzdem ist die Gefahr nicht unerheblich: Befallene Systeme können andere Systeme infizieren und sind selbst häufig für eine längere Zeit unbenutzbar.

Die ersten Computerviren

Die Geschichte der Computerviren ist fast so lang wie die der Computer selbst. Je nach Betrachtungsweise gilt entweder Creeper als der weltweit erste Virus, der im Jahr 1971 zur Demonstration mobiler Anwendungen entwickelt wurde, oder Brain, der 1986 als erster echter Windows-PC-Virus das Licht der Welt erblickte, um zu verhindern, dass Disketten illegal kopiert werden.

Als der erste wirkliche Schädling gilt Vienna, der Ende der 80er-Jahre Daten beschädigte und Dateien zerstörte.

Welche Arten von Computerviren gibt es?

Es gibt verschiedene Arten von Computerviren, die sich vornehmlich dadurch unterscheiden, auf welchem Wege sie den Computer infizieren und wie sie sich vermehren. Zu den wesentlichen gehören:

Boot-Sektor-Viren: Sie zählen zu den ältesten Computerviren überhaupt und nisten sich im Bootsektor (Startbereich) von Festplatten (oder damals Disketten) ein. Dadurch werden sie noch vor dem Laden des eigentlichen Betriebssystems aktiv und können dieses beeinflussen oder umgehen. Diese Viren wurden vor allem in den Jahren der 1980er und 1990er eingesetzt. Heutige Systeme sichern die Bootsektoren sehr effizient und haben dadurch diese Form von Computerviren zurückgedrängt.

Makroviren finden sich in Dateien, die eingebettete Makros enthalten. Vor allem Office-Dokumente, wie z. B. Word- oder Excel-Dateien, sind davon betroffen. Der schadhafte Code wird ausgeführt, sobald Sie oder Ihre Mitarbeiterinnen und Mitarbeiter die Dateien öffnen und die Ausführung von Makros erlauben bzw. erlaubt haben. Dadurch werden weitere Dateien auf dem Gerät infiziert. Makroviren beschädigen Daten, können Texte unkenntlich machen, Dateien senden oder sogar Festplattenlaufwerke formatieren.

Dateiviren: Sie verbreiten sich meist über kostenlose Software-Downloads, wie z. B. vermeintliche Gratis-PDF-Reader, oder bösartige Werbung, die einen Download bekannter oder von Ihnen gesuchter Software vortäuscht. Mit dem Herunterladen und Anklicken der Datei kann sich der Computervirus an den vorgesehenen Stellen im Rechner einnisten und z. B. Passwörter ausspähen oder weitere Dateien infizieren und sich darüber verbreiten.

E-Mail-Viren: Diese Viren verbreiten sich über E-Mail-Anhänge und können sich nach erfolgter Infektion selbst automatisch an andere Kontakte des Benutzers senden. Sobald der Nutzer den Anhang öffnet, startet die darin enthaltene Schadsoftware ihre Arbeit.

Polymorphe Viren: Diese Viren verändern sich, wenn sie sich replizieren. Gewissermaßen wechseln sie ihr Aussehen, was sie für Antivirenprogramme schwerer erkennbar macht. Solche Viren wurden in der Vergangenheit z. B. als Ransomware eingesetzt.

Darüber hinaus gibt es noch viele weitere Arten von Computerviren. Die Technologie entwickelt sich ständig weiter und neue Bedrohungen tauchen auf. Andere Arten von Malware, die per Definition aber nicht unter die Computerviren fallen, sind z. B. Würmer, Trojaner oder Spyware.

Was Sie bei einem Computervirus tun sollten

Zunächst einmal gilt: Auf jedem Computer Ihres Unternehmens sollte ein aktueller Virenschutz installiert sein, der schädliche Programmcodes jederzeit aufspüren kann. Hat ein solches Programm einen Virus gefunden, gilt es zunächst herauszufinden, um welche Art von Virus es sich handelt. In der Regel teilt das Antivirenprogramm den Befund und dessen Art mit. In vielen Fällen lassen sich Viren entfernen, ohne dass sie Schaden angerichtet haben oder sich vermehren konnten. Anschließend sollte das System ausführlich auf möglichen Befall überprüft und die IT-Abteilung informiert werden.

Erste Maßnahmen

Es gibt aber auch Fälle, bei denen der Virus nicht (rechtzeitig) erkannt wurde und sein schädliches Werk bereits begonnen hat. Dies erkennen Sie häufig daran, dass sich plötzlich wie aus dem Nichts Fenster öffnen und wieder schließen, das System nicht mehr oder nicht mehr richtig reagiert und alles in allem das System merkwürdiges und ungewöhnliches Verhalten zeigt.

In einem solchen Fall sollten Sie den Computer umgehend ausschalten. Im schlimmsten Fall kann das bedeuten, die Stromzufuhr aktiv zu unterbrechen oder den Ein-/Aus-Schalter lange zu drücken, bis der Bildschirm schwarz wird. Außerdem sollten Sie den betroffenen Rechner umgehend von verbundenen Geräten, insbesondere Netzwerkanschlüssen, trennen, damit der Virus sich nicht im Hintergrund weiterverbreiten kann.

Experten zu Rate ziehen

Von einem Virusbefall betroffene Unternehmen sollten umgehend die IT-Abteilung oder einen externen IT-Dienstleister hinzuziehen, bevor das infizierte Gerät weiterverwendet wird. Denn pauschal ist aufgrund der verschiedenen Virentypen nur schwer zur sagen, wie in Einzelfällen zu handeln ist. In schwerwiegenden Fällen muss das infizierte Gerät formatiert und mittels einer Sicherheitskopie wiederhergestellt oder neu aufgesetzt werden.

Auch wenn nicht sofort klar ist, ob der Virus einen Schaden angerichtet hat, sollten Sie in jedem Fall von einem unabhängigen Gerät aus alle wichtigen Zugangsdaten ändern, um die Passwortsicherheit in Ihrem Unternehmen wiederherzustellen.

Wie Sie sich vor einem Computervirus schützen können

Gänzlich ausschließen lässt sich eine Infektion mit einem Computervirus nie. Doch mit den richtigen Maßnahmen können Sie das Risiko deutlich reduzieren. Dabei kommen zwei Ebenen in Betracht: die technische und die menschliche.

Gerade für Unternehmen ist es ratsam, der Cybersecurity einen hohen Stellenwert beizumessen und in gesicherte IT-Systeme zu investieren. Dadurch können viele bereits bekannte und neu auftretende Sicherheitslücken geschlossen werden. In regelmäßigen Abständen sollten Sie zudem ihre Systeme auf Schwachstellen überprüfen. Solche Tests können auch von Drittanbietern durchgeführt werden. Die folgenden Sicherheitsvorkehrungen sollten in Ihrem Unternehmen gegeben sein:

Ein aktueller Virenschutz und andere leistungsstarke Schutztechnologien, wie z. B. Firewalls, der neuesten Generation

Regelmäßige Daten-Backups

Fortlaufend aktualisierte Software und Apps, sobald Updates für diese vorliegen

Schulungen oder Workshops zur Sensibilisierung für alle Mitarbeiterinnen und Mitarbeiter der Firma

Computerviren …

sind eine Art von bösartiger Software, die einen Computer infizieren und sich selbst vermehren und verbreiten.

können Endgeräte auf verschiedene Arten infizieren, z. B. über verseuchte E-Mail-Anhänge, bösartige Links oder Software.

können erheblichen Schaden anrichten. Etwa Dateien beschädigen, löschen oder sensible Daten stehlen.

Als Maßnahmen gegen eine Infektion sollten Unternehmen …

Ihre Mitarbeiterinnen und Mitarbeiter für die Risiken von Computerviren sensibilisieren, z. B. durch regelmäßige Schulungen.

eine aktuelle Antivirensoftware und andere leistungsstarke Schutztechnologien auf den Firmengeräten installieren. Speziell auf Ihr Unternehmen zugeschnittene Lösungen können Sie vor der Infektion mit Computerviren und anderer Malware bewahren.

Quelle:

https://www.o2business.de/magazin/computervirus/

Teams statt Telefonanlage: Eine echte Alternative?

Microsoft Teams ist für viele Unternehmen ein fester Bestandteil des Arbeitsalltags. Doch einige Firmen nutzen bislang ausschließlich die Videocall-Funktionen der Software. Dabei kann Teams sogar komplette Telefonanlagen ersetzen. Wie das geht und welche Vorteile sich daraus ergeben, erfahren Sie im Folgenden.

Führen auch Ihre Mitarbeiter:innen jeden Tag Dutzende Telefonate? Dann nutzen Sie wahrscheinlich eine VoIP-Telefonanlage (Voice-over-IP). Im Rahmen der Digitalisierung stehen Ihnen einfachere und umfassendere Lösungen zur Verfügung. Eine davon ist Microsoft Teams: Damit können Sie Ihre Telefonanlage ersetzen oder zumindest aufwerten.

Das Wichtigste zum Thema Teams statt Telefonanlage in Kürze

  • Microsoft Teams ist im Vergleich zu VoIP-Telefonanlagen wartungsärmer, zugänglicher und bietet mehr Funktionen als herkömmliche Telefonanlagen.
  • Mit Microsoft Teams können Sie von jedem Ort der Welt aus beliebige Telefonanschlüsse anrufen – auch analoge.
  • Sie können entweder Microsoft-Anrufpläne für eine reine Cloud-Lösung nutzen oder bestehende VoIP-Telefonanlagen per Direct Routing an Microsoft Teams anbinden.
  • Mit Vodafone als Partner für Microsoft 365 Business bekommen Sie ein Gesamtpaket, das genau auf Ihre Ansprüche zugeschnitten ist. Lassen Sie sich auf Wunsch umfassend beraten.

Die Unterschiede: VoIP-Telefonanlage vs. Microsoft Teams

Um die Unterschiede zwischen modernen internetgestützten Telefonanlagen und Teams zu verstehen, werfen wir zunächst einen genaueren Blick auf herkömmliche Telefonielösungen in Unternehmen. Es gibt hier zwei typische Arten von Telefonanlagen:
  • TK-Anlagen: Kurz für Telekommunikationsanlagen. Sie sind mit dem herkömmlichen Telefonnetz verbunden – und inzwischen veraltet. Anrufe werden hier üblicherweise mithilfe eines Tischtelefons oder eines DECT-Geräts (Funktelefon) getätigt.
  • VoIP-Anlagen: Diese Telefonanlagen vermitteln Anrufe über das Internet, sie heißen auch IP-Telefoniesysteme. Anrufe werden üblicherweise ebenfalls über ein (SIP-)Tischtelefon, häufig aber auch via Headset und Mikrofon an PC, Laptop oder Tablet getätigt. Auch DECT-Geräte lassen sich meist via separater Basisstation anschließen.
Die bis vor einigen Jahren noch sehr weit verbreiteten TK-Anlagen waren zuerst in den 1930er-Jahren im Einsatz. Damals gab es noch Telefonist:innen, die die Kommunikation zwischen den einzelnen Gesprächspartner:innen ermöglichten. Sie fungierten als analoge Schaltzentralen für Anrufe. Erst in den 1980ern erfolgte die Umstellung auf digitale Anlagen, die die Verbindung über das Telefonnetz automatisch herstellten. Doch diese Technologie ist mittlerweile veraltet.
Heutzutage ist ein herkömmlicher Telefonanschluss in den meisten Fällen nicht mehr nötig. Denn bereits vor einigen Jahren haben Telefonieanbieter wie Vodafone ihr Angebot auf die neueste Technologie umgestellt: Voice-over-IP, also Sprachübertragung über das Internetprotokoll. VoIP-Telefone leiten Anrufe über die bestehende Internetleitung weiter. Gerade in Zeiten von Highspeed-Internet ist VoIP herkömmlichen TK-Anlagen deutlich überlegen.

So funktionieren VoIP-Telefonanlagen

Mit einer IP-fähigen Telefonanlage können Sie VoIP in Ihrem Unternehmen nutzen. Die Verbindung zwischen Anrufer:in und Empfänger:in wird über das Session-Initiation-Protocol (SIP) hergestellt. Jede Person in Ihrem Unternehmen benötigt deshalb eine SIP-Adresse, über die sie erreichbar ist. Zwischen VoIP-Telefonanlage und Internet fungiert ein sogenannter SIP-Trunk als virtueller Vermittler.
Der Unterschied zu privaten Anschlüssen mit nur einer Rufnummer ist, dass der virtuelle SIP-Trunk eine ganze Reihe von Rufnummern in Ihrem Unternehmen abbildet. Heißt: Alle angeschlossenen Nummern sind über einen gemeinsamen Telefonanschluss nutzbar und erreichen sowohl interne als auch externe Empfänger:innen.
Möchten Sie einen externen Kontakt anrufen, geschieht das über VoIP-Anlagen wie folgt:
  1. Eine Person in Ihrem Unternehmen wählt via Software oder über ein SIP-Telefon eine Nummer.
  2. Der SIP-Trunk erkennt das IP-kompatible Endgerät der anrufenden Person anhand einer statischen IP-Adresse, einer MAC-Adresse oder einer Festnetzrufnummer.
  3. Der Trunk vermittelt den Anrufversuch per SIP über das Internet an den Server Ihres Telefonieanbieters.
  4. Nimmt die angerufene Person den Anruf an, wechselt die Datenübertragung zu einem sogenannten Real-Time-Transport-Protocol (RTP). Es ermöglicht eine Übertragung ohne Verzögerung.
  5. Das IP-kompatible Endgerät der anrufenden Person (Telefon, PC, Handy) wandelt die gesprochenen Worte in Datenpakete um und umgekehrt.
  6. Das IP-Endgerät der angerufenen Person wandelt ebenfalls die Datenpakete in Sprache um und umgekehrt. Bei älteren Telefonanschlüssen erledigt das der SIP-Server.
  7. Das SIP übernimmt die Anrufsteuerung und reagiert z. B. auf das Auflegen des Hörers, indem es die Verbindung beendet.
Grafische Darstellung des Anrufaufbaus in einer VoIP-Telefonanlage über Icons: Der Anruf geht vom Mitarbeiter im Unternehmen über die IP-Telefonanlage, den SIP-Trunk und den Server des Telefonieanbieters bis zum Empfänger des Anrufs.
Anrufe über VoIP kommen dank SIP-Trunk zustande. Danach kann der Datentransfer auch ohne SIP über RTP stattfinden

Microsoft Teams: Direct Routing oder Microsoft-Anrufpläne

Microsoft Teams ist eine Weiterentwicklung der VoIP-Telefonie. Sämtliche Anrufe laufen ebenfalls über das Internet ab. Bei Microsoft Teams gibt es zwei Lösungen, um Ihre Telefonanlage zu ersetzen: sogenannte Anrufpläne und Direct Routing.

Einen Anrufplan mit Microsoft Teams nutzen

Bei den Anrufplänen übernimmt Microsoft die Rolle des Telefonieanbieters. Die Abwicklung von Gesprächen erfolgt über die Cloud. Ihre Mitarbeiter:innen benötigen dazu vor allem ein Endgerät, auf dem Microsoft Teams läuft – ein Tablet, ein PC oder auch ein Smartphone mit entsprechender App sind möglich. Tischtelefone und Freisprechanlagen können Sie ebenfalls an Teams anbinden.
Was bedeuten SIP und VoIP?

Statt „Softphone“- oder VoIP“-Telefonie wird manchmal der Begriff „SIP-Telefonie“ verwendet. SIP steht hierbei für das Protokoll eines VoIP-Endgerätes, das den Anruf startet, beziehungsweise den Wahlvorgang steuert. Beginnt nach dem Anwählen das Gespräch, kommt ein weiteres Protokoll zum Zuge: Das VoIP-Protokoll. Dessen Aufgabe ist es, die Sprache zu codieren und zwischen den Gesprächsteilnehmern hin und her zu schicken.

Zudem benötigt jede:r Mitarbeiter:in eine Lizenz für Teams und die Telefonfunktion. Die Anrufpläne stehen im Abonnement zur Verfügung und die Abrechnung erfolgt pro Nutzer:in auf monatlicher Basis. Im Paket sind Telefonnummern sowie inkludierte Minuten enthalten, mit denen Sie und Ihr Team Anrufe im Inland tätigen können.
Die inkludierten Minuten richten sich nach dem gewählten Paket. Entscheiden Sie sich beispielsweise für ein 120-Minuten-Paket, stehen pro Nutzer:in und Monat 120 Minuten zur Verfügung. Erwerben Sie also 100 Lizenzen mit 120 Minuten, haben Sie für das gesamte Unternehmen einen Minuten-Pool von 12.000 Minuten. Nachdem der Pool ausgeschöpft ist, wird minutengenau abgerechnet.
Wenn Sie auch international tätig sind, schließen Sie ein Abo ab, mit dem Sie ins Ausland telefonieren können. Achten Sie darauf, dass Microsoft das Land unterstützt, in dem Ihre Geschäftspartner:innen sitzen.
Anrufe laufen danach so ab:
  1. Eine Person in Ihrem Unternehmen wählt in Teams eine Nummer oder einen Kontakt aus.
  2. Der Anruf läuft über die Cloud-Dienste von Microsoft weiter.
  3. Die Server von Microsoft leiten den Anruf über das Internet an das Telefonnetz (IP-basiert oder klassisch) und somit an die angerufene Person.
Der komplette Anruf erfolgt über die Microsoft-Teams-Telefonie.

Direct Routing von Teams mit einem Session-Border-Controller

Eine Alternative zu Microsofts Anrufplänen ist das sogenannte Direct Routing. Diese Technik eignet sich, wenn Sie eine vorhandene VoIP-Telefonanlage nutzen wollen. Dazu brauchen Sie einen sogenannten Session-Border-Controller (SBC), über den Teams mit Ihrer Telefonanlage und dem Telefonieanbieter kommunizieren kann. Der SBC arbeitet ähnlich wie ein SIP-Trunk für VoIP und wird als Hardware zwischen Ihre Telefonanlage beziehungsweise Telefone und Ihren Router geschaltet – mitsamt Firewall.
Die Aufgabe des SBC ist es, die Datenpakete sicher von Microsoft Teams ins Internet zu transportieren. Die Übertragung erfolgt in Echtzeit und verschlüsselt – egal, ob es sich um einen Anruf, einen Videocall oder eine Konferenz handelt.
Für die nötige Sicherheit kontrollieren SBCs anhand von Blacklists den Datenverkehr. So können Sie frühzeitig Betrugsversuche verhindern, z. B. durch Phishing: Gesperrte Nummern (Anrufziele) werden nicht durchgelassen – falls etwa jemand auf eine betrügerische Hotline hereingefallen ist.
Außerdem verhindern Sie Denial-of-Service-Angriffe durch das Zurückweisen von Spam-Anrufen. Über solche DoS-Angriffe wären Angreifer:innen sonst in der Lage, Ihr System mit unzähligen Anrufen in die Knie zu zwingen.
So erfolgt ein Anruf mit Direct Routing:
  1. Eine Person in Ihrem Unternehmen wählt in Teams eine Nummer oder einen Kontakt aus.
  2. Der Anruf läuft von der VoIP-Telefonanlage über einen Session-Border-Controller. Dieser kontrolliert sowohl Anrufer:in als auch Empfänger:in anhand vorgegebener Parameter.
  3. Der SBC leitet den Anruf sicher an das Netz Ihres Telefonieanbieters, wenn der Anruf laut den Parametern erlaubt ist.
Der komplette Anruf erfolgt über den SBC und das VoIP-Telefonnetz.

Warum sollten Sie Ihre Telefonanlage auf Teams umstellen?

Es gibt viele triftige Gründe, Ihre bestehende Telefonanlage durch Teams zu ersetzen oder zumindest zu erweitern. Im Fokus steht die Digitalisierung. Mit einer rein cloudbasierten Lösung erleichtern Sie Ihren Mitarbeiter:innen die Kommunikation untereinander und mit externen Stellen.

Vorteile von Microsoft Teams

  • Anruffunktionen: Teams-Telefonie verfügt über alle klassischen Telefonfunktionen (Annehmen, Halten, Weiterleiten). Dank Onlineanbindung ist die Kommunikation standortunabhängig.
  • Telefonzentrale: Über vordefinierte Parameter (Geschäftszeiten, Anliegen und Anrufaufkommen) können Sie Anrufe automatisch an eine bestimmte Abteilung in Ihrem Unternehmen weiterleiten.
  • Einfache Verwaltung: Über eine zentrale Admin-Konsole lässt sich Teams-Telefonie ganz einfach managen. Fügen Sie neue Rufnummern hinzu, entfernen Sie unnötige Nummern und optimieren Sie Ihre täglichen Arbeitsabläufe anhand der Reporting-Funktionen.
  • Warteschleifen: Leiten Sie Anrufe automatisch in einen Warteraum. Entscheiden Sie, ob die Anrufer:innen eine Voicemail hinterlassen sollen oder eine Rückrufnachricht hören. Alternativ verbleiben sie im Warteraum, bis sie weitergeleitet werden können.
  • Voicemail in der Cloud: Mit allen Teams-fähigen Endgeräten greifen Sie von überall auf Voicemails zu. Inhalte zeigt Ihnen Teams auch als Textnachricht an. So können Sie die Nachricht lesen, wenn Sie sie gerade nicht abhören können.

Kosten und Aufwände gering halten

Stehen Sie vor der Entscheidung, ob Sie für die Telefonie in Ihrem Unternehmen auf eine TK- oder VoIP-Anlage, auf Microsoft Teams oder eine Kombination aus diesen Optionen setzen sollten? Wägen Sie Kosten und Aufwand ab. In der Regel ist es teurer und aufwendiger, eine physische Telefonanlage bereitzustellen und zu installieren, als auf eine reine Cloud-Lösung wie Teams zu setzen.
Eine VoIP-Lösung bietet gegenüber physischen TK-Anlagen auch eine Menge Vorteile wie eine zentrale Einrichtungsplattform und minimalen Wartungsaufwand. Sie kann aber in Verbindung mit Microsoft 365 Business und Teams eine Doppellösung darstellen, die nicht immer nötig ist.
Cloud-Lösungen wie Microsoft Teams lassen sich ebenso zentral über eine Benutzeroberfläche einrichten und steuern. Dadurch verursachen sie nur minimale Aufwände. Zudem sind die Preise für jede Lizenz gleich. Sie können also ohne viel Aufwand sehen, wie hoch die Kosten für Teams als Telefonanlage in Ihrem Unternehmen sind.

Platz schaffen

Ältere Telefonanlagen benötigen viel Platz, beispielsweise in einem Server-Rack, aber auch an jedem Arbeitsplatz. Jede:r Mitarbeiter:in benötigt normalerweise ein eigenes Telefon, das den Schreibtisch oder allgemein den vorhandenen Platz verkleinert. Spontane Ortswechsel sind außerdem schwer. Schließlich müssen Telefone normalerweise über Kabel mit der Telefonanlage Ihres Unternehmens oder mit dem Internet über Ethernet verbunden sein (Ausnahme: DECT-Telefone.)
Mit einer digitalen Lösung wie Microsoft Teams oder einer VoIP-Telefonanlage fallen viele der sonst benötigten Komponenten weg. Ihre Mitarbeiter:innen benötigen lediglich ein Endgerät wie einen Laptop, PC oder ein Smartphone – meist sind diese Geräte bereits vorhanden. Zudem brauchen sie eine passende Lizenz, um Microsoft Teams mit Telefonie zu nutzen. Sind diese Voraussetzungen erfüllt, können Ihre Mitarbeiter:innen nahezu überall Telefonkonferenzen und Videoanrufe führen – also auch unterwegs.
Wichtig zu wissen: Haben Sie bereits eine VoIP-Telefonanlage, können Sie diese parallel zu Teams weiterbetreiben. So können Sie die Vorteile von Microsoft Teams als Telefonanlage auch ausprobieren, während Ihre VoIP-Anlage weiterhin in Betrieb ist.

Fertig für Sie eingerichtet und startklar: Microsoft 365 Business mit Vodafone Services

Produktivität steigern. Sicherheit stärken. Und sich dabei komplett auf Ihr Business konzentrieren? Das geht. Unsere Expert:innen helfen mit Ihren Microsoft 365 Business-Lizenzen. So haben Sie Zeit für Ihr Kerngeschäft.

So ersetzen Sie Ihre Telefonanlage mit Teams

Um Teams als ganzheitliche Lösung für die Telefonie in Ihrem Unternehmen zu nutzen, sind nur wenige Schritte nötig. Vodafone berät Sie und stellt Ihnen die passende Hardware und Lizenzen zur Verfügung. Zudem können die Expert:innen von Vodafone das komplette System bei Ihnen einrichten.

Was Sie benötigen

Um Telefonie mit Microsoft Teams in Ihrem Unternehmen zu nutzen, müssen folgende Voraussetzungen erfüllt sein:
  1. Hardware zum Telefonieren: Ihre Mitarbeiter:innen benötigen ein Endgerät (Headset und PC, Handy, Tablet), um über Teams Anrufe zu führen.
  2. Lizenzen für Microsoft 365 Business oder Office 365 Business: Jede:r Mitarbeiter:in benötigt eine eigene Lizenz für Office 365 Business. Alternativ entscheiden Sie sich für Gesamtpakete mit einer Kombination aus Office 365 Business und Microsoft 365 Business.
  3. Telefonlizenzen für Microsoft Teams: Die Anruflizenzen bietet Microsoft getrennt von Office 365 an. Vodafone hat ein Komplettpaket im Angebot, das die nötigen Lizenzen enthält. Weitere Voraussetzung bei vorhandenen VoIP-Anlagen:
  4. Session-Border-Controller: Möchten Sie Ihre bestehende VoIP-Telefonanlage mit Microsoft Teams verbinden, brauchen Sie einen Session-Border-Controller. Über Vodafone bekommen Sie einen SBC entweder als virtuellen Router (also als virtualisierte Hardware) oder als Hardware on-premises.

Die notwendigen Lizenzen im Überblick

Bei Vodafone profitieren Sie von Kombinationen aus Office- und Microsoft-Lizenzen, wenn Sie Teams als Telefonanlage nutzen möchten. Diese Kombinationen eignen sich für die meisten Unternehmen:
Office 365 Business plus Telefonie-Lizenz
  • Office 365 E1 plus zusätzliche Telefonie-Lizenz
  • Office 365 E3 plus zusätzliche Telefonie-Lizenz
  • Office 365 E5 (mit bereits enthaltener Telefonie-Lizenz)
Office 365 Business plus Microsoft Business Voice
  • Office 365 Business Basic plus Microsoft Business Voice
  • Office 365 Business Standard plus Microsoft 365 Business Voice
  • Office 365 Business Premium plus Microsoft 365 Business Voice
Wenn Sie unsicher sind, welche Lizenzen in Ihrem Unternehmen bereits vorhanden sind bzw. welche Sie benötigen, lassen Sie sich bei Vodafone beraten.

Umsetzung mit Vodafone als Partner

Über Vodafone können Sie sich jederzeit ein passendes Gesamtpaket für Ihr Unternehmen zusammenstellen lassen. Sie bekommen Unterstützung bei der Wahl der richtigen Technik. Neben der Hardware stellt Vodafone auch die Software bereit, damit Sie und Ihre Mitarbeiter:innen Teams als Telefonanlage nutzen können.
So können Sie sich weiter auf Ihr Kerngeschäft konzentrieren, während Vodafone für Sie die Planung, Einrichtung und Wartung übernimmt. Das lohnt sich insbesondere für kleinere Unternehmen ohne eigene IT-Infrastruktur. Aber auch große Firmen profitieren von Beratung und Unterstützung beim Betrieb aus einer Hand.
Quelle:
https://www.vodafone.de/business/blog/teams-statt-telefonanlage-20448/

WLAN-Signal verstärken im Büro: Für ein stabiles Netz im ganzen Unternehmen

Die Datenübertragung stockt oder der Arbeitslaptop lässt sich in manchen Büroräumen gar nicht erst mit dem Unternehmens-WLAN verbinden. Mit ein paar Handgriffen lassen sich viele Störfaktoren beseitigen, die das Signal blockieren. Hilft das nicht, zeigen wir Ihnen, wie die optimalen Routereinstellungen oder ein Repeater das WLAN-Signal verstärken.

Reichweite im WLAN: Das ist möglich

Ein drahtloses Netzwerk kann per WLAN-Technologie bei idealen Voraussetzungen eine Reichweite von bis zu 100 m haben. Abhängig ist das unter anderem vom Router, über den das sogenannte Wireless Local Access Network aufgebaut wird. Das Gerät empfängt dabei Internetdaten per Kabel und gibt sie über eine Funkverbindung drahtlos an diverse im Netzwerk befindliche Endgeräte weiter.

Wichtige Faktoren, die die Reichweite des WLAN-Signals verringern, sind bauliche Gegebenheiten. So können z. B. Wände, Türen, und Möbel das Funksignal schwächen oder blockieren.

Die Leistung Ihres drahtlosen Unternehmensnetzwerks hängt also nicht allein von Ihrem Internettarif und der damit maximal verfügbaren Bandbreite ab. Allerdings sollten Sie auch bei der Installation von modernen Routern einige Punkte beachten. Nur so stellen Sie sicher, dass die Reichweite des Netzwerkes nicht durch Störfaktoren unterbrochen wird und Sie und Ihre Mitarbeiterinnen und Mitarbeiter effizient arbeiten können.

Es gibt viele verschiedene Aspekte, die Sie bei der Einrichtung einer WLAN-Verbindung in Ihrem Unternehmen beachten sollten, um den reibungslosen Austausch von Datenpaketen zwischen den Endgeräten zu gewährleisten. Die folgenden Störfaktoren sind z. B. üblich:

Eine ungünstig platzierte Büroeinrichtung kann das WLAN-Signal schwächen. Dazu zählt Mobiliar wie Schränke, Regale und Tische – aber auch Gegenstände wie große Zimmerpflanzen. Durch Verschieben von Gegenständen oder mit einer Neuplatzierung des Routers lässt sich das Signal unter Umständen verbessern.

Die Bauart des Gebäudes hat ebenfalls Einfluss auf die Reichweite. Massive Wände und Decken lassen weniger Funkwellen durch. Verbaute Stahlträger können darüber hinaus ein Hindernis darstellen.

Andere Metalle oder beschichtete Oberflächen, wie z. B. bei Spiegeln oder Fenstern, reflektieren das Signal, statt es effizient an Endgeräte weiterzuleiten.

Elektro- und Sendegeräte im Umkreis des Routers, die ebenfalls eine drahtlose Verbindung aufbauen, können Ihre WLAN-Verbindung stören. Hierzu zählen beispielsweise Bluetooth-Geräte wie Headsets oder Lautsprecher. Aber auch die Strahlung der Mikrowelle in Ihrer Büroküche kann die Verbindung beeinträchtigen. Schalten Sie Geräte ab, die nicht ständig benötigt werden, kann dies schon Abhilfe schaffen.

Wasser, egal, ob in Heizkörpern, Aquarien oder in feuchten Wänden und Decken hemmt ebenfalls das Signal.

WLAN-Signal verstärken: So geht‘s

Trotz aller Vorkehrungen und Vermeidung von Störfaktoren kann es dazu kommen, dass in Ihr WLAN eingebundene Endgeräte wie Laptops und Diensthandys nur ein schwaches Signal empfangen – oder gar keine Verbindung aufbauen können. In diesem Fall können Sie das WLAN-Signal mittels verschiedener Methoden verstärken:

Router: Einstellungen optimieren

Mit ein paar Tricks lassen sich die Einstellungen Ihres Routers so konfigurieren, dass Sie Ihr WLAN-Signal verbessern. Möglich ist das über die Web-Oberfläche des Gerätes per Login mit IP-Adresse und gerätespezifischem Passwort. Die folgenden Einstellungen können weiterhelfen:

Zwei verschiedene Frequenzbänder erlauben: Stellen Sie in Ihren WLAN-Einstellungen zwei Funkzugänge mit unterschiedlichen Frequenzbereichen zur Verfügung, z. B. Niedrigfrequenzbereich von 2,4 Gigahertz (GHz) oder höhere Frequenzen von 5 GHz. Auf diese Weise können Sie Endgeräte effizient je nach Anforderungen verteilen.

Den Funkkanal ändern: Oftmals ist ein bestimmter Funkkanal in den Einstellungen festgelegt. Wird der gleiche Kanal auch von drahtlosen Netzwerken anderer Parteien in einem Gebäude genutzt, können sich diese gegenseitig stören.

Die Signalstärke anpassen: Erhöhen Sie die Signalstärke Ihres Routers, verbessert sich in der Regel auch die Reichweite. Allerdings befindet sich Ihr WLAN dann unter Umständen auch in Reichweite für andere Parteien. Das Signal sollte allerdings mindestens bei -50 Dezibel Milliwatt (dBm) liegen – -30 dBm und -40 dBm sind für ein stabiles WLAN ideal.

Die Firmware upgraden: Führen Sie regelmäßig Softwareupdates für die Firmware Ihres Routers durch. So gewährleisten Sie zudem auch die Datensicherheit in Ihrem Unternehmen.

Repeater: Die Signalverstärker ideal einsetzen

WLAN-Repeater sind eine effiziente Lösung, um das Funksignal zu verstärken. Dabei handelt es sich um ein Zusatzgerät, das an eine freie Steckdose angeschlossen wird. Anschließend lässt sich der Repeater per Knopfdruck mit dem Router koppeln und baut ein zweites verschlüsseltes Netzwerk (mit gleicher Netzwerkbezeichnung) auf.

Das Signal des Routers wird durch den Repeater weitergereicht, bzw. wiederholt, und kann die Reichweite des WLAN verdoppeln. Sie können zudem auch mehrere Repeater gleichzeitig einsetzen, um das Netzwerksignal noch weiter zu verstärken. In diesem Fall sollten Sie allerdings darauf achten, dass sich der Router an einer zentralen Stelle befindet und die Repeater kreisförmig in dessen Umkreis angeordnet werden.

WLAN-Signal verstärken im Überblick

Das WLAN-Signal…

…hat unter idealen Bedingungen eine Reichweite von rund 100 m.

…kann durch bestimmte Störfaktoren wie die Bauart von Gebäuden, Büroeinrichtung oder andere Sendegeräte im Netzwerk, geschwächt oder gänzlich blockiert werden.

…lässt sich unter Umständen durch Routereinstellungen z. B. an Frequenzen, Funkkanälen oder durch ein Firmware-Update verbessern.

…kann per Repeater verstärkt werden, indem das Gerät ein neues Netzwerk aufbaut und das Signal des Routers weiterleitet.

Quelle:

https://www.o2business.de/magazin/wlan-signal-verstaerken/

Fuhrparkmanagement: Was Sie zur Einführung wissen müssen

Für Unternehmen mit eigenen Fahrzeugen spielt das Management der Fahrzeugflotte eine entscheidende Rolle, um effizient und kosteneffektiv zu arbeiten. Hier erfahren Sie wissenswertes zu den wesentlichen Aspekten des Fuhrparkmanagements – von der grundlegenden Definition bis hin zu fortgeschrittenen Strategien und den Technologien zur idealen Umsetzung.

Fuhrparkmanagement: Definition

Fuhrparkmanagement – auch bekannt als Flottenmanagement – kann die Arbeitsabläufe von Unternehmen, die eine Vielzahl an Fahrzeugen verwalten und betreiben, erleichtern. Es umfasst die Verwaltung, Planung, Steuerung und Überwachung einer Fahrzeugflotte. Ziel ist es, die Effizienz und Rentabilität des Fuhrparks zu steigern und so u. a. die Betriebskosten zu optimieren.

In einem Unternehmen kann das Fuhrparkmanagement mehrere Aufgabenbereiche umfassen, die Sie für die ideale Umsetzung im Blick behalten sollten. Dazu gehören:

Fuhrparkstrukturierung: Entscheidungen über die Zusammensetzung und Art der Fahrzeuge sowie die Festlegung von Finanzierungs- und Beschaffungsstrategien.

Operative Verwaltung: Tägliche Abläufe wie Wartung, Reparaturen und Routenplanung.

Fahrerbetreuung: Unterstützung der Fahrerinnen und Fahrer durch Schulungen, Sicherheitsüberprüfungen und Hilfestellungen.

Fahrzeuglebenszyklus: Verwaltung des gesamten Lebenszyklus eines Fahrzeugs, von der Anschaffung bis zur Ausmusterung.

Technologie und Innovation: Einsatz und Optimierung von Technologien und Softwarelösungen zur Verbesserung der Effizienz und Leistung des Fuhrparks.

Kosten- und Leistungsmanagement: Überwachung und Optimierung der Kostenstrukturen und Leistungsindikatoren der Flotte.

Ebenen des Fuhrparkmanagements

Ein durchdachtes Fuhrparkmanagement operiert auf verschiedenen Ebenen. Dazu gehören:

Strategische Ebene: Langfristige Entscheidungen über die Fuhrparkstruktur und Softwareauswahl.

Operative Ebene: Tägliche betriebliche Prozesse und Lieferantenmanagement.

Technologische Ebene: Einsatz von Hard- und Softwarelösungen.

Lieferantenebene: Auswahl und Abwicklung von Dienstleistern.

Kostenmanagement: Finanzielle Einsparung durch Optimierung der Arbeitsabläufe.

Die Vorteile einer Fuhrparkmanagement-Software

Eine gute Fuhrpark-Software vereinfacht die Fahrzeugverwaltung, indem sie eine zentrale Anlaufstelle für Ihre Unternehmensinformationen, wie z. B. Dokumente, Kostenübersicht und Koordination von Personal und Fahrzeugen bietet.

Darüber hinaus profitieren Sie von zahlreichen weiteren Vorteilen und steigern die Effizienz und Effektivität Ihres Fuhrparks erheblich:

Vereinfachung komplexer Prozesse: Die Software strukturiert Workflows. Sie bündelt Daten und analysiert diese. Zudem erleichtert sie Terminplanungen und Kostenprognosen. So ermöglicht sie Ihnen so die flexible Gestaltung von Fuhrparkmanagement-Aufgaben. Dies erleichtert die Kommunikation über digitale Kanäle und schont Ihre Ressourcen.

Kostenkontrolle: Die Software bietet einen umfassenden Überblick über alle Fuhrparkkosten, einschließlich Treibstoff, Wartung, Reparaturen und Versicherungen. Auf diese Weise identifizieren Sie Einsparungspotenziale und nutzen Sie zu Ihrem Vorteil.

Schaffung von Transparenz: Durch den zentralen Zugriff auf wichtige Informationen, wie Fahrzeugstandorte, Nutzung und Fahreraktivitäten, beschleunigen und optimieren Sie den Fuhrparkbetrieb.

Förderung innovativer Mobilitätskonzepte: Die Software unterstützt die Integration und das Management von Elektrofahrzeugen und alternativen Mobilitätsformen in Ihrer Flotte.  Besonders im Kontext von Nachhaltigkeit und Umweltschutz ist das ein Vorteil.

Einhaltung von Halterhaftungspflichten: Wichtige Termine und Überprüfungen werden von der Software automatisiert, sodass Sie gesetzliche Bestimmungen und Vorschriften einhalten. Dadurch wird außerdem das Risiko von Sanktionen und Bußgeldern minimiert.

Fuhrparkmanagement: Tipps zur Einführung

Verschaffen Sie sich zunächst einen Überblick. Dabei sollten Sie verstehen, welche Themen für Ihr Unternehmen relevant sind. Dies können z. B. Maßnahmen wie eine Ausbildung zum zertifizierten Fuhrparkmanager oder die Nutzung hilfreicher Aufstellungen zu Fuhrparkmanagement-Aufgaben sein. Darauffolgend sollten Sie die Umsetzung folgender Punkte in Erwägung ziehen:

  1. Geeignete Beschaffungsstrategie finden: Wählen Sie zwischen Single-Sourcing- und Multi-Sourcing-Strategien für das Fahrzeugleasing, also, ob Sie auf einen oder mehrere Anbieter setzen. Beachten Sie dabei die Vorteile und Herausforderungen beider Ansätze in Bezug auf Kosten, Qualität und Lieferantenbeziehungen.
  2. Festlegung einer Car Policy: Definieren Sie klare Regeln und Pflichten für die Nutzung von Firmenfahrzeugen – eine sogenannte Car Policy. Diese sollte regelmäßig an neue Gesetze und Vorschriften angepasst werden.
  3. Einsatz von Tankkarten: Nutzen Sie Tankkarten zur Vereinfachung der Treibstoffverwaltung und zur Gewinnung wertvoller Verbrauchsdaten.
  4. Flexible Mobilitätslösungen einbeziehen: Berücksichtigen Sie alternative Fortbewegungsmittel wie Carsharing, E-Bikes oder Pedelecs und bieten Sie Mobilitätsbudgets für Mitarbeiterinnen und Mitarbeiter an.
  5. Regelmäßige Kommunikation mit Personal: Pflegen Sie einen offenen Dialog mit Ihren Fahrerinnen und Fahrern, um Vertrauen aufzubauen und effiziente Kommunikationswege zu etablieren.
  6. Risiko- und Schadenmanagement etablieren: Implementieren Sie effektive Prozesse für das Risikomanagement und passen Sie diese regelmäßig an, um Kosten zu senken und die reibungslose Mobilität Ihrer Belegschaft zu wahren.
  7. Digitale und automatisierte Lösungen nutzen: Verwenden Sie fortschrittliche Softwarelösungen und Telematik-Systeme, um die Datenverwaltung zu vereinfachen.
  8. Optimale Nutzung logistischer Kapazitäten: Stellen Sie sicher, dass die Fahrzeugflotte effizient genutzt wird, indem Sie moderne Technologien, wie z. B. GPS-Tracking, einsetzen. Beziehen Sie auch M2M-Lösungen in Ihre Überlegungen ein.

Kennen Sie die wichtigsten Kennzahlen für die Verwaltung Ihrer Flotte

Die Verwaltung eines Fuhrparks erfordert die Berücksichtigung verschiedener Kennzahlen, um Effizienz, Kostenkontrolle und Sicherheit zu gewährleisten. Überprüfen und analysieren Sie diese regelmäßig, können Sie mithilfe dieser Kennzahlen den Betrieb Ihres Fuhrparks optimieren, Kosten reduzieren und die Sicherheit erhöhen. Die folgenden Faktoren zählen dabei zu den wichtigsten:

Kraftstoffverbrauch: Dies umfasst die Überwachung der verbrauchten Kraftstoffmenge pro Fahrerin oder Fahrer oder dem genutzten Fahrzeug. Durch Routenoptimierung und Personalschulungen zur Fahrweise kann der Verbrauch häufig reduziert werden.

Zeitmanagement: Spezifische Daten hierfür beinhalten Routenplanung, Dokumentation der Stand- und Nutzungszeiten sowie die Koordination und Einhaltung von Wartungsterminen.

Digitale Tools zur Datenerfassung: Eine passende Fuhrparkmanagement-Software ist unerlässlich, um die genannten Kennzahlen zu dokumentieren und zu auszuwerten. Die Auswahl der richtigen Software hängt von den individuellen Anforderungen Ihres Unternehmens und der Größe Ihres Fuhrparks ab.

Fuhrparkmanagement im Überblick

Ziel: Effizienzsteigerung und Kostensenkung der Fahrzeugflotte.

Aufgaben: Fuhrparkstrukturierung, Beschaffung, Verwaltung und Technologieeinsatz.

Software: ermöglicht Prozessvereinfachung, Kostenkontrolle und Transparenz.

Einführung: Sie benötigen eine Beschaffungsstrategie, Car Policy, und rechtliche Compliance. Beziehen Sie außerdem Ihre Angestellten in den Prozess ein.

Kennzahlen: Kraftstoffverbrauch, Zeitmanagement und Softwarenutzung sollten Sie stets analysieren und bei Bedarf optimieren.

Quelle:

https://www.o2business.de/magazin/fuhrparkmanagement/

Make or Buy: Welche IT-Leistungen Sie outsourcen sollten und welche nicht

In Zeiten der digitalen Transformation wird das Outsourcing von IT-Leistungen immer wichtiger. Der Trend geht zu mehr „Buy“ (Fremdbezug) und weniger „Make“ (Eigenleistung). Doch welches Prozess-Know-how sollten Sie eher im Unternehmen behalten und wo lohnt sich die Zusammenarbeit mit externen IT-Partnern? Erfahren Sie hier, was die wichtigsten Faktoren für eine Make-or-Buy-Entscheidung sind – und wie Sie eine geeignete Strategie entwickeln.

Ob Cloud-Dienste, Softwarelösungen, Cybersicherheit oder der Einsatz von künstlicher Intelligenz: Unternehmen in Deutschland setzen bei der Digitalisierung zunehmend auf externe Angebote. Das liegt nicht zuletzt daran, dass cloudbasierte Angebote im Mietmodell, wie das beliebte Microsoft 365 Business, sämtliche betrieblichen Anforderungen, beispielsweise im Office-Regelbetrieb, bei minimalem Risiko und zu einem fairen Preis abbilden können.

Welche IT-Leistungen sich für das Outsourcing eignen, hängt aber immer von den individuellen Anforderungen und der Größe Ihres Business ab. Auch kleine und mittlere Unternehmen (KMU) sowie das Small Office/Home Office (SOHO) können von der Entwicklung profitieren: Viele Cloudangebote sind inzwischen nicht nur mit kleinem Lizenzumfang, sondern auch mit individueller Anpassung verfügbar.

Das Wichtigste zu Make or Buy von IT-Leistungen in Kürze

  • Outsourcing von IT-Leistungen gewinnt vor dem Hintergrund der rasanten Digitalisierung zunehmend an Bedeutung.
  • IT-Verantwortliche in Unternehmen müssen die Faktoren sorgfältig abwägen, die für Buy (Einkauf) oder Make (Eigenentwicklung oder auch Eigenleistung) sprechen.
  • Standardlösungen für eine Make-or-Buy-Entscheidung gibt es nicht. Sie ist abhängig von mehreren Faktoren wie den Unternehmenszielen, der Liquidität, den Qualitätserwartungen sowie den Ansprüchen an Cybersicherheit und Nachhaltigkeit.
  • Der Trend bei Unternehmen geht zu Make, wenn sie sich auf ihre Kernkompetenzen konzentrieren; und zu Buy, wenn sie Leistungen kostengünstig skalieren oder automatisieren können.
  • Es gibt Gründe, die in der Regel eher für IT-Outsourcing sprechen, zum Beispiel bei Leistungen, für die eine jahrelange Erfahrung und regelmäßige Updates erforderlich sind wie beispielsweise bei Microsoft 365 Business.
  • Zugleich gibt es Nachteile des Sourcings, die eher für Make sprechen können, etwa der Kontrollverlust über bestimmte Prozesse oder eine Abhängigkeit vom Dienstleister.
  • Auch kleine und mittlere Unternehmen profitieren mittlerweile von IT-Outsourcing.

Fertig für Sie eingerichtet und startklar: Microsoft 365 Business mit Vodafone Services

Produktivität steigern. Sicherheit stärken. Und sich dabei komplett auf Ihr Business konzentrieren? Das geht. Unsere Expert:innen helfen mit Ihren Microsoft 365 Business-Lizenzen. So haben Sie Zeit für Ihr Kerngeschäft.

Das ist wichtig für die Make-or-Buy-Entscheidung

Als Outsourcing bezeichnet man das Auslagern von Leistungen, Teilbereichen oder Geschäftsprozessen, die bisher intern stattgefunden haben. Eine Make-or-Buy-Entscheidung hingegen ist breiter angelegt: Sie beschäftigt sich nicht nur damit, welche IT-Leistungen in welchem Umfang eingekauft werden sollen, sondern auch mit der Frage, wann es besser ist, intern eine (neue) Eigenleistung anzustoßen.
Bei „Make“ (Englisch: „machen“) versuchen Unternehmen, benötigte strukturelle, organisatorische oder allgemein betriebliche Veränderungen inhouse abzubilden. Interne Task-Forces werden gegründet, Mitarbeiter:innen aufgabenbezogen eingestellt und Entwicklerteams beschäftigen sich mit hauseigenen Softwarelösungen. Benötigte Hardware wird ggf. in eigenen Rechenzentren platziert und dort betrieben. Wenn sie sich für „Buy“ (Englisch: „kaufen“) entscheiden ist das Ziel hingegen häufig, IT-Leistungen kostengünstig zu skalieren, extern einzukaufen und Prozesse zu automatisieren. Neben dem einmaligen Einkauf beispielsweise von Beratungsleistungen steht vor allem die Miete von Produkten, speziell im Software-as-a-Service-Segment und in der Cloud im Fokus.
Im Vordergrund stehen dabei in erster Linie Kosteneinsparungen. Fixkosten verwandeln sich bereits beim Sourcing-Mix in variable Kosten. In agilen Märkten ist dies sehr bedeutsam. Außerdem ermöglicht IT-Outsourcing es Unternehmen, externes Fachwissen zu integrieren, die Effizienz zu steigern, Prozesse zu beschleunigen sowie – mit den richtigen Partnern – für mehr Sicherheit und Nachhaltigkeit zu sorgen. Außerdem ist der Personalmangel bei den IT-Fachkräften dafür verantwortlich, dass sich mehr Unternehmen für „Buy“ (auch im Sinne von flexiblem Mieten) entscheiden.
Auf der anderen Seite müssen die Nachteile abgewogen werden. Dazu gehören etwa eingeschränkte Kontrollmöglichkeiten, das notwendige Risikomanagement oder mögliche Kommunikationsprobleme mit dem Dienstleister. Eventuelle Kosten für Problemfälle sollten in Verträgen mit Partnern vorab geklärt sein.
Voraussetzung für eine gute Make-or-Buy-Entscheidung ist die präzise Formulierung der Ziele und des Leistungsumfangs. Ungenauigkeiten können auch die Kooperation mit einem externen Partner beeinträchtigen.
Im Einzelnen ist die Make-or-Buy-Entscheidung von individuellen Faktoren abhängig: von den Unternehmenszielen, vorhandenen Ressourcen und der jeweiligen Branche.Ganz gleich, ob es sich um den Konsumgüter- und Einzelhandel, das Gesundheitswesen, das produzierende Gewerbe, Versicherungen, große oder kleine Unternehmen oder den öffentlichen Sektor handelt: Eine Make-or-Buy-Entscheidung geht immer über die reine Wirtschaftlichkeitsanalyse und vor allem kurzfristige Betrachtungen hinaus.
Da für die Eigenleistung im IT-Bereich oft hohe Investitionen erforderlich sind, trifft die Geschäftsführung oder das IT-Management die Make-or-Buy-Entscheidung in der Regel selbst.
Unterstützung für eine Make-or-Buy-Entscheidung bieten spezialisierte Berater:innen. Mittlerweile gibt es auch Möglichkeiten, künstliche Intelligenz in die Make-or-Buy-Analyse einzubinden.

Fragen, die für Ihre Make-or-Buy Strategie relevant sein können

  1. Wie können Sie die Effizienz steigern und Ressourcenmängel beheben, etwa bei den Fachkräften?
  2. Welches Servicelevel wollen Sie beanspruchen? Wollen Sie alle Leistungen an ein Sourcing-Unternehmen auslagern oder nur einen Teil davon?
  3. Wollen Sie von datengesteuerten Entscheidungen profitieren und künstliche Intelligenz in den Entscheidungsprozess einbeziehen?
  4. Wie können Sie die Mitarbeiter:innen am besten mitnehmen und sie durch Trainings in die Prozesse einbeziehen?

Welche IT-Leistungen eignen sich für das Outsourcing?

Eine Auslagerung kann hilfreich sein, wenn Sie sonst neues Personal rekrutieren müssten; oder sich vorhandene Mitarbeiter:innen erst in eine neue Rolle einarbeiten oder sogar neue Fähigkeiten aneignen müssten, da dies Prozesse verlangsamen könnte.
Outsourcing von IT-Leistungen eignet sich für IT-gestützte Geschäftsprozesse, Anwendungsdienste und Infrastrukturen. Interessant ist die Kooperation mit Dienstleistern insbesondere, wenn eine möglichst hohe Skalierbarkeit erforderlich ist.
Generell sind sämtliche IT-Leistungen für ein Outsourcing prädestiniert, die jahrelange Erfahrung erfordern – wenn diese inhouse nicht vorhanden ist. Ein weit verbreitetes Beispiel sind Komplettlösungen für den Business-Bereich wie Microsoft 365 Business. Eine eigene Office-Suite nebst integrierter Messenger- und Videokonferenzanwendung zu entwickeln und zu betreiben oder Open-Source-Produkte hierhin zu entwickeln, kommt für die meisten Unternehmen wohl kaum in Frage. Auch für die Implementierung und Administrierung der komplexen Microsoft 365 Business-Editionen kann externes Fachwissen nützlich sein. Manchmal schöpfen Unternehmen die Möglichkeiten der Anwendungen nicht voll aus, weil detaillierte Kenntnisse über spezifische Anwendungsfälle fehlen.
Dabei gilt: Auch ohne eigene IT-Abteilung oder besonderes Fachwissen können Berufstätige bereits die Vorteile externer IT-Leistungen nutzen. So geben mittlerweile auch Kleinbüros und Selbständige, die im Homeoffice arbeiten (Small Office/Home Office, kurz: SOHO), Admin-Aufgaben weitgehend vollständig an IT-Partner ab und konzentrieren sich lieber auf ihr Kerngeschäft.
Mit Microsoft 365 Business in Verbindung mit den Vodafone Services beispielsweise erhalten Unternehmen eine Komplettlösung inklusive Beratung, die individuell auf ihre Bedürfnisse zugeschnitten ist und jederzeit anpassbar bleibt. Das Investitionsrisiko bleibt hierbei minimal – also liegt die „Buy“-Entscheidung geradezu auf der Hand.

IT-Leistungen, die sich gut für „Buy“ eignen

  • Cloud-Dienste und -Produkte, die Sie bei der digitalen Transformation Ihres Business unterstützen
  • Lösungen für die Remote-Zusammenarbeit
  • digitale Plattformen insgesamt, vor allem cloudbasiert
  • Infrastructure-as-a-Service, Platform-as-a-Service, Software-as-a-Service
  • Cyber-Security-Lösungen
  • Backup-Lösungen, PC- und Ordnersicherung
  • Zukunftstechnologien wie künstliche Intelligenz (KI), Internet der Dinge (IoT) und virtuelle Maschinen
  • Datenmigration
  • Administration
  • Automatisierung

IT-Leistungen, die eher „Make“ erfordern

  • Leistungen, die sich auf Daten beziehen, die Geschäftsgeheimnisse beinhalten
  • Softwarelösungen, für die eine hohe Kontrolle über den Entwicklungsprozess nötig ist oder die gar das Kerngeschäft darstellen (Softwarehäuser)
  • Datenanalyse für Prozesse, bei denen Sourcing-Anbietern das Wissen zum Kontext fehlt
  • Geschäftsprozesse, für die externe Partner die Einhaltung des Datenschutzes nicht gewährleisten können
  • Prozesse in Branchen, die einer hohen Risikobewertung unterliegen (z. B. Finanzsektor)

In 7 Schritten zur Make-or-Buy-Analyse

Die Digitalisierung zu meistern heißt keinesfalls, dass man alles selbst macht. Gerade Sicherheit und Effizienz können aus der Expertise externer Partner resultieren. Die Frage ist: Welches Budget erfordert das? Anders gefragt: Wie lässt sich ein Budget am sinnvollsten nutzen und wie werden betriebliche Kosten am besten planbar?
Die Make-or-Buy-Analyse gibt Auskunft über die Wirtschaftlichkeit von Make und von Buy. Sie verdeutlicht den Entscheidungsträgern, inwieweit Ressourcen intern vorhanden sind oder mit Aufwand X zur Verfügung gestellt werden können, um die Unternehmensziele zu erreichen.
Dazu werden die Kosten, die durch Outsourcing entstehen, mit jenen Kosten verglichen, die entstehen oder eingespart werden, wenn die Leistungen intern erbracht würden. Dabei gibt es beim Outsourcing heute viele Möglichkeiten zur Skalierbarkeit. Nicht immer geht es darum, die gesamte IT-Infrastruktur durch den Outsourcing-Partner abwickeln zu lassen. Manchmal ist es besser, schrittweise eine Partnerschaft aufzubauen und zu prüfen.
Insgesamt wird die operative von der strategischen Make-or-Buy-Analyse unterschieden. Für die operative Analyse stehen in der Regel Kostenvorteile im Vordergrund. Die strategische Analyse bezieht langfristige Überlegungen mit ein – wie eine mögliche Produktionsauslagerung oder -Übernahme, die künftige Wettbewerbsfähigkeit und weiche Faktoren. Letztere sind aber meist schwer messbar.
Eine allgemeingültige Regel, welches Ergebnis einer Make-or-Buy-Analyse als gut oder schlecht, richtig oder falsch zu bewerten ist, gibt es nicht. Jeder CIO oder IT-Verantwortliche bestimmt die Gewichtung der Faktoren individuell. Doch es gibt konkrete Schritte auf dem Weg zur Make-or-Buy-Analyse.

Schritt für Schritt zur individuellen Make-or-Buy-Analyse

  1. Ziele: Definieren Sie Ihre Ziele so klar wie möglich, zum Beispiel Kostenvorteile und Vorteile durch die Konzentration auf das Kerngeschäft.
  2. Kosten: Vergleichen Sie nicht nur die Kosten für Eigenleistung und Outsourcing, sondern beziehen Sie auch eine erwartete Kapazitätsauslastung mit ein.
  3. Liquidität: Digitalisierung und Innovation erfordern Investitionen. Deshalb entscheidet die Liquidität maßgeblich über die Machbarkeit von Make oder Buy.
  4. Image: Prüfen Sie, ob der Fremdbezug von IT-Leistungen Ihr Image verbessern kann, zum Beispiel in Bezug auf Nachhaltigkeitsziele und Cybersicherheit.
  5. Qualität: Bedenken zur Qualität von Fremdleistungen können für Make sprechen. Wenn sich Ihr Qualitätsanspruch inhouse nicht erfüllen lässt, spricht dies für Buy.
  6. Zeit: Wenn sich konkrete Ziele durch Outsourcing schneller erreichen lassen, kann das für ein IT-Outsourcing sprechen, etwa wenn Sie eine Markteinführung beschleunigen wollen.
  7. Sourcing-Partner: Die Suche und Bewertung der verfügbaren IT-Partner ist entscheidend dafür, ob eine angestrebte Buy-Lösung machbar ist.

„Make“ oder „Buy“: Vor- und Nachteile im Überblick

Kurz zusammengefasst: Für eine operative Make-or-Buy-Analyse stehen kurzfristige Kosteneinsparungen im Vordergrund, während die strategische Make-or-Buy-Analyse andere Faktoren stärker gewichtet. Die wichtigsten Vor- und Nachteile haben wir in dieser Übersicht zusammengefasst: Buy:

Das spricht für IT-Outsourcing

  • variable Kosten statt Fixkosten
  • Skalierbarkeit
  • Kosteneinsparungen (z. B. für Hardware, Software, Personal, Energie, Wartung, Fortbildung)
  • Expertise und langjährige Erfahrung von externen IT-Partnern
  • Wettbewerbsvorteile durch Konzentration aufs Kerngeschäft
  • keine Abschreibungsfristen für Anschaffungskosten
  • höhere Leistungsqualität durch größere Rechnerkapazitäten
  • bessere Cybersicherheit durch Hochsicherheits-Rechenzentren
  • mehr Nachhaltigkeit
  • hohe Verfügbarkeit
  • Desaster Recovery
  • konstanter Zugang zu modernsten Technologien
  • Erhaltung der Wettbewerbsfähigkeit

Make: Das spricht gegen IT-Outsourcing

  • Schwierigkeit des Wettbewerbsvergleichs bei den Anbietern
  • Kontrollverlust über Prozesse
  • Abhängigkeit vom Anbieter (wenn dieser in wirtschaftliche Schwierigkeiten kommt, kann das Folgekosten verursachen)
  • Risikomanagement
  • Aufwand für Steuerung und Kontrolle des Dienstleisters
  • Mögliche Kommunikationsprobleme mit dem Dienstleister

Quelle:

https://www.vodafone.de/business/blog/make-or-buy-20446/

Wie digitales Arbeiten die Produktivität steigert

Im papierlosen Büro finden sämtliche Geschäftsvorgänge digital statt. Ausdrucke gibt es nicht (mehr). Dokumente werden in der Cloud gespeichert und rein digital erstellt. Gibt es noch Papierdokumente, werden diese eingescannt und die Blätter, sofern sie nicht Aufbewahrungsfristen unterliegen, vernichtet. Das schont nicht nur die Umwelt, sondern sorgt – richtig umgesetzt – für deutlich mehr Arbeitseffizienz und reduziert Platzbedarf und Aufwand insgesamt. Doch wie geht das eigentlich? Und welche Belege sind auch weiterhin in Papierform vorzuhalten?

Jeden Tag wächst die Informationsmenge, die Unternehmen bändigen müssen. Fotos, Filme und Musik werden bereits ganz selbstverständlich in digitaler Form verwaltet. Bei der Frage nach dem „Wie” und „Ob” der vollständigen Digitalisierung von Schriftstücken gehen die Meinungen jedoch auseinander. Dabei gilt der Verzicht auf Papier als Erfolgsfaktor für die digitale Transformation und im globalen Wettbewerb. Nicht zuletzt leistet das papierlose Arbeiten einen wichtigen Beitrag zur Nachhaltigkeit.

Was ist ein papierloses Büro?

Das papierlose Büro kommt entsprechend seiner Definition ganz ohne Papier aus. Die Maxime lautet: keine Notizblöcke, keine Briefmarken, keine Flipcharts, keine Zettelwirtschaft. Alle Dokumente werden virtuell auf Rechnern, Festplatten oder in der Cloud gespeichert und bearbeitet. In Besprechungen können Mitarbeiter:innen ihre Notizen auf Tablets oder Smartphones machen und die Dokumente digital signieren.
Lästiges Aktensuchen im Office entfällt ebenso wie die Wege zu den zuständigen Stellen und Abteilungen, bei denen die jeweiligen Originalakten liegen. Schriftstücke und Arbeitsmaterialien sind stets auf Knopfdruck verfügbar. So wird das papierlose Büro oft zum Produktivitätsbooster, auch im Außendienst oder bei der Arbeit von zu Hause aus.
Doch damit nicht genug: Unternehmen schonen durch den Verzicht auf Gedrucktes auch die Umwelt und sparen wertvolle Ressourcen – zum Beispiel Papier, Druckertinte und Drucker, Aktenschränke, Regalsysteme sowie Stellflächen, die nicht länger benötigt werden. Wer E-Mails und andere Informationen ausdruckt, braucht künftig einen guten Grund – oder verzichtet am besten ganz darauf.
Vor allem große Unternehmen sparen auf diesem Wege inzwischen sehr viel Geld. Doch mittlerweile erobert die papierlose Arbeit auch den Mittelstand und kleine Unternehmen. In der Regel ist der Umstieg zum vollständig papierlosen Büro jedoch ein längerer Prozess, der schrittweise vollzogen wird, nicht abrupt.
Laut dem Digital Office Index von Bitkom haben im Jahr 2022 bereits 72 Prozent aller deutschen Unternehmen mindestens die Hälfte ihrer Rechnungen elektronisch ausgestellt. Zum Vergleich: 2020 waren es noch 65 Prozent.

Tools für einen guten Workflow beim papierlosen Arbeiten

Grundlage für das papierlose Büro ist ein Scanner mit OCR-Technologie und eine digitales Dokumentenmanagementsystem (DMS). Letzteres ist auch unter dem Kürzel ECM (Enterprise Content Management) bekannt; mehr Informationen hierzu finden Sie im Text weiter unten.
Unified-Communications-Lösungen bieten Tools, mit denen Sie online Faxe versenden, rechtskonforme digitale Zeitstempel und Signaturen erstellen oder digital mit Kolleg:innen kommunizieren können, zum Beispiel über E-Mail oder Anwendungsdienste wie Microsoft Teams oder Slack.
Um die Produktivität im digitalen Büro weiter zu steigern, empfiehlt sich der geräteunabhängige Zugriff auf Dokumente in der Cloud. In puncto Sicherheit sind Cloud-Lösungen herkömmlichen Ablagesystemen oft überlegen, da sie Datenverschlüsselung und modernes Identitätsmanagement ermöglichen. Für hybride Arbeitsmodelle und die Arbeit im Homeoffice ist Cloud-Computing nicht mehr wegzudenken.

Die Vor- und Nachteile im Überblick

Viele Unternehmen in Deutschland können sich noch nicht vorstellen ganz auf Papier zu verzichten, denn es bietet ein haptisches, vertrautes Erlebnis und kann das Gefühl geben, Informationen buchstäblich sicher „in der Hand zu halten“. Bei manchen kommt die Frage auf, ob digitalisierte Dokumente schneller in falsche Hände geraten könnten. Dabei ist das Risiko eines Diebstahls oder von Schäden durch Feuer, Wasser oder andere Umwelteinflüsse bei „analogem“ Papier oft sogar höher.
In vielen Fällen steigt also heute die Sicherheit durch die Digitalisierung von Papier: zum einen durch moderne Sicherheitstechnologien, zum anderen aber durch die Möglichkeit, Sicherungskopien an verschiedenen Orten zu speichern.
Ein wesentlicher Vorteil des papierlosen Büros ist darüber hinaus seine Umweltfreundlichkeit. Die Herstellung von einem Kilogramm neuem Kopierpapier (200 Blatt) verbraucht rund 50 Liter Wasser und etwa fünf Kilowattstunden Energie. Recyclingpapier braucht zwar nur rund 50 Prozent an Energie und circa ein Drittel der Wassermenge, aber die Papierindustrie belastet auch durch den Einsatz von Chemikalien und lange Transportwege die Umwelt.
Andererseits verbraucht auch die Digitalisierung Ressourcen und geht weltweit mit einem Anstieg des Stromverbrauchs einher. Nach Angaben des Umweltbundesamts sorgen Rechenzentren in Deutschland jedoch „nur“ für rund drei Prozent des jährlichen Stromverbrauchs. Ihre Energieeffizienz wird konstant verbessert, auch Fortschritte bei der Nutzung erneuerbarer Energien und moderne Hardware tragen dazu bei. Aus diesem Grund sind die entstehenden Treibhausgasemissionen trotz des gestiegenen Stromverbrauchs rückläufig: Laut einer Bitkom-Studie sind die durch Rechenzentren verursachten CO2-Emissionen im Zeitraum 2018 bis 2020 bereits um 1,1 Millionen Tonnen gesunken.
Gemäß des E-Rechnungs-Gesetzes wurden Bund, Länder und Kommunen im April 2020 dazu verpflichtet, die Voraussetzungen für den Empfang und die Weiterverarbeitung von digitalen Rechnungen zu schaffen. Auch behördliche Vorgänge dürfen inzwischen elektronisch abgewickelt werden.

Die Vorteile des papierlosen Büros

  • Arbeitsersparnis: Der Gang zum Drucker und der zum Postamt entfallen. Außerdem müssen keine Aktenordner gesucht und danach gewälzt werden, um einen Vorgang zu finden.
  • Effizienzerhöhung: Liegen alle Daten elektronisch vor und es können wie bei Microsoft 365 Business mehrere Personen am selben Dokument arbeiten, sinkt die Bearbeitungsdauer eines Vorgangs in vielen Fällen erheblich.
  • Umweltschutz: Papierberge schrumpfen auf ein Minimum zusammen und das Postaufkommen verringert sich. Auch der Verzicht auf die Druckerperipherie verbessert die Ökobilanz.
  • Kostensenkung: Die Kosten für Papier und Druckertinte sowie für die Anschaffung von Druckerlösungen sinken drastisch oder entfallen.
  • Platzersparnis: Aktenschränke, Regalsysteme sowie entsprechende Stellflächen und gegebenenfalls Lagerräume einschließlich ihrer Heizkosten werden eingespart.
  • Weniger Kopierkosten: Es ist nicht mehr nötig, mehrere Kopien von Dokumenten für alle Mitarbeiter:innen in Projektteams oder für die interne Kommunikation zu erstellen.
  • Produktivitätssteigerung und Prozessoptimierung: Ein digitales Dokumentenmanagement-System vereinfacht viele Geschäftsprozesse. Kolleg:innen können an einem zentralen Ort auf Daten zugreifen und Dokumente schneller weitergeben.
  • Mehr Effizienz: Wichtige Prozesse wie die Rechnungsstellung brauchen weniger Zeit. Dokumente wie Frachtbriefe, Verträge und Bestellungen sind übersichtlich miteinander verknüpft.
  • Transparenz: Eine intelligente digitale Suchfunktion im System erspart die lästige Sucharbeit nach Dokumenten; sie sind auch anhand von Schlagworten und Metadaten wie z.B. dem Erstelldatum auffindbar.
  • Flexibilität: Mitarbeiter:innen haben ortsunabhängig Zugriff auf alle nötigen Unterlagen und können auch mobil oder im Homeoffice produktiv arbeiten.
  • Sicherheit: Digitale Systeme bieten ein Plus an Sicherheit, etwa durch Verschlüsselung und Zugriffskontrolle. Künstliche Intelligenz reduziert im Büro Gefahren durch Cyberangriffe.

Nachteile

  • Aufwand für die Umstellung: Der Wechsel zum digitalen Büro ist ein langwieriger Prozess. Es kann Widerstand von Mitarbeitenden gegen die Veränderung geben.
  • Anfangsinvestitionen: Zu Beginn fallen Investitionen in Hardware, Software und Mitarbeiterschulungen und ggf. Speicherplatzmiete in der Cloud an.
  • Abhängigkeit von Strom und stabilem Internet: Ein papierloses Büro ist auf eine schnelle Internetverbindung und konstante Stromversorgung angewiesen.
  • Sicherheitsbedenken: Papierloses Arbeiten birgt das Risiko technischer Probleme und von Datenverlust. Sicherheitstechnologie muss stets auf dem aktuellen Stand gehalten werden.
  • Einhaltung von Rechtsvorschriften: Unternehmen müssen die Einhaltung der Vorschriften zum Datenschutz und zur elektronischen Speicherung von Dokumenten gewährleisten.
  • Einheitliche Ordnungssysteme: Damit Daten auch schnell gefunden werden können, ist es wichtig, dass innerhalb des Unternehmens einheitliche Ordnerstrukturen und Dateinamen verwendet werden. Die Anzahl an Unterordnern sollte nicht zu groß sein.

5 Schritte auf dem Weg zum papierlosen Arbeiten

Bevor Sie mit der eigentlichen Digitalisierung Ihres Papierbestands beginnen, sollten Sie den Ist-Zustand erfassen, einen Soll-Zustand definieren und daraus die notwendigen Maßnahmen ableiten. Die folgenden Schritte sind wichtig auf dem Weg zum papierlosen Büro:

Vorbereiten und Planen

Zunächst geht es um die Frage, wie und wo Sie im Unternehmen aktuell Informationen erfassen, verwalten und digital speichern und welche Dokumententypen Sie einscannen wollen. Je mehr Menschen und Abteilungen an der Umstellung zum papierlosen Office beteiligt sind, desto mehr Zeit sollten Unternehmen einplanen. In einigen Fällen könnte es sinnvoll sein, einen externen Scandienstleister zu beauftragen.
Notieren Sie auch, welche Hardware und Software Sie benötigen und welche Dokumente Sie anschließend entsorgen können. Möglicherweise erschließen sich während ihrer Überlegungen schon Verbesserungspotenziale für bisherige Abläufe.

Setzen Sie auf klare Vorteilskommunikation

Ein grundlegender Veränderungsprozess wie der hin zum Geschäftsbetrieb ohne jegliche Ausdrucke sowie ohne Notizen in Papierform kann nur funktionieren, wenn Sie alle beteiligten Mitarbeiter:innen von Anfang an mit einbeziehen. Die Idee des papierlosen Büros muss dabei natürlich von oberster Ebene her vorgelebt werden: Wenn die Führungsetage weiter sämtliche E-Mails ausdruckt, von der Belegschaft aber die vollständig digitale Aktenablage verlangt, leidet das Vorhaben mit Sicherheit unter der fehlenden Vorbildfunktion.
Eine klare Vorteilskommunikation gegenüber den Beschäftigten hilft, um Widerstände gegen die Veränderung abzubauen. Machen Sie deutlich, dass es nicht bloß darum geht, Papier aus Kostengründen abzuschaffen, sondern auch darum, schnellen und einfachen Zugriff auf Dokumente und Informationen zu gewährleisten und umweltfreundlicher zu arbeiten.
Die digitale Transformation ist kein Selbstzweck, sondern bietet jede Menge Vorteile – das muss bei Ihrer Belegschaft ankommen. Sie sollten klarstellen, dass ihre Mitarbeitenden durch den Abbau von Zeitdruck entlastet werden, ohne dass ihre Stellen durch Automatisierungsprozesse gefährdet sind.

Verwalten Sie digitale Informationen ganz einfach mit SharePoint-ECM

Ein effektives, strukturiertes Dokumentenmanagement ist für das papierlose Arbeiten unerlässlich. Statt einer eigens erdachten Ablagestruktur von Dokumenten auf hauseigenen Servern erleichtert ein Capture-, Process- und Enterprise Content Management (ECM) als Nachfolger von einfachen Dokumenten Management Systemen (DMS) die Verwaltung von Informationen.
Entscheidende Kriterien bei der Wahl der Software sind: hohe Usability, Stichwort- und Volltextsuche, Querverbindungen, Historienfunktionen und grundlegender Texterkennung.
In vielen Editionen von Microsoft 365 Business, wie beispielsweise Enterprise E3, ist Microsoft SharePoint bereits enthalten.
Stellen Sie unbedingt sicher, dass Dokumente nicht einfach gelöscht werden können. Dazu zählen auch geeignete Backup-Verfahren wie die Datensicherung in einer Cloud.
Elektronische Archive müssen derart aufgesetzt sein, dass eine Migration auf neue Plattformen, Softwareversionen etc. ohne Verlust von Informationen möglich ist.

Scannen Sie sämtliche Akten ein und entsorgen Sie alles in Papierform, was keiner gesetzlichen Vorgabe unterliegt

Die eigentliche Veränderung umfasst drei wesentliche Schritte: Zuerst müssen aus analogen Drucksachen digitale Dokumente werden. Idealerweise erfolgt dies durch die zentrale Erfassung des Schriftverkehrs durch das ECM, die automatische Erkennung von Informationen, ihre Klassifizierung, Suchindizierung, Benennung und die Optimierung für verschiedene Endgeräte wie z. B. Desktop-PCs, Smartphones und Tablets.
In einem zweiten Schritt richten Sie eine sinnvolle Verwaltung Ihrer digitalen Dokumente ein. Sichern Sie Daten und Dokumente in der Cloud über das ECM und sorgen Sie dafür, dass sie leicht gefunden werden können. Der Zugriff darauf kann sogar von unterwegs aus auf sicherem Wege per VPN erfolgen.
Das ECM sollte es Unternehmen ermöglichen, rechtlich relevante Unterlagen originär zu speichern, eine einwandfreie Anzeige und notfalls den Ausdruck der Informationen zu gewährleisten. Außerdem muss es die sofortige Wiederauffindbarkeit und im Falle eines Wechsels von Software und Hardware die verlustfreie Migration und Langzeitverfügbarkeit sicherstellen.
Abschließend können Sie im dritten Schritt alte Unterlagen entweder archivieren oder entsorgen.
Übrigens wird kaum ein Unternehmen in der Lage sein, ein vollständig papierloses Büro ad hoc durchzusetzen. Gewisse Formalitäten im Geschäftsverkehr und „offizielle” Unterlagen wie beispielsweise das Arbeitszeugnis verlangen auch weiterhin die Schriftform auf Papier.

Vermeiden Sie zukünftig unnötigen Schriftverkehr per Papier

Wenn einige Geschäftspartner auf postalischem Weg Briefe oder Rechnungen schicken, sollten Sie diese bitten, auf digitale Dokumente umzusteigen. Mit Banken, Rentenversicherungen und Krankenkassen können Unternehmen digitalen Schriftverkehr führen, zumal viele dieser Organisationen die Digitalisierung ebenfalls vorantreiben wollen und müssen.
Mit den heutigen Möglichkeiten der Digitalisierung kann die Vision vom papierlosen Büro Schritt für Schritt wahr werden. Damit dies am Ende gelingt, sollten Unternehmen unbedingt darauf achten, Rückfälle in alte Abläufe zu vermeiden und ihre Mitarbeiter:innen stets an die konsequente Umsetzung und ihre persönlichen Vorteile zu erinnern. Das reflexartige Ausdrucken übersendeter E-Mails und PDF-Anhänge sollten Sie jedenfalls auf absolut notwendige Vorgänge begrenzen.
Tipp: Entfernen Sie Papiermülleimer im Büro. Ihre Mitarbeiter:innen überlegen sich eher, ob Sie Dokumente ausdrucken oder Notizzettel beschriften, wenn der Weg zum nächsten Mülleimer zu weit ist.

Unified Communications: Die Vorteile

Mit UCC bündeln Sie alle relevanten Kommunikationsdienste und Medien in einer zentralen Plattform. Sprachtelefonie über Fest- oder Mobilnetz, Videokonferenzen, E-Mails oder Chats – Unified Communications-Lösungen machen es möglich.

  • Effizientere Kommunikation
  • Maximale Flexibilität
  • Einfache Verwaltung

Diese rechtlichen Aspekte sind zu beachten

Eine der Herausforderungen bei der Umstellung auf das digitale Büro sind die rechtlichen Anforderungen an die Aufbewahrung und Archivierung elektronisch gespeicherter Dokumente, da mehrere, zum Teil branchenspezifische Vorschriften parallel gelten.
Allgemeine Vorgaben für die Archivierung von steuer- oder finanzrechtlich relevanten Dokumenten finden Sie in den GoBD (Grundsätze zur ordnungsmäßigen Führung und Aufbewahrung von Büchern, Aufzeichnungen und Unterlagen in elektronischer Form). Dazu gehören die Nachvollziehbarkeit, Nachprüfbarkeit, Klarheit, Vollständigkeit und Unveränderbarkeit.
Zeitliche Vorgaben für die Aufbewahrung stehen wiederum im Steuer- und Handelsrecht und sind zum Teil unterschiedlich (sechs bis zehn Jahre). Deswegen ist es sinnvoll, dass Sie einen Terminplan erstellen für die Löschung digital gespeicherter Rechnungen, Steuerbescheide, Jahresabschlüsse, Bilanzen, Korrespondenzen oder Verträge.
Um die Datenschutzbestimmungen der DSGVO einhalten zu können, sind im digitalen Büro klare Richtlinien für den Umgang mit Dokumenten erforderlich. Gegenüber den unbestreitbaren Vorteilen des papierlosen Büros ist dies eine große Herausforderung.
Die Aufgabe wird lösbar, indem Sie umfassende Schulungen der Mitarbeitenden einleiten – zum Beispiel zu aktuellen Datenschutzpraktiken und Sicherheitsthemen wie Risiken von Phishing-Angriffen und Malware und deren rechtzeitiger Erkennung.
Hilfreich sind außerdem moderne Überwachungssysteme, die unberechtigte Datenzugriffe erkennen. Mittlerweile setzen Unternehmen bereits künstliche Intelligenz (KI) für die ständige Überwachung der IT-Sicherheit ein: Die KI übernimmt die automatisierte Abwehr potenzieller Cyber-Bedrohungen.

Elektronische Signatur

Für eine rechtsgültige digitale Unterschrift von Verträgen oder anderen Dokumenten gibt es technische Verfahren und Vorschriften, die nach Anwendungsgebiet variieren. In der Europäischen Union definiert die eIDAS-Verordnung, für welche Dokumente die digitale Signatur Gültigkeit besitzt. Rechtssichere elektronische Signaturen können Unternehmen mit Tools wie DocuSign, Scribble oder Adobe Acrobat Sign erstellen.
Ihre Beweiskraft wird in drei Sicherheitsstandards eingeteilt: „niedrig“ (einfache elektronische Signatur, EES), „mittel“ (fortgeschrittene elektronische Signatur, AES/FES) und „hoch“ (qualifizierte elektronische Signatur, QES). Drei Beispiele: Für Kostenvoranschläge reicht die EES, für einen Kaufvertrag ist eine FES erforderlich und für eine Konto- oder Depoteröffnung die QES.

Fertig für Sie eingerichtet und startklar: Microsoft 365 Business mit Vodafone Services

Produktivität steigern. Sicherheit stärken. Und sich dabei komplett auf Ihr Business konzentrieren? Das geht. Unsere Expert:innen helfen mit Ihren Microsoft 365 Business-Lizenzen. So haben Sie Zeit für Ihr Kerngeschäft.

Das Wichtigste zum papierlosen Büro in Kürze

  • Das papierlose Büro bietet Unternehmen verschiedene Vorteile wie Kosten- und Zeitersparnis, höhere Produktivität und mehr Nachhaltigkeit.
  • Auch wenn der Weg zum vollständig papierlosen Arbeiten ein langwieriger Prozess ist, leisten einige Tools bereits einen wichtigen Beitrag zur Reduzierung von Papier am Arbeitsplatz. Dazu gehören etwa digitales Dokumentenmanagement (DMS/ECM) in der Cloud oder Business-Kommunikationslösungen wie ein Messengerdienst.
  • Papierloses Arbeiten schont die Umwelt in mehrfacher Hinsicht: durch den Wegfall von Papier, Aktenschränken, Lagerflächen, der Druckerperipherie und mehr.
  • Eine Umstellung auf das papierlose Office erfordert eine Anfangsinvestition in Software, Hardware und Mitarbeiterschulung.
  • Der rechtliche Rahmen ist bereits angepasst: Seit 2020 dürfen in Deutschland behördliche Unterlagen elektronisch abgewickelt werden. Auch eine elektronische Signatur ist für nahezu alle Geschäftsprozesse rechtsgültig.
  • Papierloses Arbeiten gilt als Erfolgsfaktor für Digitalisierungsprozesse und die Wettbewerbsfähigkeit von Unternehmen – auch auf dem globalen Markt.

Quelle:

https://www.vodafone.de/business/blog/papierloses-buero-90201/

Das Samsung Galaxy S24(+) und das S24 Ultra im Business-Check

Die Smartphones der Samsung Galaxy-S-Reihe erfreuen sich im Business-Umfeld seit jeher großer Beliebtheit. Mit dem Galaxy S24, dem S24+ und dem S24 Ultra stehen seit Anfang 2024 drei neue attraktive Optionen für Geschäftsleute bereit – doch lohnt sich die Anschaffung auch?

Während sich das Galaxy S24 und S24+ abgesehen vom Größenunterschied sehr ähnlich sind, ist das Galaxy S24 Ultra das High-End-Modell der Serie. So oder so eignen sich alle drei Geräte hervorragend als Business-Begleiter – warum, das erfahren Sie hier.

Kantig oder abgerundet, aber stets edel

Im direkten Vergleich fällt auf: Samsung hat für die S24-Reihe zwei unterschiedliche Designs gewählt. Das Galaxy S24 und das größere Galaxy S24+ verfügen über abgerundete Ecken und einen flachen Aluminiumrahmen. Das Galaxy S24 Ultra dagegen hebt sich mit seinem eckigen Gehäuse und einem leicht gekrümmten Rahmen aus Titan ab.
Es wirkt tatsächlich im direkten Vergleich noch einen Tick edler und ist noch robuster als seine Schwestermodelle. Letzteres hat es nicht nur seinem Titanrahmen zu verdanken. Es ist darüber hinaus vorn und hinten durch Gorilla Glass Victus Armor geschützt. Diese Art von Glas bietet nochmals besondere Vorteile im manchmal harten Business-Alltag auf Reisen oder zum Beispiel auf Baustellen und Co. Bei den anderen beiden Modellen nutzt Samsung noch dessen Vorgänger Gorilla Glass Victus 2, der Kratzer und Brüche jedoch ebenfalls effektiv verhindert.
Somit sind alle drei Handys sehr widerstandsfähig und stecken die Strapazen von Geschäftsreisen gut weg. Auch, wenn im Zug oder im Flieger mal ein Glas Wasser umfällt. Denn die Geräte sind nach IP68 staub- und wasserresistent.

Unterschiedliche Farben

Das Galaxy S24 und das 24+ teilen sich eine Farbpalette, das S24 Ultra hingegen hat eine eigene bekommen. Es stehen jeweils sieben Farben zur Auswahl, von denen wiederum jeweils drei nur direkt bei Samsung erhältlich sind. Für einen dezenten Business-Look empfehlen sich am ehesten die Ausführungen in Onyx Black (S24, S24+) beziehungsweise Titanium Gray (S24 Ultra).

Pfeilschnelle und ausdauernde Business-Handys

Als Premium-Smartphones sind die drei neuen Samsung-Handys mit Flaggschiff-Antrieben ausgestattet: Der Exynos 2400-Prozessor im S24(+) und der als leicht überlegen geltende Snapdragon 8 Gen 3 im S24 Ultra gehören zu den schnellsten am Markt erhältlichen Chipsätzen für Android-Handys. Unterstützt von einem Arbeitsspeicher mit 8 Gigabyte (S24) beziehungsweise 12 Gigabyte (S24+ und S24 Ultra) Größe ermöglichen sie reibungsloses Arbeiten und Multitasking.
Darüber hinaus sind die 4-Nanometer-Prozessoren sehr effizient, was der Akkulaufzeit zugutekommt. Bereits das Galaxy S24 kommt laut Samsung mit einer Akkuladung auf bis zu 25 Stunden Internetnutzung im LTE-Netz. Das S24+ hält demnach bis zu 26 Stunden lang durch und das S24 Ultra sogar bis zu 27 Stunden, bevor der Akku wieder aufgeladen werden muss.

Akkukapazitäten und Ladegeschwindigkeiten

Beeindruckenderweise hält das Standardmodell trotz 4.000-Milliamperestunden-Akku gut mit. Galaxy S24+ (4.900 Milliamperestunden) und S24 Ultra (5.000 Milliamperestunden) bieten eigentlich deutlich mehr Akkukapazität, haben aber auch größere, energieintensiver Bildschirme. Alle drei Modelle sind also auch an längeren Arbeitstagen oder auf Geschäftsreise verlässliche Begleiter.
Bei der Ladegeschwindigkeit haben S24+ und S24 Ultra allerdings Vorteile. Denn sie ermöglichen Fast Charging mit bis zu 45 Watt und lassen sich so in 30 Minuten zu 65 Prozent aufladen. Beim Standardmodell sind 25 Watt das Limit. Das reicht immerhin, um den Akku in einer halben Stunde zu 50 Prozent zu füllen. Keine Unterschiede gibt es dagegen beim Wireless Charging, das jeweils mit maximal 15 Watt möglich ist.

5G und flexible Dual-SIM-Funktionalität

Auch wenn Samsung die Laufzeiten für das LTE-Netz angibt, ist die komplette Galaxy-S24-Reihe natürlich 5G-kompatibel. Sie benötigen lediglich einen 5G-Tarif und -Empfang an ihrem Standort, um von den Vorzügen des schnellen Mobilfunkstandards zu profitieren. So greifen Sie online blitzschnell auf Daten zu und führen auch dann stabile Video-Calls, wenn mal kein WLAN in Reichweite ist.
Über die Dual-SIM-Funktionalität können Sie außerdem zwei Tarife beziehungsweise Rufnummern auf einem Gerät nutzen. Etwa, um berufliche und private Kontakte klar voneinander zu trennen.
Was die SIM-Karten-Kombinationen anbelangt, zeigen sich die Handys dank Dual-SIM-Feature enorm flexibel: Optional können Sie zwei NanoSIM-Karten, zwei eSIMs oder jeweils eine NanoSIM und eine SIM parallel verwenden.

Unterschiede beim Speicherplatz

Der maximale interne Speicher variiert je nach Modell: Das Galaxy S24 ist mit bis zu 256 Gigabyte erhältlich, das S24+ mit bis zu 512 Gigabyte und das S24 Ultra mit bis zu 1 Terabyte. Für die meisten Anwender sollten 256 Gigabyte ausreichen.
Vor allem, wenn Sie jedoch häufig Videos auf Ihrem Handy sichern möchten, sollten Sie ein Modell mit mehr Speicherplatz in Betracht ziehen. Da keines der Geräte einen microSD-Karten-Slot bietet, ist eine nachträgliche Speichererweiterung auf diesem Weg nicht möglich.

Galaxy S24: Technische Daten

• Größe: 147,0 x 70,6 x 7,6 Millimeter • Gehäuse: Aluminium, Gorilla Glass Victus 2 • Display: 6,2 Zoll, 2.340 x 1.080 Pixel, 1-120 Hertz • Chipsatz: Exynos 2400 • RAM: 8 Gigabyte • Kamera: 50 + 10 + 12 Megapixel • Akku und Aufladen: 4.000 Milliamperestunden / 25 Watt • S Pen: Nein

Brillante AMOLED-Displays in drei Größen

Die Galaxy-S24-Serie hält für nahezu jeden Geschmack eine passende Größe bereit. Bevorzugen Sie etwa handliche Geräte, ist das Standardmodell genau das Richtige: Mit 6,2 Zoll Bilddiagonale und Abmessungen von 147,0 x 70,6 x 7,6 Millimetern ist es eines der kompaktesten Premium-Handys überhaupt.
Ist Ihnen dagegen ein großes Display wichtig, sind Galaxy S24+ (6,7 Zoll) oder S24 Ultra (6,8 Zoll) die bessere Wahl. Besonders, wenn Sie häufiger mal eine Excel-Tabelle oder eine Power-Point-Präsentation auf Ihrem Smartphone
begutachten möchten. Mit Abmessungen von 158,5 x 75,9 x 7,7 beziehungsweise 162,3 x 79,0 x 8,6 Millimetern sind sie aber auch sehr groß und nicht mehr mit einer Hand bedienbar.
Unterschiede gibt es außerdem bei der Auflösung: Mit 3.120 x 1.440 Pixeln (QHD+) stellen Galaxy S24+ und S24 Ultra Inhalte noch schärfer das als das S24 (2.340 x 1.080 Pixel), dessen Anzeige in Full HD+ aber mehr als ausreichend ist.
Bei allen drei Bildschirmen handelt es sich um AMOLED-Displays. Sie können sich also auf lebendige Farben, Top-Kontraste und ein sattes Schwarz freuen. Dank LTPO-Technologie bewegt sich die Bildwiederholrate dynamisch zwischen 1 und 120 Hertz. Einerseits sind Animationen dadurch bei Bedarf besonders flüssig. Anderseits reduziert sich der Strombedarf bei statischen Inhalten wie Textdokumenten auf ein Minimum.

Nur beim Galaxy S24 Ultra: S Pen für Notizen und mehr

Als einziges Modell der Reihe ist das Galaxy S24 Ultra mit dem S Pen ausgestattet. Samsungs digitaler Eingabestift erlaubt es Ihnen, das Display wie einen Zeichenblockzu verwenden – etwa, um darauf Notizen und Skizzen zu machen oder auch um Textstellen in Dokumenten zu markieren oder zu kommentieren. Praktisch: Auf Wunsch wandelt das Galaxy S24 Ultra Ihre Handschrift in getippten Text um.
Darüber hinaus können Sie den S Pen zur Bedienung des Touchscreens und für bestimmte Aktionen nutzen – etwa für Screenshots oder zum Auslösen der Kamera.

So gut sind die Kameras von S24, S24+ und S24 Ultra

Hervorragende Kameras sind ein weiteres starkes Argument für die Galaxy-S24-Reihe. Alle drei Modelle ermöglichen bei unterschiedlichsten Lichtbedingungen die Aufnahme von sehenswerten Fotos.
Unter dem Label Nightography bewirbt Samsung die gute Low-Light-Performance: Dank lichtstarken Linsen, großen Bildsensoren und KI-Unterstützung machen die Kameras die Nacht zum Tag. Ideal etwa, um nach Einbruch der Dunkelheit gelieferte Paletten oder einen Lieferschein zu fotografieren. Aber genauso, um Eindrücke vom After-Work-Abend für die nicht anwesenden Kolleg:innen festzuhalten.
Für weitläufige Bilder von Gebäuden oder Maschinen ist jeweils ein Ultraweitwinkelobjektiv vorhanden. Um weiter entfernte Motive wie ein Straßenschild abzulichten, nutzen Sie das Teleobjektiv, das alle Modelle mitbringen. Videokonferenzen führen Sie jeweils über eine 12-Megapixel-Frontkamera in guter Qualität.

Was unterscheidet die Kameras?

Besonders spektakulär ist das Linsenaufgebot des Galaxy S24 Ultra. Seine Vierfachkamera beinhaltet ein 200-Megapixel-Hauptobjektiv mit riesigem Bildsensor. Damit ist eine Bildqualität möglich, wie sie aktuell nur ganz wenige andere Smartphones bieten.
Außerdem sind gleich zwei Telelinsen an Bord: eine mit 50 Megapixel und 5-fachem optischem Zoom sowie ein 10-Megapixel-Objektiv mit 3-fachem optischem Zoom. Dadurch steht Ihnen auf zwei Distanzen eine verlustfreie Vergrößerung zur Verfügung. Das 12-Megapixel-Ultraweitwinkelobjekitv ist durch seinen Autofokus auch für Makrofotos geeignet.
Die Triple-Kameras von Galaxy S24 und S24+ können nicht ganz mithalten, zählen aber dennoch zu den Top-Optionen auf dem Markt. Die 50-Megapixel-Hauptlinse, das 10-Megapixel-Teleobjektiv (optischer 3x-Zoom) und das 12-Megapixel-Ultraweitwinkel ermöglichen allesamt tolle Aufnahmen.

Galaxy S24+: Technische Daten

  • Größe: 158,5 x 75,9 x 7,7 Millimeter
  • Gehäuse: Aluminium, Gorilla Glass Victus 2
  • Display: 6,7 Zoll, 3.120 x 1.440 Pixel, 1-120 Hertz
  • Chipsatz: Exynos 2400
  • RAM: 12 Gigabyte
  • Kamera: 50 + 10 + 12 Megapixel
  • Akku und Aufladen: 4.900 Milliamperestunden / 45 Watt
  • S Pen: Nein

Software: Galaxy AI, Samsung DeX und QuickShare

Mit der Galaxy AI stehen Ihnen bei allen Galaxy-S24-Modellen spannende KI-Funktionen zur Verfügung. Die eine oder andere könnte auch für berufliche Zwecke interessant sein. Potenzial dafür bietet beispielsweise die Live-Übersetzung, die Telefonate in Echtzeit dolmetschen kann.
Stehen Sie in regelmäßigem Kontakt mit ausländischen Geschäftspartnern, könnte diese Funktion zumindest eine denkbare Alternative zur Korrespondenz auf Englisch sein.
Nützlich erscheint außerdem Circle To Search, eine universelle KI-Bildersuche: Hiermit können Sie über nahezu alles, was Sie auf Ihrem Bildschirm sehen, Informationen anfordern. Dies funktioniert selbst in Videos – einfach einkreisen und mehr erfahren.
Eher nur für den privaten Einsatz bieten sich der Foto-Aassistent und die generative Bearbeitung an. Hiermit können Sie Fotos mithilfe künstlicher Intelligenz einfach retuschieren und manipulieren.
Wichtig: Bevor Sie die Galaxy AI beruflich nutzen, prüfen Sie, ob dies in Einklang mit den Datenschutzrichtlinien Ihres Unternehmens ist.

Samsung DeX: Arbeiten wie am Computer

Wie andere Samsung-Smartphones können Sie auch Ihr Galaxy S24 mit Samsung DeX in einen Desktop-Ersatz verwandeln. Dazu verbinden Sie das Handy einfach via Kabel oder Miracast mit einem externen Monitor und arbeiten dann in einer Benutzeroberfläche, die an Betriebssysteme wie Windows erinnert.
Dank Fenstermodus ist Multitasking in Samsung DeX besonders komfortabel möglich. Für Präsentationen empfehlen wir die kabellose Nutzung in Verbindung mit einem unterstützten Monitor oder Samsung-Fernseher.

QuickShare: File-Sharing ganz einfach

In One UI 6.1, Samsungs Benutzeroberfläche für Android, feiert das neue QuickShare seinen Einstand. Samsung hat das Feature optimiert und Filesharing noch einfacher gemacht. Über gespeicherte Kontakte oder QR-Codes können Sie damit Datenschnell zwischen Android-Handys und -Tablets sowie Windows-PCs verschieben. Dabei ist es möglich, Dateien an mehrere Geräte gleichzeitig zu versenden.

Galaxy S24 Ultra: Technische Daten

  • Größe: 162,3 x 79,0 x 8,6 Millimeter
  • Gehäuse: Titan, Gorilla Glass Armor
  • Display: 6,8 Zoll, 3.120 x 1.440 Pixel, 1-120 Hertz
  • Chipsatz: Snapdragon 8 Gen 3
  • RAM: 12 Gigabyte
  • Kamera: 200 + 10 + 50 + 12 Megapixel
  • Akku und Aufladen: 5.000 Milliamperestunden/ 45 Watt
  • S Pen: Ja

(Zukunfts)sicher: Update-Garantie und Samsung Knox

Samsung garantiert für die gesamte Galaxy-S24-Serie sieben Jahre lang Sicherheits- und Android-Updates. Über den genannten Zeitraum bekommen die Handys also kontinuierlich neue Features und sind bestmöglich vor bekannten Cyber-Bedrohungen geschützt. Damit sind die Geräte so zukunftssicher wie nur wenige aktuelle Android-Smartphones. Lediglich Google und Apple versorgen ihre Handys aktuell ähnlich lange mit entsprechenden Aktualisierungen.
Maßgeblich zur Sicherheit bei trägt außerdem Samsung Knox bei, das die Geräte laut Hersteller in Echtzeit „von innen heraus schützt … ganz gleich, wohin Sie Ihre Arbeit verschlägt.“ Passwörter und sensible Daten sind dadurch digital und physisch vor fremden Zugriffen geschützt.
Diese doppelte Absicherung ist besonders für Mobile Work wertvoll – denn mit wechselnden Standorten steigt die Anzahl potenzieller Cyberbedrohungen.
Für Mobile Device Management (MDM) bietet Samsung außerdem die kostenpflichtige Knox Suite an. Die Enterprise Edition des Galaxy S24 bringt eine einjährige Lizenz dafür mit.

Unser Fazit zum Samsung Galaxy S24, S24+ und S24 Ultra

Samsungs Galaxy-S-Serie ist wie gemacht für den Business-Einsatz. Mit jedem der drei edlen Handys hinterlassen Sie bei Ihren Geschäftspartnern einen seriösen, professionellen Eindruck. Gleichzeitig ermöglichen die Geräte es Ihnen, jederzeit und überall produktiv zu sein. Mit starker Performance, langer Akkulaufzeit, der innovativen Galaxy AI und einer rundum guten Ausstattung. Für die notwendige Sicherheit sorgen Samsung Knox und die vorbildliche langfristige Updateversorgung.
Zu welchem Modell Sie greifen sollten, hängt von Ihren persönlichen Vorlieben und Anforderungen ab. Galaxy S24 und S24+ sind sich sehr ähnlich, unterscheiden sich aber nicht nur durch ihre Größe. Das Plus-Modell hat darüber hinaus ein schärferes Display, mehr Arbeitsspeicher und etwas mehr Ausdauer. Als High-End-Modell ist das Galaxy S24 Ultra seinen Geschwistern in diversen Bereichen etwas überlegen. Größte Vorteile sind seine 200-Megapixel-Kamera, der mitgelieferte S Pen und der Snapdragon-8-Gen-3-Chipsatz.

Das Wichtigste zu den Samsung-Flaggschiffen in Kürze

  • Alle drei Smartphones sind sehr gute Business-Handys mit KI-Features (Galaxy AI), die Ihnen den Alltag erleichtern können.
  • Durch den sieben Jahre langen Update-Zeitraum sind die Geräte enorm zukunftssicher.
  • Samsung Knox schützt Ihre sensiblen Daten auf Hardware- und Software-Ebene.
  • Für Mobile Device Management gibt es die Samsung-Handys auch als Enterprise Edition.
  • Das Galaxy S24 ist das Standardmodell und punktet vor allem durch seine Handlichkeit.
  • Das S24+ hat das gleiche abgerundete Design wie das S24. Es bietet aber ein größeres, schärferes Display sowie mehr Ausdauer und Arbeitsspeicher.
  • Das kantige Galaxy S24 Ultra ist das High-End-Modell. Es sieht noch edler aus als die anderen S24-Modelle und ist dank Titanrahmen besonders robust. Ein besonderes Highlight ist seine 200-Megapixel-Vierfachkamera, die mit gleich zwei Teleobjektiven beeindruckt. Außerdem bietet das S24 Ultra das größte Display und den besten Chipsatz der Reihe.
  • Nur beim Galaxy S24 Ultra ist ein S Pen im Lieferumfang enthalten, der Sie auf dem Bildschirm schreiben, zeichnen und navigieren lässt.
  • Der maximale verfügbare Speicher variiert sich je nach Modell: Da Galaxy S24 ist mit maximal 256 Gigabyte erhältlich, das S24+ mit bis zu 512 Gigabyte und das S24 Ultra mit bis zu 1 Terabyte.

Quelle:

https://www.vodafone.de/business/blog/samsung-galaxy-s24-20474/