Alle Beiträge von

Jürgen Jakob

Administratoralltag: Möglich ohne Passwort-Manager?

By IT Security Blog

Wir bei Jakobsoftware nutzen Sticky Password. Nicht nur für die Administration, sondern für alle Mitarbeiter.

Dies ist insbesondere deshalb sinnvoll, da es heutzutage deutlich mehr zu verwalten gibt als etwa einen einzelnen Domänen-Account. Die Anzahl an verwendeten Accounts steigt permanent. Zu lokalen Administrator-Zugängen – Domain-Admin, Backup-Admin und weiteren Verwaltungs­zu­gängen – kommen inzwischen unzählige Cloud-Accounts sowie Hardware-Logins für Firewalls und ähnliche Geräte. Dies oftmals nicht nur für das eigene Unternehmen, sondern insbesondere als Händler natürlich noch für die Kunden. Die für uns korrekte Lösung dazu lautet, hierfür auf Passwort-Manager zu setzen, die die zahlreichen Zugänge für einen verwalten. Und gleich auch sichere Passwörter dafür automatisch erstellen können.

In Sticky Password können Kennworte vom Account-Inhaber mit autorisierten Mitarbeitern geteilt werden. Das erweist sich als sehr praktisch, wenn der Hauptadminis­trator mal nicht zugegen ist und der einspringende Ersatz­administrator dann auf Ereignisse reagieren muss. Damit lässt sich auch eine flexible Teamlösung abbilden. Durch die Unterstützung von iOS und Android kann manche Aufgabe sogar mobil unterwegs erledigt werden.

Für private Anwendungsfälle ist ein Passwort-Manager wie Sticky Password ebenfalls eine gute Idee. Hier gibt es Zugänge zu online-Konten wie Bank, Fotosammlung und vieles mehr gut abzusichern. Ein weiteres aktuelles Beispiel ist der deutsche Programmierer, der zwar Bitcoins in Höhe von 200 Millionen Euro besitzt, jedoch das Passwort für seine Börse vergessen hat und daher darauf nicht mehr zugreifen kann. Ein ordentlicher Passwortmanager muss inzwischen als essenziell gelten. Getreu dem alten Loriot’schen Sprichwort: „Ein Leben ohne Mops ist möglich, aber sinnlos.“

Beitragsbild: © canjoena – Fotolia.com

Backup: Festplattenimages statt reiner Datensicherung

By IT Security Blog

Images eines Computers sind ein aktuelles Thema. Ursprünglich konnte man sich auf eine umfängliche Datensicherung beschränken. Das Betriebssystem und die Bearbeitungsprogramme waren doch recht schnell und einfach neu zu installieren. Aber Immer mehr Personalisierungen und Einstellungen in den Programmen, erforderten an dieser Stelle einen neuen Arbeitsschritt: Die Wiederherstellung der persönlichen Konfigurationen. Diese Einstellungen waren aber gut im Dateisystem verteilt und so musste die reine Datensicherung einer kompletten Plattensicherung weichen. Das Image entstand.

Wir können uns das Image grundlegend aus zwei Blickrichtungen betrachten: Die sehr technische Ebene erstellt ein komplettes physikalisches Abbild einer Festplatte. Wenn man so will, wird die Festplatte Bit für Bit auf ein Sicherungsmedium übertragen. Da kommt man zu einer „echten“ 1-1- Kopie. Sollte eine Festplatte zerstört sein, erhält man mit diesem Verfahren den Ursprung zurück. Anpassungen an Partitionen etc. sind so nicht möglich. Die andere Herangehensweise sichert Datei für Datei, ob sichtbar oder nicht. Ich kann praktisch dann die Daten auf eine beliebige neue Platte einspielen – vorausgesetzt, die Partition ist groß genug. Damit kommen wir zu einer weiteren Metainformation, die wir sichern müssen: Die Partitionsdaten der ursprünglichen Platte. Sollte man eine neue Platte einrichten müssen, dann sind diese Informationen essentiell. Wir dürfen aber auch nicht vergessen, dass gerade in Netzwerken, auf Dateiservern, die Dateien mit Benutzern und Benutzerrechten verknüpft sind. Noch eine weitere Kategorie von Metadaten. Weiterlesen

Software-Migration: Umziehen oder neu einrichten?

Software-Migration: Umziehen oder neu einrichten?

By IT Security Blog

Ob nun von einer Lösung auf eine ganz andere gewechselt werden soll, oder ob nun eine neue Version einer Lösung mit grundlegenden Änderungen ansteht, wir stehen vor dem Thema Migration: Dem Wechsel von einer Lösung auf die andere. Wechselt man von Navision auf SAP ist ja klar, dass sehr viel Arbeit vor einem liegt. Alleine die Datenextraktion aus dem alten System und das Einspielen in das neue System stellt eine ungeheure Aufgabe dar. Eine Aufgabe, welche jedem Nutzer auch einleuchtet. Mit der verstärkten Nutzung von CRM-Systemen wird das immer mehr in den Vordergrund rücken.

Aber wie sieht es bei anderen Migrationsaufgaben aus? Sobald eine neue Version eines Programmes eine grundlegend andere Funktionsweise einführt, etwa, wie die Firewall-Komponente einer Antivirenlösung in der neuen Version eingestellt wird, haben wir auch das Thema: Die alte Konfiguration auslesen, übersetzen und in die neue Version einspielen. Gerade bei einer Migration einer Virenschutzlösung wird der Aufwand für solche Aufgaben gerne übersehen. Selbst wenn ich alte Konfigurationen auslesen kann, wie wird das auf die neue Konfiguration übertragen? Ist das überhaupt möglich? Sprachübersetzungen können uns vielleicht eine etwas verständlicheren Einblick bieten. Die Eskimos haben mehrere dutzend Begriffe von Weis, die Briten dutzende Variationen zum Thema Nebel und so weiter. Wie übersetzt man den speziellen englischen Begriff Nebel in das Deutsche, welches diesbezüglich eher einfacher gestrickt ist, ohne die Bedeutung zu verlieren?

Wir können, gerade am Beispiel Firewall, aber auch einen anderen Gedanken zu lassen. Wir gehen wir mit digitalem Messitum um? Viele Sonderregeln, Ausnahmen et cetera werden im Laufe der Zeit erstellt und sind möglicherweise gar nicht mehr aktuell. Oder auch, die neue Firewall kann ein Thema mit einer Regel besser und umfassender abbilden, als die Vielzahl der gewachsenen Regeln der alten. Ist es also wirklich sinnvoll, den Müll der Vergangenheit einfach in die Zukunft zu übertragen? Begraben wir die effektiveren Methoden der neuen Lösung nicht dadurch, dass wir das alte System überstülpen? Das kann man sich übrigens ganz generell auch selbst im Allgemeinen fragen.

Und ich sehe noch einen dritten Aspekt: Alte Einstellungen und neue Regeln und Methoden erfordern im Kern den Test von Milliarden Kombinationen auf Unverträglichkeit. Und wir wissen aus Erfahrung, dass der Kunden letztendlich gar nicht denkbare Einstellungen vornimmt. Zugegeben: Bisweilen sind das gelegentlich auch offiziell nicht unterstützte Workarounds. Aber oft genug wird versucht, eine Lösung so zu verbiegen, dass eine Idee damit realisierbar ist, welche die Lösung so gar nicht vertritt. Welche Quereffekte dann auftreten, lässt sich kaum abschätzen.

Vielleicht sollten wir uns in vielen Bereichen einmal von dem Gedanken verabschieden, dass alles automatisch „besser“ wird. Nutzen wir die neuen Möglichkeiten aktiv. Misten wir unsere Altlasten aus. Bringen wir uns in gute Laune, weil eine Neuinstallation und Neukonfiguration so viel einfacher und übersichtlicher zu bewerkstelligen ist als die Suche nach den Haken bei der Migration. Für Dienstleister und Kunden werden die Migrationen dann auch viel besser planbar. Arbeit bleibt es in jedem Fall.

© duncanandison – Fotolia.com

Backups und deren Zeitbedarf

By IT Security Blog

Viele Sicherheitsanwendungen müssen immer in Echtzeit im Hintergrund laufen. Da machen wir uns wenig Gedanken über die Zeit, welche dafür aufgewendet werden. Aber wenn wir uns dem wichtigen Baustein Backup nähern, dann wird Zeit zu einem ganz zentralen Aspekt.

Ein Backup ist sicherlich primär von der Datenmenge abhängig, die zu sichern ist. In der Regel denken wir auch an Programme, die dabei „schnell“ sind. Generell denken wir auch noch an schnellere Festplatten, größere CPUs, mehr Arbeitsspeicher. Aber Backups haben auch noch andere Stellschrauben. So ist das Ziel wichtig. Hier sehen wir uns als Ziel den Speicherort an, auf den wir das Backup ablegen wollen. Ziemlich offensichtlich ist die Ablage eines Backups auf derselben Platte, auf der die Daten liegen nicht optimal, gerade im Hinblick auf die Hardwaresicherheit keine gute Idee. Aber: Dieses Ziel hat vermutlich den schnellsten Durchsatz in der Bearbeitung. Wenn wir als Ziel ein klassisches Netzwerklaufwerk in einem Windows-Netzwerk nehmen, wird die Dauer, welche ein Backup benötigt, steigen. Nehmen wir kleine NAS-Systeme, die für eine Arztpraxis im Umfang ausreichen würden, kann das Speichern auf diesen Systemen viel Zeit erfordern. Hochgeschwindigkeit-SAN Lösungen hingegen sind in diesen Fällen eher übergroß und auch zu teuer. So gesehen: Was spricht dagegen, das Backup lokal auszuführen und dann auf einen Speicherort im Netzwerk zu transferieren? Übrigens: Auch ein Gigabit-Glasfaseranschluss kann den Speicherort im Internet nicht beliebig schnell machen. Letztlich kommt es darauf an, ob der Speicherort im Rechenzentrum für diese Operation ausgelegt ist. In der Regel sind Webserver eher für schnelle Downloads konzipiert. Weiterlesen