eMail-Migrationsprojekt


Hallo, zusammen

gerade habe ich im Blog des Arbeitskreis Maschinenbau des IT-Forum Bayern einen Artikel über ein eMail-Migrationsprojekt bei Weber Schraubautomaten in Wolfratshausen veröffentlicht. Immerhin unser größtes Zarafa-Projekt bislang, mit entsprechenden Herausforderungen 🙂

Das IT-Forum Bayern ist eine Diskussions- und Kooperations-Platform für IT-Dienstleister. Der Arbeitskreis Maschinenbau besteht aus Unternehmern, die sich auf Kunden im Bereich Maschinenbau spezialisiert haben und entsprechende Branchenkenntnis und Erfahrung mitbringen. Neue Mitglieder sind herzlich willkommen.

IT bleibt spannend,

Euer Christian

Vortrag zu Datenschutz und Datensicherung


Hallo, zusammen

letzte Woche durfte ich für die UWW (Unternehmervereinigung Wirtschaftsraum Wolfratshausen) einen Vortrag über Datenschutz und Datensicherung in Unternehmen halten. Thematisch war das für uns kein Problem, aber fast 30 Zuhörer in unserem Büro unterzubringen war eine erchte Herausforderung. Hierfür gebührt meinen Kollegen großer Dank, insbesondere Markus, Richard und Ingrid, die ihr Büro räumen mussten. Als kleine Entschädigung wurde das leere Büro gleich renoviert und farblich aufgepeppt 😉

Die Folien gibt es als PDF zum Download:  Datenschutz und Datensicherung

Und natürlich gab es anschließend noch ein leckeres Buffet und viel Zeit zum Diskutieren und Netzwerken.

IT bleibt spannend,
Euer Christian Eich

 

Backup made in Germany


Neue Partnerschaft mit Backup-Spezialist SEP.

Zwei aktuelle Projekte haben uns veranlasst, uns auf die Suche nach einen geeigneten Anbieter von Backup-Software zu machen, das am besten gleich für beide Projekte eingesetzt werden kann.
Anbieter sind ja bekanntlich zahlreich vorhanden.
Sehr wichtig für uns ist die Eignung für eine heterogene Server-Landschaft, denn wir und die meisten unserer Kunden betreiben Server mit den Betreibssystemen Windows und Linux.

Wir suchen im Enterprise-Segment, dort dünnt es schnell aus und einige bekannte „Platzhirschen“ bleiben übrig, wenn man Spreu vom Weizen getrennt hat. Sehr bekannt sind dabei Produkte von Symantec (Backup Exec), Hewlett-Packard  (Data Protector) oder Acronis (Backup & Recovery). Weniger bekannt ist allerdings die Firma SEP, die jedoch genau in diesem Enterprise Segment zuhause ist.

In der Juli – August Ausgabe der Fachzeitschrift ADMIN – Netzwerk & Security gibt es einen Artikel in dem alle genannten Hersteller, einschließlich SEP-Sesam, direkt gegenübergestellt und verglichen werden. Letzterer schneidet dabei u.a. beim Thema Unix und freier Software am besten ab.

Neben dem überdurchschnittlichen Feature-Reichtum sehen wir vor allem die ortliche Nähe der Firmenzentrale als Vorteil. Die SEP AG hat Ihren Sitz in Weyarn. Dort sind Entwicklung und Vertrieb zugange und man kann dort einfach anrufen und mit ihnen sprechen – wir praktizieren das ;-). Bei komplexen Konzeptionen oder Schulungen werden wir „einfach rüber fahren“ und nachfragen.

Als nächstes werden wir bei einem mittelständischen Maschinenbau-Betrieb ein neues Backup-System einführen, das auf SEP basieren wird. Wegen der heterogenen Infrastruktur mit Linux und Windows in hauptsächlich virtualisierter Umgebung ist die Wahl dabei auf SEP-Software gefallen.

IT bleibt spannend!

Viele Grüße

Hannes Wilhelm

Alternative zu PuTTY


Immer das selbe Problem: man sitzt vor einem Windows-Rechner und möchte einen Linux-Server administrieren. Soweit zwar ein ganz normaler Vorgang, aber in Ermangelung einer ssh-fähigen Konsole auf der Windowsseite bleibt einem kaum eine Alternative zum bekannten Terminalprogramm namens PuTTY, um auf Unix-Systeme zu gelangen. Natürlich ist nichts gegen den guten alten Putty einzuwenden, aber trotzdem kann es ziemlich nervig werden wenn man ihn täglich benutzen muss, weil er nicht gerade ein Übermaß an Komfort bietet.

Es gibt eine Alternative namens mRemote.
http://www.mremote.org/

mRemote ist ein freies (GPL) Windows-Programm, das eine Vielzahl an Verbindungsprotokollen beherrscht:
RDP, VNC, SSH, Telnet, Rlogin, HTTP, ICA, externe Applikation  etc…

Linux Konsole

Für die tatsächliche Verbindung verwendet mRemote vorhandene Programme und Bibliotheken.

So kommt im Falle von SSH – ratet mal – PuTTY zum Einsatz! 🙂

Wir ersetzen also PuTTY durch PuTTY und alles wird gut …

Aber wo ist denn da der Vorteil von mRemote?
Beim mRemote kann man für jede eingerichtete Verbindung Daten hinterlegen wie z.B. Logindaten und Fenstergrößen etc.
Außerdem erscheint eine gemeinsame Liste aller eingerichteten Host-Verbindungen, unabhängig von deren Verbindungstyp. Alle Verbindungen können dann per Klick und ohne manuelle Eingabe von Authentifizierungdaten, geöffnet werden. Die offenen Verbindungen stehen in Tabs zur Verfügung und lassen sich somit wesentlich komfortabler bedienen, vor allem  wenn man bei der Arbeit gerne mehrere Fenster gleichzeitig geöffnet hat. Sehr praktisch ist das.

Windows RDP

Sowohl Installation, als auch Bedienung sind einfach, daher kann man dieses Tool in einer geeigneten Sekunde mal schnell runterladen und testen.

Viele Grüße
Hannes

IT bleibt spannend!

Der Marktplatz Internet hat keinen Ladenschluss … ??


Diese Erkenntnis entstammt einem für uns wahrhaft „historischen Dokument“.  🙂 Wir haben es im Zuge von Aufräumarbeiten in unserem Papier-Archiv gefunden und gerettet.
Es handelt sich um einen der ersten WorNet Flyer.  Unsere „Ältesten“ haben dieses Dokument auf etwa 1996 datiert, als WorNet seinen Sitz noch in Christian Eichs kleiner Wohnung unterm Dach hatte. Mit einer Hand voll ISDN-Router und Modems, sowie ein paar Servern älteren Semesters war WorNet damals einer der ersten Internet-Provider hierzulande. Denn die „Großen“ hatten damals noch kein Interesse an dieser „Guru-Technik“ und so musste/durfte man sich das Internet noch selbst „holen“, wenn man eines haben wollte.

„WorNet betreibt Ihren ‚Stand‘ im Internet“

Kaum zu glauben, dass man vor gerade mal 15 Jahren Begriffe wie „Internet“ und „Webseite“ noch mit „Marktplatz“ bzw. „Stand“ umschreiben musste, um verstanden zu werden.

Der abgebildete  alte Netscape-Browser hat überdies mehr von einer Steintafel, denn von einem High-Tech Programm:

Internet Nostalgie mit Web 0.0

Antike Texte dieser Art zeigen die rasante Entwicklung in der IT!
…  oder einfach nur,  dass wir schnell alt werden … ??

Wir sind auf jeden Fall stolz darauf von Anfang an dabei gewesen zu sein!

In diesem Sinne, viele Grüße vom Hannes Wilhelm.

IT bleibt rasant!

iSCSI performance tuning: 380 MB/s within a VM with openfiler and ESXi


Hi, folks

There is a large gap between entry level Storage appliances like QNAP, Thecus or Buffalo and „large“ SAN-Storages regarding performance, features and very much the price. We have found a solution to fill this gap for our datacenter. Using open source of course!

unsere TestumgebungFor quite a while we have been using Openfiler, a linux-based storage software. However, we were not content with the performance being just a notch above the entry level storages, despite the decent server hardware used. An ESXi cluster waiting for roll out was just the opportunity we needed to tune up I/O performance. So we hit the lab and found out, that the order of tuning steps was crucial to find the right configuration.

Our test bed:

  • 1 ESXi 4.1 server (Fujitsu RX 200 S6, 8 Cores 2,4 GHz, 48 GB RAM, 6 x GBit-NICs Intel)
  • 1 Openfiler 2.3 (Supermicro 8 Cores 2,0 GHz, 8 GB RAM, 3ware 9650SE 8 Ports, 6 x GBit-NICs Intel, 8 disk drives 2 TB SATA 7200U/min)
  • 1 switch Cisco Catalyst 2960S (24 port GBit)

We used four GBit NICs on either side for four iSCSI-VLANs with different IP address ranges. The NICs have to be assigned to the iSCSI software initiator to address all paths. We created an iSCSI volume in Openfiler, connected and formatted it in ESXi using VMFS 4 file system. Paths selection was configured „round robin“.

virtual machine for benchmarking:

We crated a VM with 1 CPU, 2 GB RAM and a harddisk of 15 GB + twice the size of the storage server’s RAM and installed Windows 7. Then we installed IOMETER and a standardized configuration from the VMware forums. This way your results can be compared with other forum posts.

1st step: Where do we start

First we measure the performance of the unoptimized system. The size of the test file we use is smaller than the storage server’s RAM. So any read and written data comes from the cache and we measure only the iSCSI connection.

Latency (ms) IO/s MB/s
Max Throughput-100%Read 14,6 4096,1 128,0
RealLife-60%Rand-65%Read 412,3 141,4 1,1
Max Throughput-50%Read 13,4 4302,2 134,4
Random-8k-70%Read 546,1 107,6 0,8

Not impressive, is it? Accessing the disks locally yields 420 MB/s! What a performance loss in the way to the VM.

2nd step: iSCSI path optimization

Next thing to do is tuning all parameters associated with the iSCSI paths. It is okay in this step to use unsafe settings (e.b. enabling a write buffer without having a BBU). The test file still is smaller than the storage server’s RAM, because we want to measure the iSCSI connection’s speed.

Things to look at:

  • Parameters of the network interface card (jumbo frames, TCP-offload)
  • iSCSI parameter (round-robin parameter)
  • RAID pontroller (enable write-cache)

The boost in performance was obvious:

Latency (ms) IO/s MB/s
Max Throughput-100%Read 4,69 12624,71 394,52
RealLife-60%Rand-65%Read 318,66 181,52 1,42
Max Throughput-50%Read 8,08 7030,93 219,72
Random-8k-70%Read 369,51 150,26 1,17

This is close the theoretical limit.Leistungsanzeige der iSCSI-Pfade bei sequentiellem Zugriff

Beware: Don’t continue if you’re not satisfied. From now on it’s getting worse!

Watching the load of iSCSI paths in vSphere client should give a equal share of traffic over all paths.

Things we stumbled upon:

  • bad jumbo frame configuration. Test it with ping using large packets and „dont fragment“-bit set. Our switch needed a „set mtu jumbo 9000“
  • VMwares „round robin“ algorithm switches paths only every 1000 IO ops. You have to use „esxcli“ to change that.

3rd step: optimizing storage parameters

Now we set up everything to safe values for the production environment. The IOMETER testfile is twice as big as the storage server’s RAM. Caution: Size is given in blocks of 512 bytes.

We compared different RAID levels (getting practice in online RAID migration while doing so) and different number of disk drives.

Raid-10 with 4 disks: 2 TB (SATA, 7200 U/min):

Latency (ms) IO/s MB/s
Max Throughput-100%Read 4,93 12089,4 377,79
RealLife-60%Rand-65%Read 333,02 171,66 1,34
Max Throughput-50%Read 8,15 6857,19 214,29
Random-8k-70%Read 454,2 129,76 1,01

Raid-10 with 8 disks:

Latency (ms) IO/s MB/s
Max Throughput-100%Read 4,8 12331,0 385,3
RealLife-60%Rand-65%Read 443,6 138,0 1,1
Max Throughput-50%Read 9,1 6305,3 197,0
Random-8k-70%Read 504,0 121,4 0,9

Increasing the number of spindles didn’t improve performance, although we expected better IOPS. So it would be better to use two independent datastores with 4 drives each.

Using RAID-6 with 8 drives gave worse IOPS.

Summary:

Almost 400 MB/s and >10.000 IOPS makes us very happy. Our x86 server with Openfiler (about $5.500) closes the gap between inexpensive entry level storage appliances ($1.500 Euro for 70 MB/s and2.000 IOPS) and large SAN storages for $15k+.

Further IOPS and latency improvement could be achieved using more and better drives (SSD, SAS). We haven’t tried storage replication yet, but we read reports about users successfully implementing „drbd“ .

 

IT bleibt spannend,

Christian Eich

This article is based on research by Christian Eich, Richard Schunn and Toni Eimansberger.
Author: Christian Eich

iSCSI-Performance-Optimierung: 380 MB/s in der VM mit openfiler und ESXi


Hallo, zusammen

(english version)

Zwischen den günstigen iSCSI-Storage-Appliances (QNAP, Thecus, Buffalo, Cisco SMB und Co.) und den „großen“ Storages aus der Fiberchannel-Welt klafft eine große Lücke, sowohl in der Performance, der Features aber insbesondere im Preis. Im WorNet-Labor haben wir eine überzeugende Lösung gefunden, die diese Lücke überbrückt. Natürlich mit OpenSouce-Mitteln!

unsere TestumgebungSchon lange setzen wir den auf Linux basierenden Openfiler für unsere iSCSI-Storage-Server ein. Allerdings waren wir mit der Performance nicht so recht zufrieden. Selbst mit leistungsfähiger Hardware kommt verglichen mit günstigen Appliances (in unserem Fall von QNAP) in den virtuellen Maschinen nur wenig mehr I/O-Leistung an. Die Testphase unseres neuen ESX-Clusters kam uns da sehr gelegen um systematisch an der Performance-Schraube zu drehen.

Hier hat sich ein optimales Vorgehen bei der Optimierung herauskristallisiert, bei dem die Reihenfolge der Optimierungsschritte  entscheidend ist.

Unsere Testumgebung:

  • 1 ESXi 4.1 Server (Fujitsu RX 200 S6, 8 Cores 2,4 GHz, 48 GB RAM, 6 x GBit-Netzwerk Intel)
  • 1 Openfiler 2.3 (Supermicro 8 Cores 2,0 GHz, 8 GB RAM, 3ware 9650SE 8 Ports, 6 x GBit-Netzwerk Intel, 8 Festplatten 2 TB SATA 7200U/min)
  • 1 Switch Cisco Catalyst 2960S (24 Port GBit)

Je 4 GBit Interfaces werden für iSCSI genutzt. Dabei werden 4 VLANs mit verschiedenen IP-Bereichen definiert. Die Interfaces müssen dem iSCSI-HBA zugeordnet werden bevor die Ziele sichtbar werden.  Dann wird ein Volume mit VMFS formatiert und man erhält einen Datastore mit dem man die Tests durchführen kann. Die Verwendung der Pfade wird auf „Round Robin“ konfiguriert.

virtuelle Testmaschine:

Wir haben eine virtuelle Maschine mit 1 vCPU, 2 GB RAM mit Windows 7 installiert. Die Größe der virtuellen Festplatte sollte mindestens 15 GB + 2 * RAM des Storageservers betragen. Zusätzlich wird IOMETER und ein standardisiertes Konfigurationsfile aus dem VMware-Forum installiert. Mit diesem Test erhält man Werte die mit den Ergebnissen anderer Forumsbeiträge vergleichbar sind.

1. Schritt: Ausgangssituation

Zunächst messen wir die Performance des nicht-optimierten Systems. Dabei wählen wir die Größe des Testfiles bewusst kleiner als der Arbeitsspeicher des Storage-Servers, d.h. wir messen zwar die iSCSI-Anbindung, nicht aber das Festplattensystem.

Latency (ms) IO/s MB/s
Max Throughput-100%Read 14,6 4096,1 128,0
RealLife-60%Rand-65%Read 412,3 141,4 1,1
Max Throughput-50%Read 13,4 4302,2 134,4
Random-8k-70%Read 546,1 107,6 0,8

Für 4 GBit Speicheranbindung ist das nicht gerade beeindruckend. Das RAID-System des Storage-Servers liefert lokal im Openfiler gemessen 420 MB/s!

2. Schritt: Optimierung der iSCSI-Speicheranbindung

Jetzt optimiert aggressiv man alle Parameter, die die Speicheranbindung betreffen. Dabei ist es in Ordnung, wenn unsichere Einstellungen (z.B. Write-Cache im RAID-Controller ohne vorhandene BBU) gewählt werden. Auch wählt man die Größe der Testdatei in IOMETER kleiner als den RAM des Storage-Systems, denn wir wollen möglichst wenig Einflüsse der Platten und statt dessen nur den Weg von der virtuellen Maschine bis zum iSCSI-Daemon im Storage-System testen.

Insbesondere konfiguriert man:

  • Netzwerkkartenparameter (Jumbo Frames, TCP-Offload)
  • iSCSI-Parameter (Round-Robin-Parameter)
  • RAID-Controller (Write-Cache einschalten)

Bei uns machte sich das deutlich bemerkbar:

Latency (ms) IO/s MB/s
Max Throughput-100%Read 4,69 12624,71 394,52
RealLife-60%Rand-65%Read 318,66 181,52 1,42
Max Throughput-50%Read 8,08 7030,93 219,72
Random-8k-70%Read 369,51 150,26 1,17

Damit sind wir sehr nahe am theoretischen Maximum (4 GBit entspricht ca. 440 MB/s inkl. iSCSI-Overhead).Leistungsanzeige der iSCSI-Pfade bei sequentiellem Zugriff

Wichtig: Machen sie nicht weiter wenn Sie mit diesen Werten nicht 100%ig zufrieden sind. Ab hier wird es wieder schlechter!

Wenn man im vShpere-Client unter Leistung die Nutzung der iSCSI-Pfade bei sequentiellem Zugriff ansieht müssen die Pfade gleichmäßig mit je 1 GBit ausgelastet sein (Bild rechts).

Stolperfallen in unserem Test:

  • fehlerhafte Jumbo-Frame-Konfiguration (Test: Ping mit großen Paketen und Dont-Fragment-Bit), hierbei auch an den Switch (Cisco 2960S: „set mtu jumbo 9000“) denken!
  • Der Round-Robin-Algorithmus bei ESXi wechselt den Pfad im default nur nach 1000 IO-Operationen. Das muss man mit einem esxcli-Befehl umstellen.

3. Schritt: Optimierung der Storageparameter

Jetzt stellt man sinnvolle Werte für den Produktivbetrieb ein und  erhöht die Größe des Testfiles für IOMETER auf das doppelte des RAM des Storageservers. Aufpassen die „Maximum Disk Size“ wird in Blocks angegeben, ein Block hat 512 Bytes.

In unserem Fall haben wir nun verschiedene Raid-Level und Spindelzahlen verglichen.

Raid-10 mit 4 Platten zu je 2 TB (SATA, 7200 U/min):

Latency (ms) IO/s MB/s
Max Throughput-100%Read 4,93 12089,4 377,79
RealLife-60%Rand-65%Read 333,02 171,66 1,34
Max Throughput-50%Read 8,15 6857,19 214,29
Random-8k-70%Read 454,2 129,76 1,01

Raid-10 mit 8 Platten:

Latency (ms) IO/s MB/s
Max Throughput-100%Read 4,8 12331,0 385,3
RealLife-60%Rand-65%Read 443,6 138,0 1,1
Max Throughput-50%Read 9,1 6305,3 197,0
Random-8k-70%Read 504,0 121,4 0,9

Die Erhöhung der Anzahl der Festplatten von 4 auf 8 bei RAID-10 hat sich erstaunlicherweise nicht signifikant ausgewirkt. Da ist besser zwei unabhängige Datastores mit je 4 Platten anzulegen.

Ein Test mit einem RAID-6 aus 8 Festplatten ergab noch schlechtere Werte, insbesondere beim Random-Zugriff.

Fazit:

Mit knapp 400 MB/s und >10.000 IOPS sind wir absolut glücklich. Unser x86-Server mit Openfiler (ca. 4.000 Euro) schließt die Lücke zwischen den „kleinen“ (ca. 1.000 Euro und 70 MB/s und 2.000 IOPS) und den „großen“ jenseits der 10 k€.

Eine weitere Verbesserung der IOPS oder Latenzen ist mit schnelleren Festplatten, SSDs oder SAS-Platten sicher realisierbar. Eine Storage-Replikation ist mit „drbd“ machbar, wurde aber in diesem Test nicht untersucht.

Dieser Artikel basiert auf den Testreihen und Erfahrungen von Christian Eich, Richard Schunn und Toni Eimansberger.

IT bleibt spannend,

Christian Eich

G wie Groupware und Giraffe


Was haben Giraffen mit Groupware-Systemen gemein?

Der „Vernetzte Welt Cast“ verrät es!

Es war einmal  in einem Land vor unserer Zeit – das übrigens heute Sudan heißt – ein Vize-König namens Muhammad Ali Pascha. Dieser wollte seinem Freund, dem Karl X, seines Zeichens König von Frankreich, eine Freude bereiten und ließ eine junge Giraffe einfangen und nach Europa bringen. Dort wurde sie von ihrem glücklichen Besitzer in Empfang genommen und nach dem arabischen Wort für Giraffe benannt:  „Zarafa“.

Zarafa lebte in Paris ein erfülltes Leben und starb mit 20 Jahren an Altersschwäche.  Das war damals im Januar 1845.

Gut 150 Jahre später waren ein paar Holländer von der gängigen Groupware von Microsoft derart genervt, dass sie kurzerhand beschlossen, eine Alternative dazu zu entwickelten. Diese Software ist heute eine ausgewachsene, fullfeatured Enterprise-Lösung für MAPI-basierte Groupware-Systeme und auch bekanntermaßen eine der wenigen, die problemlos einen Exchangeserver ersetzen kann.
Wie die Entwickler allerdings auf den Namen „Zarafa“  für Ihr Projekt gekommen sind, weiß kein Mensch.

Was wir an Zarafa mögen:

  • Lizenzierung ist ca. halb so teuer wie bei MS Exchange, bei sehr ähnlichem Funktionsumfang.
  • Zarafa ist Leistungsfähiger als Exchange und sehr gut skalierbar.
  • Zarafa ist ein offenes System, das auf Basis gängiger opensource Software entwickelt wird.
  • Es läuft auf Linux.

Deshalb ist WorNet jetzt „Certified Zarafa Partner“ und hilft aktiv mit beim Suchen und Ersetzen von geeigneten Exchangeservern.
Wir nehmen gerne jeden Hinweis entgegen.

Was ein Zarafa-Server alles außerdem noch kann, erfährt man am besten auf der Zarafa-Webseite.

IT bleibt spannend!
Hannes Wilhelm

Teambildung


Vorher

Vorher

Wie kann man in einem kleinem Unternehmen am besten Kooperationsbereitschaft und Teamgeist fördern, um Wohlfühlfaktor und Arbeitseffizienz des Teams zu steigern? Und das ohne dabei ein Vermögen zu investieren oder seine Mitarbeiter zu den üblichen und albernen Pseudo-Team-Kasperl Veranstaltungen zu verdonnern?

WorNet hat da einen ganz neuen Ansatz entwickelt:
Gemeinsam das eigene Büro renovieren!

Zehn Jahre nach dem Bezug der Büroräume war ein Lifting ohnehin längst fällig! Außerdem sollte die bisher eher unauffällige Gestaltung der Räumlichkeiten ein wenig mehr Pepp erhalten.

Nach einem gemeinsamen Brainstorming im Kickoff-Meeting haben wir einen Weißel-Projektplan erstellt und im Anschluß bei der BayWa die nötigen Betriebsmittel beschafft. Während der nächsten Wochen wurden Leerlaufzeiten konsequent genutzt, um die Arbeitsumgebung einzuhübschen. Alle Mitarbeiter haben sich (freiwillig) beteiligt – vom Boss bis zum Azubi.

 

Es funktioniert: Bürorenovierung als Teamevent!

Nachher

Nachher

 
Wir sind jetzt deutlich glücklicher als vorher und haben außerdem ein schöneres Büro!
🙂

 

Wir freuen uns auf Euren Besuch.

Handwerk bleibt spannend!

 

Viele Grüße
Euer Team WorNet

Die perfekte eMail-Archivierung


Wie bereits im letzten Artikel über rechtssichere eMail-Archivierung angedeutet, ist derzeit eines unserer erklärten Ziele, in unser eMail-Filtersystem SecuMail eine Archivierungsfunktion einzubauen. Jetzt haben wir die Lösung vor Augen..

Aufgrund der bestehenden rechtlichen Anforderungen, sowie vieler Kundennachfragen, möchten wir möglichst bald diesen Dienst zur Verfügung stellen und haben bereits einige Energie in die Suche nach der passenden Technik und Ausrichtung investiert.

Unsere ambitionierten Pläne sehen folgende Funktionen vor:

  • echte Rechtssicherheit (zertifiziert)
  • eMail-Signierung
  • beliebig lange Aufbewahrungsdauer
  • MX-basierte Zustellung oder durch Fetchmail/pop3-Connector
  • Volltextsuche und Versand direkt aus dem Archiv
  • Benutzerverwaltung
  • Synchronisierung mit Active Directory
  • im Outlook integriertes Benutzerfrontend für Suche und Versand

Make or buy?

Eine Überlegung, die wir immer gerne anstellen.

Zwar könnten wir unsere eMail-Server wohl problemlos so konfigurieren, dass sie jede eMail zusätzlich auf einen der zahlreichen Storageserver schieben würden. Das nötige Webfrontend wäre ebenfalls machbar.
Ein eMail-Archivierungs-System nach unseren Vorstellungen und denen der Gesetzgebung, ist jedoch wesentlich mehr  als lediglich die zusätzliche Ablage von eMails auf einer weiteren Festplatte. Rechtssichere eMail-Archivierung bedingt u.a. verbriefte Unveränderbarkeit. Außerdem möchte man auf das ein oder andere Feature aus Gründen der Benutzbarkeit nicht verzichten.
Also „Buy“. Aber welcher Anbieter ist der richtige?
Firmen, die eMail-Archivierung anbieten, gibt es in Deutschland wie Sand am Meer. Ein Großteil derer sind allerdings bei genauerer Betrachtung unbrauchbar, weil sie es zum Beispiel mit der geforderten Signierung nicht so ernst nehmen. Andere erweisen sich als unpraktische eMail-Gräber, welche, abgesehen von der Rechtssicherheit, wirklich keinerlei praktischen Nutzen mitbringen.
Unsere Meinung dazu: wenn wir uns mit dem Thema befassen, dann schon ordentlich. Wir möchten unseren Kunden einen Dienst anbieten, der nicht nur auf dem Papier einen Vorteil bringt!

Bisher war keine einzige der Software-Lösungen, die wir uns genauer angesehen haben, für den mandantenfähigen Betrieb für Service-Provider wie uns, tauglich.
Um trotzdem zu unserer favorisierten Lösung zu kommen, arbeiten wir derzeit mit einem unserer Partner, der Firma Com2 zusammen. Die Kollegen von Com2 bieten seit einigen Jahren eine Archivierungs-Appliance an, die ziemlich genau umsetzt, was wir uns vorgestellt haben, wenn auch derzeit noch ohne Mandantenfähigkeit. Damit wir unseren Kunden möglichst bald eine Archivierungslösung anbieten können, müssen noch also einige Features implementiert werden. „Wir haben großes Interesse daran, unser Produkt auch bei Service-Providern wie WorNet zum Einsatz zu bringen!“ so Herr Kleiböhmer, Geschäftsführer der com2 Communications & Security GmbH.


Einfache integration des Benutzermoduls in Outlook

Laut Anforderungsanalyse und Kundenfeedback gibt es im Wesentlichen zwei Anwendungsszenarien:

1. Die eigene email-Infrastruktur wird soweit belassen und nur die Archivierung zuschaltet, damit man vor dem „Gesetz“ nicht mit „heruntergelassenen Hosen“da steht.

2. Zusätzlich zum Erfüllen der rechtlichen Gebote, kann man auch einen Zusatz-Nutzen gewinnen indem das Archiv als Teil der eigenen Infrastruktur für eMail genutzt wird. Dies kann über das frei zugängliche Webfrontend oder, wenn MS Outlook eingesetzt wird, mittels eines kleinen Plugin realisiert werden, über das jeder Benutzerauf alle archiverten und voll indizierten eMails (lesend) zugreifen und ggf. wiederherstellen kann. Dadurch könnten die lokalen eMailpostfächer stark verkleinert werden. Denkbar z.B. wäre auch, lokale eMail generell nach einigen Monaten vom Server zu löschen. Kapazität wäre dann kein Thema mehr.

Beides wird mit der SecuMail-Archivierung möglich sein. Selbstverständlich wird das Archivierungs-Paket auch ohne Spamfilter zu haben sein.
Sprechen Sie mit uns!

Mehr Information zur SecuMail Onlinearchivierung

IT bleibt spannend!

Hannes Wilhelm