Eine zeitgemäße Lagerverwaltung benötigt auf Seiten der IT mehr als nur ein stabil laufendes Warehouse-Management-System. Was bietet TUP (TUP) dem Kunden hinsichtlich der passenden IT-Infrastruktur an? Auf was darf er sich freuen beziehungsweise, auf was kann er sich verlassen?

Ulrich Sommer, Leiter der TUP-IT-Abteilung, im Gespräch.

Unsere Aufgabe besteht nicht nur darin, dem Kunden ein performantes Produktiv-System zu präsentieren beziehungsweise zu liefern. Vielmehr kommen heutzutage unzählige Zusatzsysteme zur jeweiligen Systemlandschaft hinzu, die etwa der Weiterentwicklung, Qualitätssicherung und als Testumgebung dienen. Diese Randsysteme sind allerdings im Vorfeld nicht Bestandteil der groben IT-Planung und meist im Umfang größer und damit leistungsfähiger als beispielsweise das eigentliche produktive Hauptsystem. Neben der baulichen Kapazität (Platzmangel) rücken unweigerlich Speicherkapazität, Hauptspeicher und CPU in den Fokus der IT-Planung.Wir gehen bei der Planung immer von zwei möglichen Szenarien aus: Entweder der Kunde hat vor Ort bereits eine funktionale IT-Infrastruktur im Einsatz, oder wir sprechen eine Gesamtsystemempfehlung aus, die im Anschluss auch von uns geplant und umgesetzt wird. Besteht bereits eine Systemlandschaft beim Kunden und soll TUP-seitig nur angedockt werden, prüfen wir die vor Ort installierte Hard- und Software und wählen daraufhin passendes Equipment aus.

Geht es um eine Gesamtempfehlung, wird diese von einem TUP-internen Team aus Spezialisten komplett selbst abgewickelt. Der Vorteil für den Kunden: Es gibt einen kompetenten Ansprechpartner, der das installierte System bis ins kleinste Detail kennt. Ein weiterer Vorteil ist dabei unsere Vorgehensweise. Wir bauen die geplanten Systeme bei uns im Haus vorher auf und bereiten alles im Testumfeld auf die bevorstehenden Aufgaben beim Kunden vor. Alle in unserer Verantwortung stehenden Elemente des Kundensystems werden vorab von uns sprichwörtlich auf Herz und Niere geprüft – erst wenn der einwandfreie Betrieb garantiert werden kann, installieren wir die bestellte Hard- und Software beim Kunden. Dafür emulieren wir die gesamte Systemstruktur des Kunden samt Netzwerk und führen einen sogenannten ‚Burn In’ an der Systemlandschaft durch. Das System wird also komplett bei uns im Haus aufgebaut, gestartet und auf eventuelle Fehler getestet. Böse Überraschungen, wie etwa Hardwareausfälle beim Kunden, können wir so besser ausschließen. Der Kunde bekommt am Ende ein sauberes und zu 100 Prozent funktionierendes, hochverfügbares Cluster.

Wie muss man sich eine IT-Infrastruktur-Planung vorstellen? Gibt es vorab Gespräche mit den Verantwortlichen? Welche Informationen sind im Vorfeld wichtig?

Wir sprechen uns, wie vorab bereits erwähnt, für eine mögliche Systemarchitektur aus. Das geschieht bereits in einer sehr frühen Phase des Projektes und natürlich in enger Absprache mit dem jeweiligen Kunden. Der frühe Zeitpunkt im Projekt ist dabei wichtig, um die eventuell bereits vorhandene Systemlandschaft kennenzulernen – können wir an ihr partizipieren oder müssen wir ein anderes System präferieren?

Wird auf ein bestehendes System aufgebaut, sammeln wir die dazu nötigen Informationen zum Materialfluss, den logistischen Prozessabläufen (mehrstufige Kommissionierung, welche Art Sorter, gibt es ein Hochregallager, wie viele Gassen, Paletten oder Kartons, Batch-Bildung, VE-Bildung, wie viele Kommissionierer sind gleichzeitig unterwegs, wie viele MDEs oder Smartphones sind gleichzeitig im Einsatz? Etc.) – letztendlich spielt zum einen die Geschwindigkeit der gesamten Fördertechnik, zum anderen die geplante Last, die auf das System sowie auf die entsprechenden Softwaremodule drückt, jeweils eine entscheidende Rolle.

Klar ist, jedes Lager ist individuell zu betrachten. Jeder Wareneingang hat beispielsweise immer unterschiedliche Anforderungen; jeder Warenausgang die seinen, jede Kommissionierung (ein- oder mehrstufig) setzt ebenfalls auf unterschiedliche Prozesse. Darauf müssen wir uns jedes Mal aufs Neue einstellen und mit entsprechenden Lösungen Antworten auf die komplexen Lagerabläufe finden. Dafür greifen wir heutzutage auf wesentlich potentere Hard- und Software zurück, als es noch vor wenigen Jahren der Fall war. Ein Grund für die diese Potenz ist zweifelsohne die hohe Packungsdichte, die viele CPU-Kerne bei einer sehr geringen Bauhöhe erlaubt. Heutzutage sieht eine Standard-Konfiguration zwischen 256 und 512 Gigabyte Hauptspeicher vor, flankiert von einem CPU-Sockel mit 32 Kernen. Die technische Aufrüstung liegt in immer komplexer werdenden Softwareabläufen begründet, die eine entsprechend höhere Rechenleistung erfordern.

Es gibt einige Kunden, die sich, gerade bei Greenfield-Projekten, ein Rundum-Sorglos-Paket wünschen. Sprich, neben der Lagerverwaltungssoftware soll auch die gesamte IT-Infrastruktur (inklusive Netzwerk- und SAN-Konfiguration; Storage Area Network) von TUP stammen. Unsere Aufgabe ist es dann, dem Kunden ein stabiles System zu liefern – welches auch unabhängig des Warehouse-Management-Systems störungsfrei läuft und zu unterschiedlichen Gewerken und deren Systemen kompatibel agiert (Schnittstellen-Management). Wir garantieren dem Kunden zu jeder Zeit eine zertifizierte Hochverfügbarkeit.

Wie sieht der technische Service im Projekt und im laufenden Betrieb aus?

An einer hochverfügbaren IT-Landschaft sollten unerfahrene Administratoren nicht experimentieren. Unsere Erfahrungen zeigen, dass man kundenseitig eher erleichtert reagiert, wenn die von uns installierten Systeme auch von uns gepflegt werden.

Ein Erfolgsfaktor für gute Serviceleistung ist das von uns seit Jahrzehnten eingesetzte Betriebssystem Unix. Ein Materialflussrechner und ein Lagerverwaltungssystem haben die Aufgabe, softwaretechnisch intralogistische Abläufe zu definieren. Wir liefern dem Kunden mittels Unix-System gleich einige Mehrwerte, wie hochverfügbare DHCP- und DNS-Dienste oder spezifische IP-Konfigurationen, mit. Dahingehend sind wir mit unserem Unix-System sehr flexibel aufgestellt und können auf spezielle Wünsche des Kunden oder Anforderungen der kundenseitigen Infrastruktur individuelle Konzepte entwickeln und umsetzen. Ebenfalls erwähnenswert ist das TUP-Patch-Management. Wir sind in der Lage, im laufenden Betrieb, ein neues Release auf das laufende Server-Cluster zu spielen. Dazu evakuieren wir einfach die Anwendungskomponenten und können so gefahrlos ein Patchset einspielen. Und stößt die isolierte Maschine das Update ab, können wir problemlos zum vorherigen Release zurückkehren und das Cluster wieder zusammenführen.

Die im Fehlerfall daraus resultierenden Informationen tauschen wir mit den Herstellern aus. In der Regel reagieren die in kürzester Zeit auf unsere Fehleranalyse und stellen einen speziell für uns realisierten Patch zur Verfügung. Für den Kunden eine gewisse Exklusivität.

In Sachen Sicherheit: Was ist mit Hackerangriffen, mit Viren? Wo sind die einzelnen Komponenten installiert; was beim Kunden, was bei TUP? Und wie sieht es mit Cloud-Anwendungen aus?

Die Hard- und Software-Installationen werden grundsätzlich beim Kunden, in den dafür vorgesehenen Räumlichkeiten abgewickelt. So ist ausgeschlossen, dass nicht berechtigte Fremdfirmen oder Personen unerwünschten Zutritt beziehungsweise Zugriff erhalten.

Grundsätzlich garantieren wir, auf Basis der von uns zur Verfügung gestellten Plattform, ein virenfreies System. Unix ist meines Erachtens eines der sichersten Systeme überhaupt; auch weil das System bei Auslieferung nach außen hin komplett ‚abgedichtet‘ ist. Hacker kommen über das Netzwerk nicht auf die Installation. Sämtliche Dienste sind ausschließlich nur nach innen freigeschaltet. Der Administrator hat es also selbst in der Hand und muss aktiv über die entsprechenden Dienste die Außenwelt aufschalten. Andere Betriebssysteme machen es Unix mittlerweile nach und liefern dem Kunden während der Installationsphase ein nahezu geschlossenes OS. Hierzu muss man wissen, dass während der Installation das System am gefährdetsten ist. Wir fragen uns daher nicht, „welchen Dienst muss ich schließen?“; vielmehr „welcher Dienst muss geöffnet werden?“ TUP öffnet daher auch nur Dienste, die tatsächlich für den jeweiligen Prozess benötigt werden.

Hinzu kommt, dass wir die laufenden Applikationen immer in einer abgesicherten Zone starten. Sie laufen nie auf demselben Niveau, wie das Server-Betriebssystem. Hierfür nutzen wir für die entsprechenden Programme und Anwendungen sogenannte Zonen – eine Art virtuelle Maschine oder Sandbox. Diese Sandbox stellt in sich ein komplett geschlossenes Betriebssystem mit allen nötigen Softwarekomponenten zur Verfügung.

Dem Trend des Cloud-Computings werden wir uns garantiert nicht verschließen. Wir arbeiten bereits mit einigen Partnern und Kunden Cloud-basierend zusammen. Ein Materialfluss-System wird es aber nach unserer Erfahrung nicht in mittelfristiger Zukunft in die digitale Wolke schaffen. Zu individuell sind die Anforderungen, zu hoch wären die Netzwerk-Latenzen. Die benötigten Antwortzeiten liegen im einstelligen Millisekunden-Bereich. Über das Internet sind diese, speziell in Sachen Materialflusssteuerung und dem Zusammenspiel mit Speicherprogrammierbaren Steuerungen, nicht konstant realisierbar. Von den fehlenden Sicherheitsaspekten, die lokale Lösungen als Standard implementiert haben, ganz zu schweigen. Und ein Ausfall eines Distributionszentrums kann schnell zu einem sechsstelligen Betrag heranwachsen.

Dennoch, Systeme, bei denen ein Betrieb über eine Cloud-Anbindung sinnvoll ist, können selbstverständlich realisiert werden. Bei dem jeweiligen Fall werden sie beziehungsweise deren Anwendungen in vertrauenswürdigen Rechenzentren gehostet, die über Direktleitungen zuverlässig angesprochen werden können.

Wagen wir einen Blick in die Zukunft? Wie sieht denn die Hard- und Software in den nächsten Jahren aus?

Wie anfangs erwähnt, werden die Systeme immer kleiner. Aktuell können wir bereits aus der Praxis Beispiele nennen, bei denen ganze Serverschränke gegen Systeme mit einer Bauhöhe von zwei Höheneinheiten (HE) abgelöst wurden. In ein paar Jahren, wenn nicht schon geschehen, wird die IT auf rotierende Festplatten gänzlich verzichten – zumindest was die Nutzung von Datenbanken angeht. Durch die immer günstigeren und schnelleren Flash-Speicher sprechen wir heutzutage auch von keinen großen Investitionen mehr. Vor einigen Jahren kostete ein Terabyte noch 20.000 Euro, mittlerweile bekommt man diese Speichergröße für gute 1.000 Euro. Der Trend zu den All-Flash-Systemen ist hier bereits im Gange und in einigen Jahren sucht man rotierende Festplatten dann vergeblich.

Die Software wird, im Gegensatz zur Hardware, immer komplexer und damit aufwändiger zu bändigen. Immer mehr Schnittstellen werden angesprochen, immer mehr Individualitäten werden kundenseitig verlangt. Standardsoftware war gestern. Das erfordert letztendlich auch die oben beschriebene Hardwareleistung.

 

Bildquelle: John Voo, Flickr; Lizenz (CC BY 2.0)