Rechner stürzen regelmäßig ab, Nutzer machen Fehler: Durch Systemcrashes und stümperhaftes Flickschustern verliert die Wirtschaft jährlich Milliarden. IBM intensiviert nun die Suche nach dem selbstwartenden Rechnerkonzept. Seit eineinhalb Jahren forscht IBM in seinen Almaden Research Laboratorys nach dem Rechnerkonzept der Zukunft. "Autonomic Computing" heißt das Zauberwort dort, das dem Unternehmen, das am Montag eine Intensivierung seines Forschungsengagements bekannt gab, nun rund ein Zehntel seines gesamten Forschungsetats wert sein soll: Das sind immerhin vier bis fünf Milliarden Dollar.
Das klingt so, als mausere sich "Autonomic Computing" endlich zur konkreten Vision: Bisher wurde das Thema immer wieder gern in meldungsarmen Zeiten hervorgekramt, um ein paar Schlagzeilen zu ernten. Oft mit Erfolg, wie im Oktober 2001, als IBM in einem "Manifest" die Charakteristika des zukunftsfähigen Computers einforderte und versprach, genau an dieser Vision zu arbeiten. Versprechen, die User- wie IT-Chef-Augen zum Glänzen bringen, denn sie bedienen tatsächlich ein allgemein wahrgenommenes Grundbedürfnis: Wer mit Rechnern arbeitet, wünscht sich Systeme, die nicht nur zuverlässig und bequem zu bedienen sind, sondern auch absturzsicher.
Und wenn sie schon mal in die Knie gehen, so der Traum, dann sollten sie sich auch selbst wieder hochrappeln können - und zwar schnell. Kein Wunder also, dass immer mehr Unternehmen und Forschungsgruppen das "Autonomic Computing" als echte Notwendigkeit begreifen: Hewlett-Packard etwa entwickelt zurzeit das "Planetary Computing", während die Universität Berkeley am harten ROC ("recovery orientated computing") werkelt. Verschiedene Namen für ein und dasselbe Konzept.
"Die wachsende Komplexität der IT-Welt", hieß es im "IBM-Manifest", "gefährdet eben jene Vorteile, die wir mit digitaler Technik zur Verfügung stellen wollen."
Technik kostet zu oft Zeit
Auf Deutsch: Das, was Digitaltechnik an Rationalisierungen und Effektivierungen ermöglicht, verhindert sie selbst durch Komplexität und Verletzlichkeit. Vor sechs Jahren gab ein IT-Unternehmen mit einem ebenfalls in blauen Farbtönen gehaltenen Firmenemblem eine Studie in Auftrag, die nie an die Öffentlichkeit gelangte. Eigentlich sollte die feststellen, in welchem Maße digitale Bürotechnologie Standardabläufe verbesserte. Die Studie empfahl kleineren Unternehmen die Rückkehr zu Aktenschrank und Karteikarte: EDV, wie man das damals noch nannte, kostete mehr Zeit und Geld, als sie einbrachte.
Das Problem ist also alt und seit langem bekannt. Auch das Konzept der "organischen Selbstwahrnehmung", wie sie IBM-Forschungsleiter Paul Horn im Oktober 2001 in einem Artikel für CNet beschrieb beschrieb, ist lang schon als Ideal erkannt: Eigentlich müssten Rechner in der Lage sein, sich selbst und ihren jeweiligen Zustand wahrzunehmen und ständig das Ist gegen ein Soll abzugleichen. Im Falle einer Abweichung müsste das System umgehend an der eigenen Wartung und Reparatur arbeiten - so, wie man einen Schnitt in der Hand behandelt und eine Heilung herbeiführt. Die Verletzung eines Teiles dürfte dabei die Funktionen der anderen Teile nicht maßgeblich einschränken.
Genau das haben die Entwickler von IBM im Sinn. Ihnen schwebt die Schaffung eines elektronischen Pendants zum vegetativen Nervensystem vor: Eine Art Über-BIOS, der die Vitalfunktionen regelt, überwacht und im Bedarfsfall sich selbst hilft oder nach Hilfe ruft. "Unsere Körper", sagt Robert Morris von IBMs Almaden Labor, "sind außerordentlich zuverlässig. Ich habe die ganze Zeit kleinere Fehlfunktionen. Mein Gedächtnis lässt mich mitunter im Stich, aber ich stürze deshalb nicht ab. Mein Körper schaltet sich nicht ab, wenn ich mir in den Finger schneide."
Das eigentlich Paradoxe an herkömmlichen Hard-/Softwarearchitekturen ist, dass sie kleinere Fehlfunktionen dadurch beheben, indem sie sich selbst vollständig abschießen und im großen Systemcheck rekonfigurieren. Das kostet Zeit, Geld und Nerven - und ist nicht so zuverlässig, dass die Systeme auf Dauer nicht darunter litten.
IBM forscht auf einem anderen Weg: Hier sind Hard- und Software stärker als bisher üblich verzahnt. "Sub-Systeme" erhalten einen eigenes Monitoring und - wo nötig - autonom voneinander überwachte und gesteuerte Klein-Betriebssysteme. Aus der Soft- wird hier eine "Middleware" - was nicht für "Mittel" steht, sondern für "Vermittlung".
Fällt eine Funktion aus, wird diese rekonstruiert, eventuell rebootet, ohne dass das Gesamtsystem ausfallen müsste. Erstmals implementiert wurde ein solches System 2001 an der Stanford University, wo ein Team um Armando Fox eine Satelliten-Kontrollstation entsprechend rekonfigurierte. Die arbeitete danach nachweislich zuverlässiger - und kam nach einem vollen Systemcrash nach nur 6 Sekunden wieder auf die Beine. Vorher brauchte sie satt 30 Sekunden.
Und abermals träumt IBM davon, hier endlich einmal wieder einen Standard setzen zu können: Offene Standards sollen sicherstellen, dass Hard- und Software aller möglichen Marken und Hersteller interagieren können. Genau das hat auch die forschende Konkurrenz mit ihren Entwicklungen vor, was ein äußerst guter Grund ist, mit seinen Forschungen regelmäßig in der Öffentlichkeit trommeln und tingeln zu gehen. Am Ende, man ahnt es, kann es nämlich nur einen geben, der den Standard vorgibt. Sonst ergibt das ganze Konzept keinen Sinn.
|