Unternehmen und Arbeit 2.0
Inzwischen legen Journalisten noch eins drauf: „Unternehmen 3.0“ titelte unlängst die Zeitschrift Markt und Mittelstand . Dabei wird klar: Solche Bezeichnungen sind auch Modevokabeln, die oft ähnlich rasch verschwinden wie sie kamen. Auch im vergangenen Jahrzehnt gab es vielfältige Versuche, aktuelle Entwicklungen in Wirtschaft und Gesellschaft auf den Begriff zu bringen: „New Economy“, „Digitale Wirtschaft“, „Internetökonomie“, „Economy 2.0“, „Informationsgesellschaft“ – so lauten einige Buch- und Zeitschriftentitel aus jener Zeit.
Es sind Versuche, einen Umbruch zu umschreiben, der nicht leicht zu erfassen ist, weil wir selbst mittendrin stecken. Denn mögen auch die Schlagworte kommen und gehen – das Phänomen, das sie bezeichnen, ist ein unaufhaltsamer Umwälzungsprozess, der nach und nach alle Bereiche der Gesellschaft erfasst.
Don Tapscott formuliert es in dem Buch Enterprise 2.0 so: „Wir stehen an einem historischen Wendepunkt der Geschäftswelt, an der Schwelle zu dramatischen Veränderungen der Organisation, Innovation und Wertschöpfung von Unternehmen.“1 Der mit treffsicheren Prognosen zu den Auswirkungen des Computers bekannt gewordene kanadische Erfolgsautor ist nicht der einzige, der große Worte wählt. Beim Soziologen Dirk Baecker klingt es ähnlich: „Wir haben es mit nichts Geringerem zu tun als mit der Vermutung, dass die Einführung des Computers für die Gesellschaft ebenso dramatische Folgen hat wie zuvor nur die Einführung der Sprache, der Schrift und des Buchdrucks.“2
Beide beziehen sich auf den Pionier der modernen Managementlehre, Peter F. Drucker. Die Gesellschaft, die auf die Einführung des Computers zu reagieren beginnt, hat Drucker einmal die „nächste Gesellschaft“ genannt, weil diese sich in allen Formen, Institutionen und Theorien von ihren Vorläufern unterscheiden wird. Schon im Jahr 1959 prägte Drucker die Begriffe „Wissensarbeit“ und „Wissensgesellschaft“, weil er erkannt hatte, dass mit der Ausbreitung von Computern fast alle Arbeiten intellektuell anspruchsvoller werden und dass Wissen(sarbeit) eine vollkommen andere Art von Management erfordert als die industrielle Handarbeit.
Um radikale Umbrüche zu erkennen, hilft es, radikale Fragen zu stellen. Zum Beispiel: „Wozu gibt es überhaupt Unternehmen?“ Man kann auf ganz unterschiedliche Weise Produkte erzeugen und damit Profit erzielen. Beispielsweise kann man sämtliche zur Herstellung und zum Verkauf eines Produkts benötigten Komponenten und Dienstleistungen ausschreiben oder auf dem Markt zusammensuchen und so koordinieren, dass am Ende die gewünschte Wertschöpfung erzielt wird. Das andere Extrem wäre der Versuch, in der eigenen Firma alles selbst zu machen. Ein prominentes Beispiel hierfür lieferte Henry Ford, der von eigenen Kraftwerken über Stahlwerke, Glasfabriken, Schiffsreedereien bin hin zu Ford-Kautschukplantagen den gesamten Wertschöpfungsprozess der Automobilproduktion in seine Hand bringen wollte – und bei diesem Versuch ziemlich viel Geld verlor.
In der Praxis pendeln Unternehmen zwischen diesen beiden Extremen. Unter welchen Bedingungen es für sie sinnvoll ist, Aufgaben selbst zu lösen, und wann es mehr bringt, dies dem Markt zu überlassen, ist eine Frage des Aufwands. Fachbegrifflich: Es ist eine Frage der Transaktionskosten, mit denen ermittelt wird, wie aufwändig es ist, passende Mitarbeiter (oder alternativ: Lieferanten) zu suchen und zu koordinieren.
Das Entscheidende ist nun, dass mit Computern und besonders mit dem Internet diese Transaktionskosten dramatisch sinken. Mehr und mehr verschieben sich damit die Bedingungen zugunsten von Marktlösungen. Mit der passenden Software wird es möglich, komplexe Aufgaben in viele Teilaufgaben zu zerlegen und die Lösungen hinterher zusammenzuführen. Dieser Trend zu neuen Formen der Arbeitsteilung bis hin zum „Virtuellen Unternehmen“ ist seit der Einführung des Computers verstärkt zu beobachten – „Outsourcing“, „Offshoring“ und ganz allgemein „die Globalisierung“ sind nur einige der Folgen sinkender Transaktionskosten.
Nun kommt eine Entwicklung hinzu, für die im Jahr 2002 das Schlagwort „Web 2.0“ geprägt wurde: Als „Social Software“ ermöglichen es Computerprogramme mittlerweile auch dem gewöhnlichen Computerbenutzer, sich im Internet als „Sprecher“ zu betätigen und mit anderen Menschen „inter-aktiv“ in Beziehung zu treten – so wie es Bertolt Brecht in seiner „Radiotheorie“ im Jahr 1932 formulierte: „Der Rundfunk wäre der denkbar großartigste Kommunikationsapparat des öffentlichen Lebens, ein ungeheures Kanalsystem, das heißt, er wäre es, wenn er es verstünde, nicht nur auszusenden, sondern auch zu empfangen, also den Zuhörer nicht nur hören, sondern auch sprechen zu machen und ihn nicht zu isolieren, sondern ihn in Beziehung zu setzen.“ Vermutlich würde Brecht heute staunen, mit welcher bisher nie gekannten Dynamik sich das heutige Kanalsystem „Web 2.0“ entwickelt, in dem Menschen nicht nur per Sprache, sondern auch über Texte, Musik, Bilder, Videos, Software und ganz neuartige Darstellungsformen weltweit miteinander Wissen austauschen und ihre Gefühle mitteilen. Die zahlreichen neuen Mitmach-Plattformen wie „MySpace“ (über 250 Millionen Mitglieder), „Facebook“, „YouTube“, „StudiVZ“ oder „Flickr“ ziehen mitunter binnen weniger Tage mehr neue (und höchst aktive) Mitglieder an, als viele Parteien oder Gewerkschaften überhaupt haben.
Es genügt ein Gerät, das in die Hemdtasche passt
Erst mit der Möglichkeit, wirklich inter-aktiv zu sein, verdient das „Inter-Net“ seinen Namen und lässt erahnen, was noch kommen mag. Die bislang vorwiegend passiv genutzten Formen des World-Wide-Web waren lediglich Umformungen altbekannter Massenmedien wie Zeitung, Buch, Rundfunk und Fernsehen plus Briefverkehr und Telefon via Computer. Das war zu allen Zeiten so: Neue Medien wurden anfänglich stets ähnlich genutzt wie ihre Vorgänger; erst allmählich bildeten sich eigene und vollkommen neue Formen heraus. Dieser Prozess wird durch eine Entwicklung beschleunigt, mit der sich die kalifornischen Computerpioniere von Apple gerade anschicken, die Welt ein drittes Mal zu verändern: Nachdem der „Macintosh“ dem Umgang mit Computern und der „iPod“ den Umgang mit Hörbarem revolutioniert haben, erhält nun mit dem „iPhone“ die Internet-Nutzung eine neue Gestalt. Damit ist der Zeitpunkt nicht mehr fern, wo ein beträchtlicher Teil der Menschheit nicht mehr extra „ins Internet gehen“ wird, sondern zu jeder Zeit, an jedem Ort mit ungezählt vielen anderen Menschen und Gegenständen in Echtzeit interaktiv in Beziehung treten kann. Es ist noch nicht lange her, da brauchte man Verlage, Druckereien, Fotolabore, Studios, Schallplattenpressen, Filmproduzenten, Radiostationen, Fernsehsender sowie viel Geld und Geduld, wenn man mit seinen Gedanken oder mit anderen Werken die ganze Welt beglücken wollte. Heute genügt dazu ein Gerät, das in die Hemdtasche passt.
Welche Wirkungen die damit verbundene Wissens- und Kommunikationsexplosion haben wird, lässt sich heute noch nicht erahnen. „Die Bedeutung des Computers ist erst dann zu verstehen, wenn man seine Einführung mit der Einführung der Schrift vor 3.000 Jahren und des Buchdrucks vor 500 Jahren vergleicht. Jedes Mal hat sich die Form der Gesellschaft tief greifend verändert. Und jedes Mal hat man erst Jahrhunderte später begriffen, was sich abgespielt hat.“3 Jedes neue Kommunikationsmedium stellt mehr Möglichkeiten der Kommunikation bereit, als die Gesellschaft zunächst bewältigen kann. Erst im Verlauf der Zeit entwickeln sich neue Kulturformen, um das Mögliche auf das Bearbeitbare zu reduzieren – das ist dann eine neue Gesellschaft, über die an dieser Stelle nicht weiter spekuliert werden soll.
Hingegen lässt sich über „Enterprise 2.0“, also die Übertragung von „Web 2.0“ auf Unternehmen, schon heute einiges sagen, da es einen Bereich gibt, in dem Computernutzer schon seit rund 40 Jahren in „Mitmach-Netzen“ aktiv sind: die Software-Entwicklung. In seinem Aufsatz „Offene Geheimnisse – Die Ausbildung der Open-Source-Praxis im 20. Jahrhundert“ skizziert Gundolf S. Freyermuth, wie technisch begeisterte Bastler gegen den Widerstand der monopolistischen Telekommunikations-Konzerne in den sechziger Jahren die Grundlagen digitaler Vernetzung schufen, genauso wie es Anfang der siebziger Jahre mehr am Gebrauchs- als am Tauschwert interessierte Bastler waren, die gegen das hinhaltende Desinteresse der damaligen Computerkonzerne die ersten PCs konstruierten. Der weitaus größte Teil der technischen Grundlagen des heutigen Internet entstand in solchen auf freiwilliger Mitarbeit basierenden Strukturen, für die erst im Jahr 1997 der Begriff „Open-Source“ gefunden wurde.
Dass solche auf freiwilligem Engagement basierende Kooperationen weltweit verstreuter Menschen in der Lage sind, auch die komplexesten Produkte auf Weltklasse-Niveau herzustellen, zeigen die Erfolge von Linux, Apache, Firefox, Wikipedia und vielen anderen, die oft schon nach kurzer Zeit ihren kommerziellen Konkurrenten überlegen sind. Sourceforge, die Internet-Plattform für Open-Source-Programme, verzeichnet inzwischen mehr als 100.000 solcher Projekte. Bei Open-Source geht es aber nicht nur um Software, sondern vor allem um ein soziales Phänomen. Denn zweierlei wird hier praktisch bewiesen: Erstens, wenn die Transaktionskosten niedrig genug sind, geht es auch ohne Firma. Und zweitens: Es geht ohne Firma oft sogar viel besser. Die interessante Frage lautet: Was bringt unzählige Menschen dazu, ungezählte Tage und Nächte, ja oftmals sogar viele Jahre freiwillig höchst anspruchsvolle aber unbezahlte Arbeit mit oft großer Begeisterung in solche Projekte einzubringen? Warum tun Menschen so etwas?
Wenn Wertschöpfung auf Wertschätzung basiert
Zunächst eine kurze Antwort: Weil in Open-Source-Gemeinschaften Wertschöpfung auf Wertschätzung basiert. Hier gehen Wissensarbeiter so miteinander um, wie es Peter F. Drucker zeitlebens propagiert hat. Dabei entsteht eine Kultur, die in vieler Hinsicht das Gegenteil des von Frederick W. Taylor und Nachfolgern geprägten Industrialismus darstellt. Das von Taylor um 1900 begründete Verfahren der „wissenschaftlichen Betriebsführung“ hatte den Menschen nicht länger als eigenständig Handelnden begriffen, sondern als Teil der industriellen Maschinerie. Indem dieser „Taylorismus“ den menschlichen Körper zum Anhängsel der Maschine machte und erwachsene Bürger mittels Anweisungen und Beaufsichtigung systematisch entmündigte, steigerte er die mechanische Effizienz – und vernichtete Motivation und Kreativität.
Heute hingegen sind die meisten Menschen Wissensarbeiter, weil die durch die Informationstechnik ausgelöste Wissensexplosion nur durch zunehmende Spezialisierung zu bewältigen ist – ganz im Sinne der Definition von Peter F. Drucker: „Ein Wissensarbeiter ist jemand, der mehr über seine Tätigkeit weiß als jeder andere in der Organisation.“ Wissensarbeiter sind also nicht etwa zwangsläufig Wissenschaftler, sondern wir finden sie heute überall: Der Arbeiter in der Produktion, der Fertigungsprobleme selbständig analysiert und löst, der Wartungstechniker, der seinen Arbeitstag selbst plant, oder der Lagerverwalter, der die Leistungsfähigkeit von Lieferanten bewertet – sie sind allesamt zumindest teilweise Wissensarbeiter.
Und hier entsteht das große Dilemma, das unsere Zeit als Ära eines fundamentalen Umbruchs kennzeichnet: Heute arbeiten solche Wissensarbeiter fast überall, aber meist in Organisationen, die noch immer von Taylors Konzepten geprägt sind. Fast jeder kennt das: Man hat es mit Vorgesetzten zu tun, die über Dinge entscheiden, von denen sie in der Regel weit weniger verstehen als man selbst, die aber – weil sie nun einmal dieses Amt innehaben – meinen, sagen zu müssen, „wo es lang geht“.
Die Folgen sind bekannt: Frust und Demotivation bis hin zur inneren Kündigung. Besonders krasse Formen dieses Dilemmas findet man überall dort, wo es an Wettbewerb mangelt, also etwa in Behörden, in top-down geführten Funktionärsbürokratien und natürlich in zentralistischen Plansystemen vom Typ DDR. Aber auch in unseren Firmen erhobene Umfragen zum Arbeitsklima sprechen Bände: Rund zwei Drittel aller Beschäftigten würden wegen dieses Dilemmas sofort die Stelle wechseln, wenn die Arbeitssituation anderswo besser wäre. Diese anachronistischen Zustände haben in der Wirtschaft alljährlich Verluste im dreistelligen Milliardenbereich zur Folge – die seelischen und gesundheitlichen Folgen noch nicht einmal eingerechnet.
Ganz anders verläuft die Arbeit in
Open-Source-Zusammenhängen, die auf „Peer-Produktion“ basieren; es gibt keine Hierarchie, sondern alle Beteiligten arbeiten selbstorganisiert als „Peers“ (Ebenbürtige) auf Augenhöhe miteinander. Die zweite Grundlage ist Offenheit: Während traditionell bürokratische Strukturen auf ängstlich gehütetem Herrschaftswissen basieren und Misstrauen und Kontrolle das Klima vergiften, existiert in Open-Source-Strukturen ein anderes Verständnis von geistigem Gemeineigentum. Das sagt schon der Name: Open Source bedeutet „offene Quelle“. Hier sind die Menschen motiviert und gerne bereit, ihr Wissen und ihre Ideen anderen oder einer Organisation zur Verfügung zu stellen, weil ihnen Vertrauen, Respekt, Anerkennung, Fairness und Toleranz entgegengebracht wird.
Für komplexe Koordinationsaufgaben brauchen natürlich auch Open-Source-Projekte Entscheidungsautorität. Führungsfunktionen gibt es hier aber meist nur vorübergehend und auf ein Thema oder Projekt beschränkt. Das Organisationsmodell ähnelt eher dem einer Jazzband, wo einfühlsame Führungswechsel ungeahnte Synergien wecken können. Entscheidungsautorität beruht auf vom Projektteam anerkannter Kommunikations- und Sachkompetenz und nicht auf „von oben“ verliehener formaler Autorität, wie in den klassisch-hierarchischen Planstellensystemen, in denen dann vielfach Opportunismus als Qualifikationsersatz dient, was besonders bei vielstufigen Hierarchien das zuvor beschriebene Dilemma im Laufe der Zeit so verschärft, dass die Systeme früher oder später Opfer ihrer eigenen Strukturen werden.
Ob jemand ein großes Büro hat, interessiert im Internet niemanden
Jetzt spätestens wird verständlich, wieso Menschen im Netz vieles mit Begeisterung tun, aber „auf Arbeit“ mitunter ganz ähnliche Aufgaben nur mürrisch anpacken – es kommt eben darauf an, wie man miteinander umgeht. Und das wiederum ist eine Frage der Organisationsstruktur. Bürokratische Hierarchien, die auf Angst und Einschüchterung basieren und in denen sich formale Autorität vor allem in Statussymbolen und Titeln manifestiert, rufen heute bei den „Net-Kids“ nur noch Kopfschütteln hervor. Ob sich jemand „XY-Leiter“ nennt oder ein größeres Büro hat, interessiert im Internet niemanden. Dort zählt nur die Brillanz von Ideen und die tatsächliche Leistung – und das ist auch gut so.
Open-Source-ähnliche Arbeitsformen werden sich ausbreiten, weil mit der rasant wachsenden Wissensmenge vor allem der Umfang dessen zunimmt, was wir nicht wissen. In einer zunehmend komplexen Welt rationale Entscheidungen zu treffen, überfordert den Einzelnen mehr und mehr. Vielfach entscheiden wir „mit dem Bauch“ – und liegen damit oft richtiger. Denn die Menge der Informationen, die wir bewusst wahrnehmen und mit dem Verstand bewältigen können, ist etwa eine Million mal kleiner als die Menge, die wir gleichzeitig ständig unbewusst aufnehmen. Deshalb sind Entscheidungen, die wir „nach Gefühl“ – also per Intuition – treffen, oft viel besser als diejenigen, die wir durch langes Nachdenken erzielen.
Ganz ähnlich wie unsere Intuition wirken auch Netzwerke mit einer großen Anzahl von Menschen, weshalb sich inzwischen Begriffe wie „Schwarm-Intelligenz“ und „Crowd-Sourcing“ als Weiterentwicklung von „Outsourcing“ eingebürgert haben. Dank der niedrigen Transaktionskosten kann man heute per Internet die Weisheit der Vielen nutzen, wo der Verstand des Einzelnen nicht mehr weiterhilft. Vor allem wenn es um das Thema Innovation geht, sind Open-Source-Strukturen der industriellen Planstellenorganisation haushoch überlegen. Den Grund dafür hat 1973 der Soziologe Mark Granovetter in seiner Arbeit Die Stärke schwacher Beziehungen beschrieben: Unternehmen, die sich auf Innovationen konzentrieren, tun meist sehr viel, um die Kommunikation unter Kollegen zu fördern. In den Brainstormings („Heute wollen wir mal kreativ sein!“) treffen sich dann aber meist Leute, die sich ohnehin ziemlich häufig begegnen, die also „starke Beziehungen“ haben (zum Beispiel weil sie zur selben Abteilung gehören).
Die guten Ideen entstehen in der Teeküche
Da in solchen Zusammenhängen aber die Denkmuster der Beteiligten im Lauf der Zeit immer ähnlicher werden, entstehen nur selten neue Ideen. Neues entsteht viel eher dort, wo die Beziehungen „schwach“ sind, das heißt, wo sich Unbekannte begegnen und dabei oft ganz unterschiedliche Denkmuster und Sichtweisen aufeinander treffen – wie es in den hoch innovativen Internet-Communities oder in Regionen mit großer Fluktuation (zum Beispiel im Silicon Valley) ständig passiert. Im Kleinen kennt es jeder aus dem Arbeitsalltag: Gute Ideen entstehen viel eher bei zufälligen Begegnungen in der Teeküche als in den wöchentlichen Abnick-Runden.
Inzwischen erkennen immer mehr Firmen, dass die „Intelligenz der Masse“ viele Leistungen schneller, besser und günstiger erbringen kann als etwa die eigene Unternehmenszentrale. Ein Beispiel für dieses Crowd-Sourcing lieferte erst jüngst der Autobauer Fiat: Für die Konzeption der Neuauflage des Klassikers Cinquecento (Fiat 500) boten die Italiener auf einer Interseite mit dem „Concept Lab“ jedem Internetnutzer die Möglichkeit, am Design des Kleinwagens mitzuarbeiten. Nach wenigen Monaten, vielen Millionen Klicks und mehr als 250.000 Entwürfen hatte Fiat eine Vorstellung davon, wie sich potenzielle Käufer den neuen Cinquecento vorstellen. Das neue Auto ist derzeit ein Riesenerfolg und Fiat – früher oft als „Fehler In Allen Teilen“ verspottet – hat mittlerweile wieder ein positives Image und gilt als Unternehmen, das auf seine Kunden hört.
Solchen Beispielen werden andere folgen, nicht zuletzt weil sich durch die mit „Web 2.0“ gegebene Möglichkeit, Informationen epidemieartig zu verbreiten, auch Macht verlagert. Unternehmen, die sich auf Blogs, Wikis und ähnliche Instrumente einlassen, müssen sich darüber im Klaren sein, dass damit eine nie dagewesene Transparenz einzieht. Früher erzählte man frustrierende Erlebnisse beim Ummelden eines Telefonanschlusses nur seinen Freunden. Heute stehen sie im Internet. Damit entsteht für Unternehmen dieselbe soziale Kontrolle, die es früher in der dörflichen Nachbarschaft gab. Das Unternehmen wird „nackt“, wie es Don Tapscott in seinem Buch The Naked Corporation nennt. Jeder Versuch, mit „Verkleidungen“ (etwa durch Marketing) zu tricksen, wird künftig binnen kürzester Zeit auf die Urheber zurückfallen. Mit anderen Worten: Ob sie es wollen oder nicht, die Unternehmen werden sich ändern müssen – und zwar gründlich.
Das „Enterprise 2.0“ wird also kommen. Vielleicht wird es schon bald nicht mehr so genannt werden, aber das grundlegende Prinzip wird sich durchsetzen – weil die alles umwälzende Macht des Internet auf seiner Fähigkeit beruht, die Beiträge vieler Menschen ohne die lähmenden Nebenwirkungen einer Hierarchie und Bürokratie zu koordinieren. „Zum ersten Mal seit dem Beginn des Industriezeitalters besteht die einzige Möglichkeit, ein zukunftstaugliches Unternehmen aufzubauen, darin, eine Organisation zu errichten, die auch menschentauglich ist“, bringt es Gary Hamel auf den Punkt.4 Und Gundolf Freyermuth schließt den großen Bogen: „Die Open-Source-Praxis bedeutet für die digitale Epoche, was die Praxis des Taylorismus beziehungsweise Fordismus in der industriellen Epoche war – eine strukturbildende Leitidee, die ausgehend von der Arbeitsorganisation soziale Verhaltens- und Denkweisen prägt, ebenso die Organisation des zivilisatorischen Wissens sowie nicht zuletzt auch Kunst und Unterhaltung.“5 So wie einst die Taylorisierung von der Fabrikarbeit auf das gesamte Wirtschaftsleben, selbst auf vorindustrielle, auf künstlerische und auf wissenschaftliche Arbeit ausstrahlte, so werden die Formen „digitaler“ Wissensarbeit auf alle diese Bereiche zurückwirken.
Zu allen Zeiten wurden Arbeit und Gesellschaft vor allem durch die jeweiligen Informations- und Kommunikationstechniken (IuK-Techniken) geprägt. Die IuK-Technik Gutenbergs war nicht nur die Mechanisierung einer Handarbeit (des Schreibens), sondern auch die Keimzelle der Industrialisierung, denn Druckerzeugnisse waren die ersten Serienprodukte. Doch verglichen mit den aufklärerischen Wirkungen dieser Technologie war dies nur ein Nebeneffekt.
Was wir „Arbeit“ nennen, wird neu definiert
Nunmehr trägt die digitale Informationstechnik dazu bei, dass zentrale Prinzipien des Industrialismus sich nach und nach selbst ad absurdum führen. Natürlich wird es auch in Zukunft Industrieprodukte geben, doch die Strukturen und Prozesse ihrer Entwicklung, Herstellung und Vermarktung wandeln sich radikal. Damit wird das, was wir „Arbeit“ nennen, nicht nur verändert, sondern allmählich neu definiert. Die Wissensarbeiter verlassen eine Sackgasse der Zivilisationsentwicklung, in der Menschen oftmals nur wie Maschinenteile eingesetzt und mitunter kaum besser behandelt wurden. Künftig zählt vor allem das, was Menschen von Maschinen unterscheidet: Kreativität, Emotionen, Wissen, Erfahrung und vor allem die Fähigkeit, intelligent mit Unvorhersehbarem umzugehen. Doch diese Abkehr von industriellen Mustern und Werten ist vermutlich wiederum nur eine Nebenwirkung. Denn nun entwickelt sich mit dem „elektronischen Buchdruck“ in Gestalt des Internet das größte Gemeinschaftsprojekt, das die Menschheit je auf die Beine gestellt hat. Nicht nur die „Wikipedianer“ verstehen sich heute als Teil des großen Projektes der Aufklärung. Schon heute stehen im Netz jedem Nutzer mehr Informationen kostenlos zur Verfügung, als die teuerste Bibliothek je bereithielt – und täglich kommen viele Millionen Seiten hinzu.
Dabei ist aber weniger die schiere Menge bedeutsam als vielmehr die Tatsache, dass digitale Informationen nicht den Einschränkungen unterliegen, die für Produkte aus der Druckerpresse gelten. Bei maschinell vervielfältigten Werken liegt die Struktur (der Inhalt) fest, wenn der Autor und andere Autoritäten (Verleger, Herausgeber, Redakteur und so weiter) erst einmal entschieden haben, was gedruckt wird (und was nicht) und in welcher Anordnung die Symbole aufs Papier kommen. Da aber jeder Leser andere Vorkenntnisse, Fähigkeiten und Interessen hat, ist das Ergebnis dieser Filterung und Vorfertigung nur selten optimal, mitunter sogar schädlich. Diese technisch bedingten Einschränkungen des Mediums haben die Art und Weise, wie wir mit Informationen umgehen, also unser Denken und Weltbild, im Verlauf der Jahrhunderte viel stärker geprägt, als uns heute bewusst ist.
Per Computer hingegen können Symbole höchst variabel zur selben Zeit in ganz unterschiedlichen Anordnungen mit beliebigen Verknüpfungen dargeboten werden. Diese neue Freiheit im Umgang mit Informationen hilft ungemein, neue Bedeutungen und Zusammenhänge zu entdecken und zu kommunizieren, also zu lernen und sich gemeinsam mit anderen weiter zu entwickeln. Beim „Surfen“ durch das Netz liest jeder sein eigenes „Buch“, keines gleicht dem anderen. Langfristig dürften sich hierdurch der Umgang mit Wissen und unsere Vorstellung davon, wie die Welt organisiert ist und vor allem, wer die Autorität hat, uns das zu sagen, grundlegend wandeln.
Die mit dieser Revolution einhergehenden Herausforderungen hat man weithin noch nicht erkannt. Statt beispielsweise in den Schulen die Entwicklung neuer Fähigkeiten zu fördern, um sich in dieser neuen Welt sinnvoll orientieren zu können, erinnert bei uns vieles eher an die Mönche, die auch noch fünfzig Jahre nach der Erfindung des Buchdrucks jedes einzelne gedruckte Exemplar Korrektur lasen, weil sie die Wirkung der neuen Technik anfänglich gar nicht begreifen konnten. Gut möglich, dass sich spätere Generationen über unser heutiges Verständnis der Internet-Wirkungen ebenfalls kopfschüttelnd amüsieren werden.
Wie bei jedem neuen Medium, ob Buchdruck, Telefon, Fotografie oder anderen, so sind auch jetzt die Kulturpessimisten zur Stelle, die wieder einmal das Abendland untergehen sehen. Kaum sind die jahrzehntelangen Warnungen, dass die „Elektronenhirne“ uns das Denken abnehmen, als irreführender Gedankenmüll entsorgt, wird nun gewarnt, dass die Menschheit „Klick und Doof“ verblödet, weil im „Web 0.0“ ein pöbelnder Debattierclub von „Anonymen, Ahnungslosen, Denunzianten, Freizeitaktivisten und Exhibitionisten“ mit ihrem „Loser Generated Content“ einen gigantischen Absurditätenstadl errichte (so Bernd Graff in der Süddeutschen Zeitung vom 8. Dezember 2007). Dass dort, wo jeder schreiben kann, vor allem viel Mittelmaß herrscht, ist doch selbstverständlich. Genauso gut könnte man Gutenbergs Technik an den Pranger stellen, weil nun einmal auch damit ziemlich viel Schund fabriziert wird – nicht zuletzt von Journalisten. Doch vermutlich werden die Menschen dank Internet auch mehr und mehr lernen, zwischen Qualität und (formaler) Autorität zu differenzieren. Und anzunehmen ist, dass der nun ins Unermessliche verschärfte Wettbewerb um Aufmerksamkeit auch zur Entwicklung ungeahnter neuer Qualitäten führen wird, wie sie sich schon heute hier und da im Netz andeuten.
Alte Organisationen in der „nächsten Gesellschaft“
Wir sind also längst schon auf dem Weg in die „nächste Gesellschaft“ – die natürlich viel mehr Fragen aufwirft, als hier behandelt werden können. So beispielsweise die folgende: Wie verdienen die Menschen in den neuen Strukturen ihren Lebensunterhalt? Oder: Werden Gewerkschaften noch Bestandteil dieser „Gesellschaft 2.0“ sein? Zu jener Zeit, als Computer in der Arbeitswelt noch kaum bekannt waren, standen Gewerkschaften in jeder Hinsicht ungleich besser da als heute. In nur drei Jahrzehnten hat der Computer jedoch so gut wie jeden Arbeitsplatz verändert. Und je mehr der Umgang mit Computern zur neuen Kulturtechnik reift, desto breiter wird auch die kulturelle Kluft zwischen der hochdynamisch-vielfältigen Welt der Net-Kids und der vergleichsweise beharrend-uniformen Welt, der die Gewerkschaften noch angehören – und die von den Jüngeren oft nur noch als ziemlich „uncoole“ Veranstaltung wahrgenommen wird.
Gewerkschaften sind heute auf immer mehr Feldern in die Defensive geraten, weil maßgebliche Teile der Organisationen sich zu wenig, zu spät und vor allem viel zu oberflächlich mit der Frage befasst haben, wie der Computer die Arbeitswelt und die Gesellschaft insgesamt verändert. Weder wurden die vielfältigen, sich neu eröffnenden Chancen erkannt, noch die damit einhergehenden Herausforderungen. In traditionellen industrialistisch-mechanistischen Denkmustern verharrend, wurde der Computer jahrzehntelang pauschal als „Job- und Qualifikationskiller“ bekämpft – man sah in ihm nur eine neue Maschine, die dem Menschen nun auch noch die Kopfarbeit wegnimmt. Dass hier hingegen ein Medium heranreift, das den Wissensaustausch zwischen Menschen auf eine völlig neue Stufe stellt und damit Leben und Arbeit der meisten Menschen von Grund auf verändert, wird nicht selten bis heute verkannt – noch im Jahr 2000 taten manche Gewerkschaftsvorstände Hinweise auf die Veränderung ökonomischer Bedingungen in Gefolge des Internet lauthals als „Zeitgeistgeschwätz“ ab. Und nicht zuletzt hat auch die Tatsache fatale Wirkungen, dass viele politische Organisationen die Möglichkeiten der neuen Techniken selbst zunächst nur anachronistisch, oftmals ausgesprochen dilettantisch und bis heute zumeist nur unzulänglich nutzen. Denn dadurch verlieren die Organisationen gerade für Technikkenner und für die kritischen Geister unter den Technikmachern immer mehr an Attraktivität, wodurch ihnen wiederum die ohnehin nur rar gesäten Seismographen für künftige Entwicklungen und damit auch Gestaltungspotenziale abhanden kommen.
Was die letzten Jahre des DDR-Politbüros lehren
Technik ist Politik. Und Technikgestaltung ist Gesellschaftsgestaltung. Denn technische Entwicklungen verändern die Welt – oftmals folgenreicher und nachhaltiger als alle politischen Institutionen. Politiker und politische Organisationen, die sich nicht frühzeitig und kenntnisreich mit den Wechselwirkungen zwischen Technik und Gesellschaft befassen, verlieren allmählich den Kontakt zur Realität und damit auch ihren Einfluss, wenn nicht gar ihre Existenz. Diesen Zusammenhang konnte man geradezu mustergültig in den allerletzten Jahren des DDR-Politbüros studieren. Aber auch hierzulande schlittern die Gewerkschaften, die sich mehrheitlich in den neunziger Jahren durch Selbstverstümmelung ihrer Wahrnehmungsorgane für technische Trends beraubt haben, inzwischen weit kurzsichtiger als etwa noch in den siebziger Jahren an Abgründen entlang. Mangelnde Sachkenntnis und meist ziemlich oberflächliche Erklärungsmuster für das heutige Geschehen in der Welt führen dazu, dass Versuche, das Vergangene festzuhalten, viel häufiger zu beobachten sind, als die (zugegeben weitaus schwierigeren) Versuche, die Zukunft zu gestalten. Oft ist man nur noch der Zaungast, der die vorbeirasenden Züge bestaunt, und sofern überhaupt, werden politische Weichen erst dann gestellt, wenn der Zug längst durchgefahren ist. Die Gestaltung der Streckennetze hat man ohnehin schon längst anderen überlassen. Ob man sich dann mit ebenso lautstarkem wie hilflos verspätetem Protest über die falsche Fahrtrichtung der Gesellschaft noch einen Gefallen tut, kann bezweifelt werden. Um es mit einem aktuellen Beispiel zu sagen: Natürlich sind auch die aktuelle „Finanzkrise“ und die Methoden der „Bankster“ unter anderem (Neben-)Wirkungen der weltweiten Informatisierung von Strukturen und Prozessen, die solche nie gekannten Auswüchse überhaupt erst ermöglicht hat.
Im Jahr 2009 ist es genau 50 Jahre her, seit Peter F. Drucker die Begriffe „Wissensarbeiter“ und „Wissensgesellschaft“ in die Welt setzte und dabei aufzeigte, warum Arbeitswelt und Gesellschaft durch die Informationstechnik fundamental transformiert werden. Und sogar schon 1947 wies Norbert Wiener in seinem Buch Kybernetik auf absehbare Folgen dieser Entwicklungen hin: „Stellt man sich die zweite (kybernetische) Revolution als abgeschlossen vor, so wird das durchschnittliche menschliche Wesen mit mittelmäßigen oder noch geringeren Kenntnissen nichts zu ‚verkaufen‘ haben, was für irgend jemanden das Geld wert wäre.“
Wer zu spät kommt, bezahlt mit dem eigenen Untergang
In Gestalt des sich immer weiter öffnenden sozialen Grabens zwischen den Verlierern und Gewinnern dieser Umwälzungen rächt sich heute, dass solche Erkenntnisse in unserem industriegeprägten Bildungssystem und bei weiten Teilen der Gewerkschaften auch nach Jahrzehnten noch immer nicht angekommen sind. Vor den Folgen solch hartnäckiger Ignoranz warnte übrigens der Medienpionier Marshall McLuhan bereits 1964 in seinem Buch Understanding Media: „Die Ausbreitung neuer Medien führte stets auch zum Untergang sozialer Formen und Institutionen und zur Entstehung neuer. … Vor allem die Teile der Gesellschaft, die die langfristigen Wirkungen des neuen Mediums zu spät erkannten, mussten dies mit ihrem Untergang bezahlen.“
Zwar versuchen auch die Gewerkschaften seit geraumer Zeit, sich für den Wandel von der Industriegesellschaft zur Wissensgesellschaft fit zu machen. Doch wenn man ihre bisherigen Versuche, sich selbst zu modernisieren und zu reorganisieren, unter die Lupe nimmt, wird das Ausmaß ihrer Probleme erst recht deutlich. Da man die Wechselwirkungen zwischen Software, Organisationsstruktur und -kultur6 seit Jahrzehnten verkennt, folgten alle diese Versuche in ihrem Kern den klassischen Rationalisierungsmustern der Industrieära. Im Grunde wurden dadurch die bestehenden Zustände nur perfektioniert und die eigentlichen Probleme nicht gelöst, sondern sogar noch verschärft. Deshalb sind die gewerkschaftlichen Kader bis heute in industriegeprägten Denkmustern und tayloristischen Organisationsstrukturen (dem „Apparat“) gefangen. In solchen Strukturen erfordert es Mut, etwas Neues zu wagen. Infolgedessen sind die innovativen Teile der Basis den Vorständen oft um Jahre und mitunter sogar um Jahrzehnte voraus. Deshalb können auch und gerade Gewerkschaften von der Open-Source-Praxis sehr viel lernen-das hat etwa der schwedische Gewerkschafter Hans Björkman in seiner Dissertation Learning from Members aufgezeigt. Um als "Gewerkschaften 2.0" in der nächsten Gesellschaft erfolgreich fortbestehen zu können, werden sie sich in allen Strukturen und Prozessen sogar noch weit grundlegender wandeln müssen als die meisten Unternehmen.
Anmerkungen
1 Don Tapscott, Mit Enterprise 2.0 gewinnen, in: Wilms Buhse und Sören Stamer (Hrsg.), Enterprise 2.0: Die Kunst loszulassen, Berlin 2008, S. 123-148.
2 Dirk Baecker, Studien zur nächsten Gesellschaft, Verlag Frankfurt 2007, S. 7.
3 Ebenda S. 14.
4 Gary Hamel, Das Ende des Managements, Berlin 2008, S. 363.
5Gundolf S.Freyermuth, Offene Geheimnisse: Die Ausbildung der Open-Source-Praxis im 20. Jahrhundert, in: Bernd Lutterbeck (Hrsg.), Open Source Jahrbuch 2007, Berlin 2007,
5Gundolf S.Freyermuth, Offene Geheimnisse: Die Ausbildung der Open-Source-Praxis im 20. Jahrhundert, in: Bernd Lutterbeck (Hrsg.), Open Source Jahrbuch 2007, Berlin 2007,
S. 17-57.
6 Vgl. hierzu: Ulrich Klotz, Die zweite Ära der
Informationstechnik, in: HARVARDmanager 12 (1991) 2, S. 101-112.