Vous êtes sur la page 1sur 303

IT-Know How

IT-Business-Informationen
für die IT-Berufe
IT-, ITS-Kaufmann /-frau
Fachinformatiker

Cu B.A. Januar 2002


Inhaltsverzeichnis
• IT-Grundlagen

o Business Reengineering
o Change Management
o Contentmanagement
o Customer Relationship Management CRM
o Data Warehouse
o Datenbank Management
o Enterprise Application Integration
o Enterprise Ressource Planning ERP
o Groupware und CSCW
o Informationspolitik
o IT Strategie
o Qualitätsmanagement in der Softwareentwicklung
o Software Reengineering
o Wissensmanagement

• IT-Kultur

o Computerethik
o Cyberculture
o Die Geschichte des Internets
o Die Zukunft des Internets
o Philosophie
o Recht
o Revolution

• Internet

o Architektur des Internets


o Contentmanagement (s.h. IT-Grundlagen)
o Das Portal
o Dienste
o eBusiness und eCommerce
o Internet Organisation
o Standards im Internet
o Suchmaschinen
o W3C Standards
o Webserver

Cu B.A. Januar 2002


• Projektmanagement

o Analyse und Design


o Datenmodellierung
o Evaluation_Pflichtenheft
o Informationssystem
o Konzepte
o Problemlösung
o Relationales Datenbankmodell ERD
o System Engineering

• Hilfsmittel Methoden

! Brainstorming
! Brainwriting oder Methode 635
! Delphi
! Die morphologische Methode
! Inverses Brainstorming
! Synektik

• Sicherheit

o Computerviren
o Datenschutz
o Denial of Service
o Firewall
o Kryptographie
o Risikoanalyse

• Software

o Betriebssysteme
o Datenbanken
o Programmierung
o Software Eigenschaft

• Systeme Hardware

o Datenträger
o Der Rechner
o Eingabe
o Mobile Devices
o Prozessor

Cu B.A. Januar 2002


• Tele-Kommunikation

o Client
o Das OSI
o Middleware
o Netzwerk
o Netzwerkprotokolle
o Telekommunikation Hardware

• Wissen

o Führung
o Globalisierung und Informationstechnologie
o Komplexität
o Kunden
o Strategie

• Kommunikation

! 10 Regeln fuer Pressearbeit


! Bewertungskreterien fuer Kurzreden
! Das Interview
! Das Statement
! Der Vortrag
! Die Podiumsdiskussion

Cu B.A. Januar 2002


IT-Grundlagen
o Business Reengineering
o Change Management
o Contentmanagement
o Customer Relationship Management CRM
o Data Warehouse
o Datenbank Management
o Enterprise Application Integration
o Enterprise Ressource Planning ERP
o Groupware und CSCW
o Informationspolitik
o IT Strategie
o Qualitätsmanagement in der
Softwareentwicklung
o Software Reengineering
o Wissensmanagement
Business Reengineering

Der englische Begriff Reengineering kommt ursprünglich aus der Informationstechnik


und umschreibt einen Vorgang, bei dem man versucht, ein bestehendes System ohne
Rückführung auf seine Spezifikation durch ein anderes System zu ersetzten. Das in
diesem Ursprung enthaltene "Ersetzen durch etwas völlig anderes (neues)" findet sich
auch im Organisationsgestaltungskonzept Business Process Reengineering oder kurz
BPR wieder. BPR ist ein vergleichsweise junger Ansatz, der Ende der 80er Jahre in den
USA entwickelt wurde und mit dem Bestsellerbuch von Michael Hammer und James
Champy "Reengineering the Corporation" seit seinem Erscheinen 1993 eine sehr
grosse Bekanntheit und Implementierungsverbreitung erfahren hat.
Unter Business Process Reengineering versteht man das fundamentale Überdenken
und die radikale Neugestaltung der Unternehmung in ihrer Gesamtheit, mindestens
aber der grundlegenden und wesentlichen Unternehmensprozesse. Ziel dabei ist eine
erhebliche Verbesserung der kritischen Leistungsdimensionen Qualität, Zeit, Kosten
und Service. Dabei konzentriert sich das BPR auf die folgenden vier Kernthemen:
• Die Orientierung an den kritischen Geschäftsprozessen
• Die Ausrichtung der kritischen Geschäftsprozesse am Kunden
• Die Konzentration auf die Kernkompetenzen
• Die Nutzung modernster Informationstechnologie (IT)
Für das Gelingen von BPR unverzichtbar ist die Bereitschaft zu einem mentalen
Wandel aller Beteiligten im Unternehmen, denn nach Hammer und Champy geht es
nicht nur darum, einzelne Abläufe zu optimieren, sondern einen völligen Neubeginn zu
wagen - eine Radikalkur durchzuführen. Dafür sei es notwendig, so die Autoren, dass
das Unternehmen einen Grossteil traditioneller Weisheiten über Bord wirft und sich
überlegt, welche Vorgehensweisen zum aktuellen Zeitpunkt adäquat wären.
Um über das Konzept des BPR Klarheit zu bekommen, müssen verschiedene zentrale
Begriffe einheitlich verstanden werden: Fundamental, Radikal, Verbesserung um
Grössenordnungen, Geschäftsprozess, Kerngeschäftsprozesse, Kernkompetenzen,
Induktives Denken, Visionen, Structure follows Process.

Fundamental

Unternehmer, Führungskräfte und Mitarbeiter müssen sich im BPR zu Beginn


grundlegende Fragen stellen und damit die Fundamente ihres Geschäfts auf den
Prüfstand stellen.
Beispiel: Was tun wir? Warum machen wir diese Dinge? Weshalb machen wir diese
Dinge auf diese Art und Weise?
Mit diesen Fragen beginnt ein Unternehmen am Nullpunkt seines Geschäfts und lenkt
die Aufmerksamkeit auf informelle und unausgesprochene Annahmen, Prämissen und
Regeln, die sich bei genauer Betrachtung für die entsprechende Marktsituation oft als
inadäquat und ungeeignet erweisen. Hammer und Champy verdeutlichen dieses
fundamentale "In Frage stellen" mit einem Beispiel aus dem Bankwesen. Eine dort zur
Verbesserung des Bankgeschäfts häufig gestellte Frage ist "Wie können wir die
Kreditwürdigkeit unserer Kunden wirksamer überprüfen?". Die Fragestellung beruht auf
der breit geteilten Ansicht, die Bonität der Kunden müsse auf jeden Fall überprüft
werden, übersieht jedoch, dass die Überprüfungskosten oft die Verluste aus unsicherer
Kreditgeschäften übertreffen. BPR hingegen stellt sich zuerst die Frage nach dem, Was
ein Unternehmen tut, bevor es dazu übergeht, das Wie der Geschäfte zu beleuchten.
BPR-gerecht würde man in diesem Beispiel zuerst danach fragen, ob die durchgängige
Überprüfung potentieller Kreditkunden überhaupt sinnvoll und notwendig ist .

Radikal

Aus dem Lateinischen Begriff radix (Wurzel) ableitend betonen Hammer und Champy,
dass das BPR-Konzept keine oberflächliche Schönheitskorrektur sei, sondern an die
Wurzeln der Unternehmung rühre. Es gehe den Dingen dabei stets auf den Grund,
breche radikal mit der Vergangenheit und erziele durch eine völlige Neugestaltung mehr
als die blosse Modifizierung bestehender Geschäftsabläufe.

Verbesserung um Grössenordnungen

Hammer und Champy versprechen bei richtiger Umsetzung des BPR-Konzepts eine
erhebliche Verbesserung um Grössenordnungen. Leistungssteigerungen um
beispielsweise 10% werden dabei nicht als Ziel des BPR verstanden. Die Autoren
propagieren hingegen die Realisierung "von ganzen Quantensprüngen".

Geschäftsprozess - Kerngeschäftsprozesse

Unter einem Geschäftsprozess versteht man eine Reihe von strukturierten Aktivitäten,
die für den Kunden zu einem wert- und nutzenvollen Ergebnis führen sollen und die
Wertschöpfung eines Unternehmens steigern (Wertschöpfungskette). Die Schaffung
von Kundennutzen steht dabei im besonderen Blickpunkt der BPR-Massnahmen.
Zu den Kerngeschäftsprozessen eine Unternehmens zählt man dabei z.B. die
Eingangslogistik, die Produktion, den Vertrieb, die Ausgangslogistik und den
Kundendienst, die durch sogenannte unterstützende Prozesse wie die Beschaffung und
den Einkauf begleitet werden. Im Zuge der Implementierung von BPR ist es von
besonderer Bedeutung die jeweils kritischen Geschäftsprozesse zu identifizieren, also
diejenigen, die für das Gesamtziel des Unternehmens nachhaltig und langfristig wichtig
sind. Weitere Merkmale kritischer Geschäftsprozesse können z.B. die hohe Bedeutung
eines Prozesses für die Problemlösung und Zufriedenheit interner oder externer
Kunden, die starke Auswirkung eines Prozesse auf die
Kostenintensität/Kapitalbindungsdauer, die durchschlagende Wirkung eines Prozesses
auf die Produktqualität oder die vergleichsweise lange Dauer eines Geschäftsprozesses
sein. Je nach Unternehmensbranche sowie den angestrebten Wettbewerbszielen wie
Kostenführerschaft oder Differenzierung können im BPR andere Geschäftsprozesse
eines Unternehmens als kritische Prozesse bestimmt werden.
Kernkompetenzen

Als Kernkompetenzen bezeichnet man spezielle Fähigkeiten eines Unternehmens,


durch die es sich deutlich von den meisten anderen Unternehmen seines Marktes
abheben kann. Sie eröffnen dem Unternehmen zumindest potentiell den Eintritt in
andere Märkte, können von Konkurrenzunternehmen nur sehr schwer imitiert werden
und tragen zu den vom Kunden wahrgenommenen Vorzügen des Endproduktes
massgeblich bei. Im BPR konzentriert man sich vor allem auf diese Kernkompetenzen.
Bei eingehender Prüfung können im Unternehmen jedoch in der Regel nur eine
überschaubare Anzahl an Kompetenzen als solche identifiziert werden.

Induktives Denken

Hammer und Champy verweisen darauf, dass die meisten Führungskräfte sehr gut in
der Lage seien, durch Deduktion vorliegende Probleme zu lösen. Sie seien brillant
darin, Probleme zu definieren, verschiedene Lösungsansätze zu bewerten und dabei
nach geeigneten Lösungen zu suchen. Gerade im Zusammenhang mit dem Einsatz
modernster Informationstechnologie, wie es das BPR vorsieht, kommt es nach Ansicht
der Autoren jedoch viel stärker darauf an, eine Lösung zu erkennen, für die man das
entsprechende Problem im Unternehmen erst aufspüren muss, um es dann damit lösen
zu können. Als Beispiel führen Hammer und Champy das weltweit bekannte
Unternehmen Xerox an, das in den späten 50er Jahren seinen ersten kommerziellen
Kopierer nur unter erheblichen Problemen auf den Markt bringen konnte. Kein
potentieller Käufer hatte damals erkannt, dass dieses Gerät, der sog. "914", ein
Problem lösen konnte, das bis dahin noch niemand bewusst verspürt hatte: Die
Möglichkeit, beispielsweise ein Skript, Handout oder Protokoll an eine grössere Anzahl
von Zuhörern oder Beteiligten direkt austeilen zu können, war damit entstanden und
erwuchs innerhalb kürzester Zeit zu einem nicht mehr fortzudenkenden Anspruch und
Bedürfnis. Nach Hammer und Champy liegt demnach die wahre Kraft induktiven
Denkens in Verbindung mit neuesten, technologischen Möglichkeiten darin, Antworten
auf Probleme zu finden, von denen der Mensch bzw. der Markt (noch) gar nicht weiss,
dass er sie überhaupt hat.

Visionen

Visionen stehen am Anfang des BPR. Sie definieren das Fernziel, das sich die
Unternehmung für seine Zukunft vorstellt. Es handelt sich bei Hammer und Champy
"sowohl um eine qualitative wie auch quantitative Beschreibung, auf die das
Unternehmen immer wieder vor und während des Reengineering zurückgreifen kann,
als Erinnerung an die Zielsetzung des BPR, als Massstab, um den Fortschritt zu
messen, und als Ansporn für die Fortführung des Reengineering-Projekts."
Structure follows Process

Die Organisation eines Unternehmens wird üblicherweise in die Ablauf- (Prozess) und
die Aufbauorganisation (Struktur) unterteilt. Zwischen Prozess und Struktur ergeben
sich eine grosse Anzahl an Wechselwirkungen, wobei in traditionellen Unternehmen,
die Prozesse nur im Rahmen der vorgegebenen Strukturen ablaufen können und sollen.
BPR verkehrt nach Koenigsmarck dieses Prinzip in sein Gegenteil: die Struktur folgt
den Ansprüchen der im Unternehmen ablaufenden (erfolgs)kritischen
Geschäftsprozesse. Die gegebene Aufbaustruktur wird danach beurteilt, ob und
inwieweit sie effiziente und effektive Prozesse vor allem in Bezug auf eine starke
Orientierung an Kundenbedürfnissen zulässt.
Change Management

Change Management heisst, Veränderungsprozesse auf Unternehmens- und


persönlicher Ebene zu planen, zu initiieren, zu realisieren, zu reflektieren und letzten
Endes zu stabilisieren. Das Spektrum der Veränderungsinhalte reicht dabei von der
strategischen Ausrichtung bis zur Durchführung von Massnahmen zur
Persönlichkeitsentwicklung der Mitarbeiter.
Change Management ist die laufende Anpassung von Unternehmensstrategien und -
strukturen an veränderte Rahmenbedingungen. Wandel repräsentiert heute in
Unternehmen nicht mehr den "exotischen" Sondervorgang, sondern eine häufig
auftretende Regelerscheinung. Das Verhältnis der Gleichgewichts- und
Ungleichgewichtsphasen in der Unternehmensentwicklung hat sich zu Gunsten mehr
oder weniger turbulenter Veränderungsphasen verändert. Das "business as unusual"
wird eher zur Regel als zur Ausnahme. Alle Prozesse der globalen Veränderung, sei es
durch Revolution oder durch geplante Evolution, fallen in das Aufgabengebiet des
Change Management.
Dabei sind zwei grundsätzliche Typen des Change Managements zu unterscheiden:
Die Organisationsentwicklung. Sie ist der weicher und stärker evolutionär angelegte
Ansatz und war für Jahrzehnte die dominierende Form des Change Management. Die
gedankliche Grundlage liegt in der Annahme, dass die Ziele des Unternehmens mit den
Zielen des Mitarbeiters in Einklang gebracht werden können. Aus der Praxis heraus
wissen wir, dass nur in den seltensten Fällen diese Übereinstimmung erreicht werden
kann.
Das Reengineering. Seine Hauptarten sind die Corporate Transformation und die
Business Transformation. Sie repräsentieren die „härteren“ Formen des Change
Managements, da sie alle Bereiche des gewachsenen Kontexts zur Disposition stellen.

Phasen von Veränderungsprozessen

Um den Veränderungsprozess erfolgreich managen zu können, muss analysiert


werden, in welchen Phasen der Prozess abläuft und welche Situationen in den
jeweiligen Abschnitten anzutreffen sind.
Am erfolgreichsten sind die Unternehmen, die in der Lage sind, sich am schnellsten auf
die veränderten Bedingungen einzustellen. Dies verlangt bewusste, von der
Organisation geplante und initiierte Lernprozesse mit dem Ziel der Effizienzsteigerung.
Damit untrennbar verbunden ist die Fähigkeit der Mitarbeiter im Unternehmen, das
eigenen Verhalten im Unternehmenskontext (z.B. Prozesse, Produkte,
Ressourceneinsatz, Kunden) zu reflektieren.
Der dabei stattfindende Veränderungsprozess vollzieht sich in 7 typischen
Phasen:
• Schock und Überraschung
Konfrontation mit unerwarteten Rahmenbedingungen. Dies kann „zufällig“
erfolgen (z.B. durch schlechte Geschäftsergebnisse) oder bewusst gesteuert
werden (z.B. durch eine 3tägige Veranstaltung „Tal des Todes“). Dabei sinkt die
wahrgenommene eigene Kompetenz, denn es wird festgestellt, dass sich die
entwickelten Handlungsentwürfe nicht für die neuen Bedingungen eignen.
• Verneinung und Ablehnung
Hier werden die Werte aktiviert, die die Überzeugung stärken, dass eine
Veränderung nicht notwendig sei. Somit besteht keine Notwendigkeit zur
Veränderung, so dass die eigene wahrgenommene Kompetenz wieder steigt.
• Rationale Einsicht
Die Notwendigkeit zur Veränderung wird erkannt, wodurch die eigene
Kompetenz wieder abnimmt. Der Fokus der Lösungssuche liegt auf kurzfristigen
Lösungen, wobei dabei aber nur Symptome behandelt werden. Die Bereitschaft,
die eigenen Verhaltensweisen zu ändern, ist nicht vorhanden.
• Emotionale Akzeptanz
Diese Phase ist die entscheidende und wird auch als Krise bezeichnet. Gelingt
es, die Bereitschaft zu wecken, Werte und Verhaltensweisen wirklich in Frage zu
stellen, könne zukünftig neue und bis dahin ungenutzte Potentiale im
Unternehmen erschlossen werden. Im "worst case" hingegen werden die
Veränderungsprozesse gestoppt oder verlangsamt.
• Ausprobieren und Lernen
Die nun vorhandene Akzeptanz zum Change setzt die Bereitschaft für einen
Lernprozess in Gang. Dabei können nun neue Verhaltensweisen oder Abläufe
ausprobiert werden, wobei es Erfolge und Misserfolge geben wird. Aufgabe des
Change Managers ist es dabei, für frühzeitige Erfolge (Achieve early wins!) zu
sorgen (z.B. durch kleinere und leichtere Projekte). Die wahrgenommene
Kompetenz steigt in dieser Phase wieder an.
• Erkenntnis
Beim Üben und Lernen werden nun immer mehr Informationen gesammelt. Dies
wiederum wirkt als Feedback, in welchen Situationen welches Verhalten
angemessen ist, was wiederum zu einer Erweiterung des Bewusstseins führt.
Das verbreiterte Verhaltensrepertoire verbessert die Flexibilität der Organisation.
Die nun wahrgenommenen Kompetenz übersteigt die Kompetenz vor der
Veränderung.
• Integration
Die neu entwickelten Denk- und Verhaltensweisen werden völlig integriert und
übernommen. Sie gelten jetzt als selbstverständlich und werden weitgehend
unbewusst vollzogen.
Widerstand

Fragt man Mitarbeiter in Unternehmen zu ihrer Einstellung zum Wort Veränderung, ist
festzustellen, dass die meisten Mitarbeiter negative Einstellungen oder
Wahrnehmungen gegenüber diesem Begriff haben. Die Antworten und Aussagen
reichen von Verlust des Arbeitsplatzes, der Stellung oder der sozialen Sicherheit bis zur
Befürchtung einer höheren Belastung am Arbeitsplatz.
Die Auswirkungen von Veränderungen auf die meisten Angestellten, sowohl in Linien-
als auch in Leitungsfunktionen sowie die Auswirkungen auf das allgemeine
Leistungsniveau sind in der Regel negativ. Die Auswirkungen umfassen Sorgen, Stress,
Frustration und eine generelle Ablehnung der Veränderung.
Die meisten Mitarbeiter im Unternehmen haben eher einen Widerstand gegenüber
Veränderungen als die Veränderung als Chance zur Verbesserung zu begrüssen. Das
halbvolle Glas ist eher halbleer als halbvoll. Sie befürchten, etwas zu verlieren, weil zum
Teil Informationen darüber fehlen, was die veränderte Zukunft bringen wird, was
passieren wird und welche Anforderungen und Aufgaben dann an sie gestellt werden.
Führt die Veränderung gar zum Abbau von Arbeitsplätzen, haben diejenigen, die "übrig
geblieben" sind, immer noch eine Ablehnung gegenüber der Veränderung. Ursache
dafür sind unter anderem die gestiegenen Verantwortungsbereiche und die neuen
Aufgabenfelder. Andere Mitarbeiter können sich sogar schuldig dafür befinden, dass sie
die "Überlebenden" des Veränderungsprozesses sind und andere "verloren" haben. Die
emotionalen Einstellungen können zusätzlichen Stress im Unternehmen erzeugen.
Diese Probleme der Wirkungen von Veränderungsprozessen müssen beachtet werden,
um die positiven und angestrebten Effekte der Veränderung zu erreichen. Dabei hängt
der Erfolg der Veränderung massgeblich von der Fähigkeit des Unternehmens ab, seine
Mitarbeiter in den Veränderungsprozess vollständig zu integrieren.
Contentmanagement

Was ist ein CMS?

Das Internet wächst ständig und damit auch die Anzahl der auf den Servern
bereitgestellten Dokumente. Durch die steigende Zahl dieser Online-Publikationen und
die zunehmende Kombination mit Datenbankdaten wird die manuelle Verwaltung immer
schwieriger. Auch wird es immer wichtiger, Inhalte in verschiedenen Formaten
mehrfach verwenden zu können sowie zusätzliche Präsentationskanäle (html, pdf usw.)
adäquat zu bedienen. Hier greifen Content Management Systeme (CMS) ein. CMS
sollen Inhalte für verschiedene Ausgabemedien und Zielgruppen aktuell und strukturiert
zur Verfügung stellen sowie deren Erstellung von Anfang an organisieren. Dabei
bezeichnet Content gleichermassen alles, was in digitaler Form publiziert werden kann:
Texte, Grafiken, Audio und Video.

Grundsätzlich zeichnen sich CMS durch folgende wichtige Funktionen aus:

Dokumentenmanagement Die Fülle unterschiedlicher Publikationen muss bequem


verwaltet werden können. Dabei helfen Seiten-
Templates, Assistenten und andere Hilfsmittel auch
HTML-unerfahrenen Autoren und Redakteuren bei der
Erstellung von Seiten. Die einzelnen Benutzer greifen auf
vorgefertigte Templates zurück, innerhalb derer sie je
nach Zugriffsrechten Texte bearbeiten können, ohne in
das Layout einzugreifen.

Workflowmanagement Eine Vielzahl von Interaktionen muss koordiniert werden.


Innerhalb des Systems wird ein Rollenkonzept erstellt,
das die Arbeitsabläufe des Teams wiederspiegelt. So
kann beispielsweise festgelegt werden, dass bestimmte
Inhalte eines Redakteurs erst veröffentlicht werden, wenn
ein Chefredakteur diese gesehen hat.

Benutzer- und Damit wird beispielsweise festgelegt, wer an welchen


Zugriffsrechteverwaltung Teilen einer Site arbeiten darf und was er dort ändern
kann. So sollen sich Redakteure nicht gegenseitig "in die
Quere kommen", indem Sie zur selben Zeit das gleiche
Dokument bearbeiten. Natürlich spielen in einer immer
mehr vernetzten Arbeitswelt auch Sicherheitsbedenken
eine grosse Rolle.

Import- und Sie dienen der Einbindung und Ausgabe von


Exportschnittstellen Dokumenten und multimedialen Inhalten. Diese Funktion
ist wichtig, damit gegebenenfalls auch fremde
Dateiformate, wie z.B. PDF oder Flash, auf der Seite
eingebunden oder in umgewandelter Form veröffentlicht
werden können. Vielleicht sollen bereits vorhandene
Inhalte ebenfalls voll in das neue System übernommen
werden.

Versionskontrollen Bestandsänderungen am Content sollten jederzeit erfasst


werden, um sicher zu stellen, dass die Mitarbeiter an der
jeweils aktuellsten Version arbeiten. Diese sollten
archiviert werden, um im Notfall ältere Versionen wieder
herstellen zu können.

Indizierungs- und Alle Dokumente und Inhalte müssen jederzeit schnell


Suchfunktionen auffindbar sein. Dies kann zum Beispiel in Form einer
graphischen Navigation erfolgen.

Wann ist ein CMS sinnvoll?

Für kleinere Sites dürfte der Einsatz eines professionellen CMS nach wie vor unrentabel
sein, selbst wenn sich mittlerweile einige Anbieter genau dieser Zielgruppe zuwenden.
Werden die zu verwaltenden Inhalte jedoch umfangreicher, vielfältiger oder funktionaler
ist eine effektive Organisation gefragt. Kundenorientierte, speziell angepasste Lösungen
oder flexible Systeme nach dem Baukastenprinzip sollen hier auch individuellen
Anforderungen gerecht werden.

Die Einführung eines CMS bietet sich vor allem bei folgenden Merkmalen an:

Viele Inhalte Werden ständig, zyklisch oder ereignisorientiert, neue Inhalte


veröffentlicht? Zur Pflege einer fortwährend aktuellen Präsentation,
an der gleich mehrere Online-Redakteure zeitgleich am Inhalt
arbeiten, wird der Einsatz eines CMS allein durch den Umfang
unersetzlich. Auch müssen Mechanismen gegeben sein, den Zugriff
auf einzelne Teile des Contents zu beschränken - nicht jeder soll
alles ändern dürfen.

Verteiltes Jeder Mitarbeiter soll sich auf seine speziellen Fähigkeiten


Arbeiten konzentrieren können: Der Layouter beschäftigt sich ausschliesslich
mit der optischen Präsentation, der Redakteur ist für die
Textproduktion zuständig und der Administrator verfügt über die
technischen Kenntnisse. Ein CMS kann den gesamten Workflow
während der Produktion abbilden und hilft somit, Fehler durch
mangelnde Kenntnisse Einzelner zu verhindern. Ein weiterer Vorteil
liegt in der Unterstützung vernetzter Arbeitsplätze.
Ausgabekanäle Das Internet mag derzeit als das Nonplusultra für
Unternehmenspräsentationen erscheinen. Dennoch müssen auch
herkömmliche Präsentationskanäle (Printmedien, CD-ROM Kataloge
usw.) aus dem gleichem Datenbestand bedient werden können.
Ebenso sollten aktuelle Entwicklungen berücksichtigt werden. Ein
zukunftsorientiertes CMS unterstützt diesen Ansatz durch getrennte
Haltung der reinen Content-Daten.

e-Business Gerade im e-Business Bereich kommt man kaum noch um den


Einsatz eines CMS herum. Viele Hersteller haben das bereits seit
geraumer Zeit erkannt und bieten e-Commerce Zusatzmodule, Shop-
Systeme oder branchenspezifische Komplettlösungen an. Besonders
interessant sind hier auch Personalisierungsfunktionen und
Möglichkeiten, das Besucherverhalten zu dokumentieren.

Worauf muss ich achten?

Diese Checkliste soll lediglich ein erster Anhaltspunkt bei der Beschäftigung mit CM-
Systemen sein. Mit zunehmendem Projektumfang und steigenden Anforderungen an
das CMS ist eine professionelle Beratung unumgänglich.

Folgende Funktionen und Eigenschaften sollten jedoch in jedem Fall beachtet werden:

Saubere Struktur Content-, Layout- und Strukturdaten sollten getrennt


gespeichert und verwaltet werden.

Visualisierung Die Struktur der Informationen sollte flexibel dargestellt werden


können, beispielsweise in einer Baumansicht oder einem
Graph. Neue Elemente sollten direkt generiert werden.

Workflow Das CMS sollte in der Lage sein, die Arbeitsabläufe innerhalb
eines Teams abzubilden.

Meta-Daten Es sollte die Möglichkeit gegeben sein, Meta-Daten zu


definieren und zu verwalten.

Link Management Links sollten überprüft und on-the-fly generiert werden.

Versions-Abgleich Es sollte ein ständiger Versionsabgleich erfolgen, nicht nur der


Daten-Objekte, sondern auch der Meta-Daten. Nur so ist
sichergestellt, dass komplette Versionen später wieder
hergestellt werden können.

Zugriffsverwaltung Es muss die Möglichkeit gegeben sein, die Rechte


verschiedener Usergruppen zu verwalten. Die Zugänge sollten
in Standard-Directory-Services wie X500 oder LDAP
integrierbar sein.

Suchmöglichkeit Eine gute Volltextsuche (nach Möglichkeit unabhängig vom


Dokumentenformat) sollte integriert sein.

Erweiterungsfähigkeit Die Möglichkeit spezifischer Anpassungen sollte unterstützt


werden.

Activity Logs Alle Aktivitäten sollten nach Möglichkeit geloggt werden.

Integration Bestehende Websites, Applikationen, Datenbanken, o.ä. sollten


problemlos integrierbar sein.
Customer Relationship Management

CRM - Customer Relationship Management - ist ein Managementansatz, der die


Kundenorientierung des Unternehmens verstärkt. Durch die heute verfügbaren neuen
Technologien in den Bereichen Enterprise Network / Internet ergeben sich sowohl für
Industrie- als auch für Dienstleistungsunternehmen wettbewerbsbestimmende neue
Chancen. Der CRM-Ansatz bietet neue Möglichkeiten zur Verstärkung der
Kundenbindung, aber auch zur Entwicklung neuer Dienstleistungsprodukte und zur
Erschliessung neuer Märkte. Zudem eröffnet er neue Ansätze zur Effizienzsteigerung
der Leistungserstellung und nicht zuletzt zur Verbesserung der
Unternehmenskommunikation auf allen Stufen.
CRM bezeichnet einen weitreichenden Prozess, der alle Bemühungen eines
Unternehmens umfasst, die Kunden zu gewinnen, zu halten und zu pflegen sowie ihre
Beziehungen zum Unternehmen auf einen optimalen Servicegrad auf- und auszubauen.

CRM-Ziele

• Steigerung der Kundenloyalität durch überlegene, bedürfnisgerechte


Gesamtmarktleistung (Produkt, Service, Zusatz- und Nebenleistungen,
Kommunikation)
• Verstärkung der Konkurrenzfähigkeit durch Alleinstellung und Abhebung
gegenüber der Konkurrenz, insbesondere durch rascheren, einfacheren
direkteren und "situationsgerechten" Kundenzugang zum Unternehmen und all
seinen Leistungsträgern.
• Expansion in neue Märkte durch systematische, laufende Verbesserung der
"Market- und Business Intelligence" unter Nutzung der neuen Technologien.
• Kürzere "Time to market" durch rascheres Anpassen und aktives Nutzen der
sich schnell ändernden Marktgegebenheiten.
• Steigerung der Produktivität durch Reduzierung der Kosten pro Transaktion
sowie durch laufende Verbesserung der Qualität der Kunden- und internen
Interaktionen.
CRM ist ein holistischer Managementansatz, der insbesondere die strategischen,
operativen und dispositiven Dimensionen eines Unternehmens miteinander verbindet.
Schon seit längerem ist bekannt, dass für die rasche Neuausrichtung von Unternehmen
nicht die Schnittstellen zwischen den Funktionsbereichen des Unternehmens kritisch
sind, sondern die ganzheitlich-koordinierte Umsetzung der Strategie in operative
Strukturen und Prozesse mit entsprechendem dispositivem Ressourceneinsatz.
CRM-Konzepte und Lösungen

Mit CRM ist es möglich, den Kunden in allen Leistungsdimensionen persönlich,


subjektiv und individuell zu bedienen. Der Kunde wird von einem anonymen Marktobjekt
zu einem Partner mit individuellen Bedürfnissen und Bedarfsprofil. Daraus entstehen
zwei Erfolgsanforderungen an das Unternehmen. Einerseits gilt es, durch geschickte
Segmentierung so weit wie möglich auf diese individuellen Kundenbedürfnisse
einzugehen und die entsprechenden Unternehmensleistungen in allen Dimensionen
des Marketing (Marktleistung, Pricing, Logistik, Kommunikation) zeitgerecht anzubieten
und zu erbringen.
Andererseits ist durch entsprechende Ausgestaltung der unternehmerischen Prozesse
und Nutzung der neuen Technologien die Rentabilität in dieser marktseitig notwendigen
Vielfalt sicherzustellen. CRM-Lösungen beinhalten somit die kontinuierliche
Optimierung dieser beiden Aspekte mittels gezielter Nutzung ensprechender
Technologien:
• Verbessern des Kundenkontakts durch direkte, ganzheitliche und
kundenspezifische Kommunikations mittels Kundendatenbanken,
Auftragsbearbeitungs-Systeme, Customer Contact Centers, Help Desk usw.
• Kontinuierliches verbessern der Produktivität durch intelligentes,
prozessorientiertes Work Management, wie beispielsweise durch die Integration
von Enterprise Resource Planning Systeme (ERP-Systeme).
• Sicherstellen und Ausbauen der verantwortungsgerechten Befähigung aller
Mitarbeitenden, diese immer rascher ändernden Anforderungen im Markt und
hinsichtlich der Effizienz des Unternehmens zeitgerecht zu erfüllen. Auch dazu
bieten die neuen Technologien neue Möglichkeiten un direkte kürzere
Kommunikationswege (z.B. eMail).

Die praktische Realisierung von CRM-Projekten erfordert ein schrittweises Vorgehen.


Vorerst empfiehlt es sich, im Rahmen eines Vorprojektes eine ganzheitliche,
längerfristige "CRM-Vision" als Grundlage zu schaffen und damit das Management in
das Vorhaben einzubinden. Als wesentlich haben sich dabei die Erarbeitung klarer und
zeitlich etappierter CRM-Konzepte und die daraus abgeleitete Pflichtenhefte für die
technische Gestaltung von CRM-Lösungen erwiesen. In den jeweiligen
Realisierungsphasen liegt das Schwergewicht auf die Befähigung aller Mitarbeiter zur
kundenwirksamen Nutzung der neuen technologischen Möglichkeiten. Das erfolgreiche
Einführen von CRM-Lösungen setzt eine intensive und laufende Zusammenarbeit von
betriebswirtschaftlich und anwendungsorientierten Mitarbeitern mit IT-Fachleuten in
einem entsprechenden Projektmanagement voraus.
Data Warehouse

Daten sind in keinem Unternehmen Mangelware. Und mit jedem Bestell- oder
Liefervorgang, jeder Buchung, jeder Transaktion werden es mehr. Gigantische
Datenbanken aufzubauen und zu füllen, ist schon lange keine Kunst mehr. Eine wahre
Kunst ist es aber, die gesammelten Daten auch gewinnbringend zu nutzen: dazu gehört
es, wichtige Informationen aus dem Datenberg zu filtern und sie zu
unternehmensrelevantem Wissen anzureichern. und so eine Wissensgrundlage zu
schaffen, auf der sich gesicherte strategische Entscheidungen fällen lassen.

Bevor es möglich ist, gesichterte strategische Entscheidungen aufgrund eines Data


Warehouse zu fällen, müssen erst einmal zwei grundlegende Probleme aus dem Weg
geräumt werden:
1. Das Unternehmen hat nicht eine grosse Datensammlung, sondern viele kleine.
Und die befinden sich an verschiedenen Orten. So wacht die Abteilung Marketing
beispielsweise über die Daten der letzten Werbeaktion, der Verkauf über die
Umsatzzahlen. Die Kundendaten dagegen lagern separat in einer dritten
Datenbank. Eine Aufgabe des Data Warehouse ist es, diese Daten unter einen
Hut zu bringen.
2. Die Daten liegen in verschiedenen Formaten vor - von unterschiedlichen
Datenbanken bis zum Excel-Sheet oder einer Word-Datei und zum Zettelkasten
auf dem Schreibtisch. Logisch, dass es hier unvollständige, fehlerhafte
Eintragungen und Duplikate gibt.

Die Konsequenz: Wer aus Daten Informationen ziehen will, muss die unterschiedlichen
Datenquellen zusammenfassen, in die für Datenanalyse geeignete Form aufbereiten
und den Anwendern verfügbar machen. Das alles kann ein Data Warehouse. Als
zentrale Datenbank sammelt es regelmässig Einträge aus den operativen Systemen,
ordnet und verdichtet sie und versieht sie mit beschreibenden Zusatzinformationen,
sogenannten Metadaten.
Bei der Übernahme der Daten ins Data Warehouse sorgen Transformationsprogramme
für Einheitlichkeit. So entsteht eine konsistente Datengrundlage, bereinigt von
Unstimmigkeiten, wie zum Beispiel eventuelle Fehler in der Datenstruktur,
Falscheinträge, oder unterschiedliche Schlüssel für gleiche Kundengruppen. W.H.
Immon, einer der Väter der Data Warehouse Idee schätzt, dass 80 Prozent der
Anstrengung in die Datenextraktion, also beispielsweise Zugriff und Säuberung
investiert werden müssen.
Planung

Ein Data Warehouse stellt die Ordnung her, die nötig ist, um in dem Datendickicht eines
Unternehmens die Informationen zu finden, die man benötigt. Als schlüsselfertige
Standardlösung ist es nicht zu kaufen. Grösse und Konzept sind von
Unternehmensstruktur und Anforderungen der Benutzer abhängig. Wer einsteigt, muss
allerdings nicht sofort ein ganzes Einkaufszentrum planen. "Think big, start small",
lautet der Ratschlag vieler Experten. So kann ein modularer Aufbau sinnvoll sein. Man
startet mit sogenannten Data Marts, vergleichbar mit einzelnen Fachabteilungen
innerhalb des Data Warehouses.
Und auch ein Unternehmen, dessen Datenvolumen sich im Vergleich mit einem
Handelsriesen winzig ausnimmt, sollte über den Einsatz eines Data Warehouses
nachdenken. Ab wann sich der Aufbau eines Data Warehouses lohnt, sollte man nicht
an der Unternehmensgrösse fest machen sondern an zwei anderen Faktoren: der Zahl
der Kunden in Kombination mit der Zahl der Transaktionen.
Nicht jedes Grossunternehmen braucht ein Data Warehouse, und wer eines braucht,
muss nicht unbedingt ein Grossunternehmen sein.

OLAP und Data Mining

Bei den Werkzeugen zur Analyse des strukturierten Datenbestands im Data Warehouse
tauchen verstärkt zwei Begriffe auf: OLAP und Data Mining.
OLAP (Online Analytical Processing) ist mit einer stark erweiterten Tabellenkalkulation
vergleichbar. Die Daten werden in einem multidimensionalen Datenwürfel
zusammengefasst und dann in Berichten mit Tabellen und Grafiken angezeigt. Der
Nutzer kann sich die Kriterien, die für ihn interessant sind, auswählen und miteinander
kombinieren.
So kann der Marktforscher die Faktoren Zeit, Gebiet und Produkt in einem Datenwürfel
kombinieren, um das gewinnträchtigste Produkt zu ermitteln. Innerhalb dieser Analyse
kann er die einzelnen Bezugsgrössen beliebig verändern, beispielsweise die
Umsatzzahlen wochen-, tages- oder stundenweise vergleichen.
Internet- und Intranet erweitern die Fähigkeiten von OLAP. So bieten viele OLAP-
Werkzeuge die Möglichkeit, Reports über das Internet oder ein Intranet durchzuführen.
Der Mitarbeiter kann über einen Browser auf den OLAP-Server seines Unternehmens
zugreifen, erhält die notwendigen Daten und erstellt ortsunabhängig und flexibel die
gewünschten Analysen.
Während OLAP die Antwort auf gezielte Fragen gibt, schürfen Data Mining-Tools nach
unbekannten Zusammenhängen innerhalb der Unternehmensdaten. Dazu nutzen sie
neuronale Netze und genetische Algorithmen.
Ein bekanntes Beispiel, das den Nutzen des Schürfens in der Datenmine zu
verdeutlicht, handelt von einer Handelskette, die durch das Analyse-Instrument
entdeckte, dass am frühen Abend häufig Bier und Windeln gemeinsam in einem
Einkaufskorb landen. Warum? Die Verantwortlichen zerbrachen sich die Köpfe, bis sie
die Antwort fanden. Nach Feierabend kaufen viele junge Väter noch schnell die
benötigten Windeln und belohnen gleichzeitig ihren Einsatz für Haushalt und Familie mit
ein paar Flaschen Bier. Das Handelsunternehmen zog aus dieser Erkenntnis
Konsequenzen: Beide Produkte wurden nebeneinander plaziert.
Die meisten Data Mining-Werkzeuge verwenden die folgenden Suchstrategien:
• Assoziationen suchen nach Mustern, bei denen das Auftreten einer Sache das
Auftreten einer anderen impliziert. Beispiel: "Käufer von Taucheraustrüstungen
sind gute Kandidaten für Urlaubsreisen nach Australien"
• Sequentielle Muster sind zeitliche Zusammenhänge. Beispiel: "Wenn der Preis
von Aktie X um 10% steigt, sinkt der Preis von Aktie Y eine Woche später um
15%"
• Clustering sucht nach Gruppierungen und Klassifikationen auf hoher Ebene.
Beispiel: "Über 70% der Wechselwähler haben ein Einkommen von über 60'000
Dollar, sind zwischen 40 und 50 Jahre alt="" und leben in der Nähe von XYZ."
Datenbank Management

Was ist eine Datenbank ?

Datensatz (record): ein Datensatz ist die Vertretung und Darstellung eines materiellen
oder immateriellen "Objekts". Ein Datensatz enthält verschiedene Attribute (attribute),
die die Beschreibung entsprechender Eigenschaften des Objekts sind (z.B. Name, Titel
...) sich selbst beschreibend: eine Datenbank soll ihre eigene Struktur beschreiben.
Diese Beschreibung der Struktur einer Datenbank nennt man Meta-Daten (meta-data)
(Daten über die Daten).
Eine Datenbank besteht aus Daten und Meta-Daten. Die Meta-Daten sind in einem
Bereich der Datenbank gespeichert, der data dictionary oder system catalog heisst. Der
data dictionary (system catalog) beschreibt und definiert die Tafeln, Kolumnen, Indices
usw., die die Struktur der Datenbank bilden integriert: eine Datenbank enthält nicht nur
unverbundene Datensätze, sondern ermöglicht auch, die Beziehungen zwischen
Datensätzen zu erfassen (die Datensätze sind aufeinander bezogen, in ein Ganzes
integriert).
Eine Datenbank besteht aus:
• Daten: den integrierten Datensätzen
• Software: dem Datenbank Management System (DBMS)

Was ist ein Datenbank Management System (DBMS) ?

Unter Datenbank Management System verstehen wir einen Satz von Programmen, die
dazu dienen, Datenbanken und die mit ihnen verknüpften Anwendungen zu definieren,
verwalten und zu bearbeiten. Das DBMS ist die Software, die zwischen den
spezifischen Anwendungen (z.B. Akzessionsverwaltung) und den Daten vermittelt.
Ein DBMS umfasst typischerweise folgende Leistungsmerkmale:
• eine Data Definition Language (DDL): enthält die Befehle zum Erstellen,
Modifizieren oder Löschen einer Datenbank
• eine Data Manipulation Language (DML): enthält die Befehle zum Unterhalt einer
Datenbank, d.h. zum Eintragen, Ändern oder Auswählen von Daten aus einer
Datenbank. Ein wichtiger Bestandteil der DML ist eine Query Language, die das
Auffinden und Aussuchen von Daten ermöglicht.
• eine Data Control Language (DCL): enthält die Befehle zur Sicherheit einer
Datenbank. Bestandteile dieser Sicherheit sind u.a.:
o security system: Zugangskontrolle: verhindert, dass nicht dazu
Bevollmächtigte zu Daten Zugang haben oder Daten bzw. die Datenbank
verändern können.
o integrity system: Sicherung der Unversehrtheit der Daten
o concurrency control system: Regelung von gleichzeitigem Zugang zur
Datenbank
o recovery control system: Mittel zur Wiederherstellung der Datenbank im
Falle von Hardware- oder Softwareproblemen
o user-accessible catalog: Nutzer-zugängliche Beschreibung der Daten
• einen View Mechanism, der es jedem Nutzer erlaubt seine eigenen Sichteweisen
(views) der Datenbank zu schaffen.

Ein DBMS verwaltet die physischen Details der Datenspeicherung, sodass sich die
Anwendungsprogramme nur um die logische Struktur der Daten und ihrer Beziehungen
kümmern muss, nicht darum, wie diese Daten gespeichert sind. Ein DBMS, das auf
verschiedenen Arten von Computern (Mainframes, Minicomputer, PCs) läuft, nennt man
skalierbar (scaleable). Dies ist besonders wichtig für Netzwerke, die verschiedenste
Arten von Computern (vom Supercomputer bis zum Notebook und PDA) enthalten.

Ein DBMS steht in folgender Umgebung:


• Hardware
• Software: Betriebssystem, Netzwerk-Software, DBMS, Anwendungsprogramme
• Daten
• Prozeduren: Tätigkeiten von Personen an der Datenbank
• Personen: Endnutzer, Datenverwalter, Datenbankverwalter, Datenbank-
Designer, Programmierer

Datenbank-Modelle

Die wichtigsten heute üblichen Datenbankmodelle sind:


• das hierarchische Datenbankmodell
• das Netzwerk-Modell
• das relationale Datenbankmodell
• das objektorientierte Datenbankmodell
Das hierarchische Datenbankmodell

Abbildung: Beispiel einer Datenbank nach dem hierarchischen Modell

Eine hierarchische Datenbank ordnet verschiedene Datentypen verschiedenen Ebenen


einer Datenstruktur zu. Die Verbindungen zwischen den Daten verschiedener Ebenen
sind einfach. Ein Nachteil des hierarchischen Modells ist, dass ein einzelner
Dateneintrag unter Umständen mehrfach erscheinen muss, da er in verschiedenen
hierarchischen Zusammenhängen steht. Ein weiterer Nachteil des hierarchischen
Modells ist, dass es schwierig ist, im Nachhinein die Struktur der Datenbank wesentlich
zu verändern.

Das Netzwerk-Modell

Abbildung: Beispiel einer Datenbank nach dem Netzwerkmodell

In einer Datenbank nach dem Netzwerkmodell hat prinzipiell jeder Datenknoten


unmittelbaren Zugang zu jedem anderen. Deswegen muss kein Knoten mehrfach
vorhanden sein. Das Netzwerkmodell einer Datenbank wurde 1969 von der Data Base
Task Group (DBTG) von CODASYL (Conference on Data Systems Languages)
formuliert, um die Notwendigkeit von mehrfachen Datenknoten des hierarchischen
Modells zu vermeiden. Der wichtigste Nachteil des Netzwerkmodells ist, dass die
Struktur sehr schnell ziemlich undurchsichtig wird.

Das relationale Datenbankmodell

Abbildung: Beispiel einer relationalen Datenbank

Das Hauptmerkmal einer relationalen Datenbank ist, dass die Daten in Tabellen
(tables), akademisch Relationen (relations) genannt, organisiert sind, die voneinander
weitgehend unabhängig sind. Eine Tabelle / Relation ist ein zweidimensionales Gebilde
aus Reihen (rows) und Spalten (columns). Alle Einträge in einer bestimmten Spalte
haben dieselbe Bedeutung (z.B. Titel, Untertitel ...). Jede Spalte repräsentiert ein
bestimmtes Attribut (attribute) der durch die Tabelle repräsentierten Objekte. Jede
Reihe enthält die Attributs eines einzigen Objektes der Tabelle. Die Reihenfolge der
Reihen und Spalten in einer Tabelle ist ohne Bedeutung. Verschiedene Tafeln sind
dadurch direkt verknüpft, dass sie jeweils mindestens eine Spalte mit demselben
Attribut enthalten. Über direkt verknüpfte Tafeln lassen sich indirekte Vernüpfungen
herstellen.
Der Hauptvorteil des relationalen Datenbankmodells ist, dass die Struktur der
Datenbank verändert werden kann (indem man Tabellen hinzufügt oder entfernt), ohne
dass deswegen Anwendungen geändert werden müssen, die sich auf die ältere Struktur
gründeten. Ein weiterer Vorteil des relationalen Modells ist, dass man beliebig viele
Sichtweisen (views) oder virtuelle Tabellen (virtual tables) der Daten mit
unterschiedlichster logischer Struktur schaffen kann, indem verschiedene Tabellen bzw.
Teile von Tabellen kombiniert werden. Dazu muss die Datenbank physisch nicht
verändert werden.
Die Meta-Daten der Struktur der ganzen Datenbank und ihrer Tabellen wird in
sogenannten Schemas (schemas) definiert und gespeichert. Der Bereich der Werte, die
ein Attribut (d.h. ein Eintrag in einer bestimmten Spalte) annehmen kann, nennt man
Wertebereich (domain) des Attributes. Dieser Wertebereich wird durch
Einschränkungen (constraints) näher bestimmt.
Das relationale Datenbankmodell wurde 1970 von E. F. Codd bei IBM entworfen. 1979
erschien dann mit Oracle die erste kommerzielle Implementierung. Heute gibt es über
100 relationale DBM's.

Das objektorientierte Datenbankmodell

Abbildung: Beispiel für ein objektorientiertes Datenschema


Abbildung: Notation für das objektorientierte Datenschema

Für manche "Nicht-Standard-Anwendungen" erwies sich das relationale


Datenbankmodell als nicht besonders geeignet. Solche Anwendungen sind:
• Rechnerunterstützte Ingenieursysteme (computer aided engineering
systems): Anwendungen aus diesem Gebiet sind unter anderem dadurch
gekennzeichnet, dass häufig grosse Mengen komplex strukturierter Daten zu
bearbeiten sind. Zum Beispiel müssen von einem EDM-System (engineering
data management system) komplexe Beschreibungsdaten, die die Struktur zu
fertigender Produkte definieren, verwaltet werden. Diese Beschreibungsdaten
werden dann im weiteren Verlauf der Konstruktion und Arbeitsvorbereitung etwa
um technologische Daten angereichert. Datenbanksysteme dienen in diesem
Anwendungsgebiet dazu, solche angereicherten Beschreibungsdaten einheitlich
und konsistent zu verwalten.
• Computerunterstützte Softwareentwicklung: Auch hier fallenkomplexe Daten
in den verschiedenen Phasen an. Zum Beispiel entstehen innerhalb der
Entwurfsphase Diagramme und Schnittstellenbeschreibungen, die später etwa
zur Erzeugung von Dokumenten dienen. Im weiteren Prozess werden viele
verschiedenartige Dokumente erzeugt. Datenanksysteme übernehmen dabei die
Verwaltung aller innerhalb des Softwareentwicklungsprozesses anfallenden
Daten in Form eines sogenannten Repositories.
• Multimedia- und Hypermedia.
Datenbank-Architektur

Die wichtigste Unterscheidung ist:


• Standalone System: ein einziger Computer und Nutzung durch gleichzeitig nur
einen Nutzer.
• Multiuser System:
o Teleprocessing: mittels dummer Terminals; der Hauptcomputer
übernimmt alle Verarbeitungs-Aufgaben
o Client/Server: die Clients übernehmen alle Anwendungen, der Server
(der Serverteil des DBMS) beschränkt sich auf den unmittelbaren Umgang
mit den Daten. Der Server ist also ein echter Database Server.
o Resource Sharing: ein Client/Server-System, bei dem man statt eines
Database-Servers einen File-Server hat; d.h. der Server ist relativ dumm,
das ganze DBMS liegt bei den Clients. Nachteil: starker Datenverkehr, da
die Daten erst bei den Clients verarbeitet werden und so immer ganze
Datenfiles übertragen werden.
o Distributed Data Processing: ein Client/Server-System mit sowohl
mehreren Servern als auch mehreren Clients, wobei verschiedene Server
dieselbe Datenbank oder identische Teile derselben Datenbank enthalten
können. Vorteil: geringer Datenverkehr, da man die Daten dort speichert,
wo sie zumeist gebraucht erden. Problem: die Daten auf allen Servern
immer auf dem gleichen Stand halten.

Datenbank-Design

Die Grundlage einer guten, brauchbaren Datenbank bleibt auch trotz aller
Erleichterungen durch moderne Hilfsmittel beim Entwurf und der Erstellung einer
Datenbank ein gutes Datenbank-Design, d.h. vor allem, dass man sich klar ist, wozu
eine Datenbank dienen soll, welche Zwecke sie erfüllen soll. Dies ist eine sachliche
Aufgabe, die immer die Nutzer, ihre Bedürfnisse, Eigenarten, Schrullen usw., im Auge
behalten muss.
Man unterscheidet beim Datenbank-Design folgende Ebenen:
• Konzeptionelles Design: Design der Datenstrukturen, des Gebrauchs der
Daten usw. ohne Rücksicht auf ein bestimmtes Datenbank Management System
(DBMS)
• Logisches Design: Umwandlung des konzeptionellen Designs auf die
Strukturen des vorgesehenen Datenbank Management Systems (DBMS)
• Physisches Design: Design der Implementierung
Enterprise Application Integration (EAI)

EAI-Lösungen bilden das Fundament für die Integration von Anwendungen. Die
verfügbaren EAI-Konzepte unterscheiden sich von existierenden Middleware-
Produkten, Applikationsservern und Gateways aufgrund ihres grösseren
Leistungsumfangs. Neben dem Transport von Daten aus der einen in die andere
Lösung werden auch betriebswirtschaftliche Anforderungen berücksichtigt.
Applikationsprofile Applikationen, die mit anderen integriert werden müssen, können in
zwei Gruppen eingeteilt werden:
• Standardanwendungen mit einer festgelegten API und einer unterstützten
Connection Middleware Nicht-Standardanwendungen, die eine API haben
können, aber über keine gängige Connection Middleware verfügen.
Standardapplikationen ermöglichen leichten Zugriff durch Client-Software-
Komponenten. Beispiel hierfür ist SAP R/3, das eine RPC-basierte API
verwendet.
• Nicht-Standardanwendungen werden meist als Legacy- oder Individual-
Applikationen bezeichnet. Um eine Integration mit diesen Anwendungen zu
ermöglichen, muss ihnen eine "Softwareschicht" oder ein Wrapper zugefügt
werden. Dieser Wrapper erzeugt eine Art Standardschnittstelle.

Konnektivität und Prozessintegration

Die zu integrierenden Anwendungen müssen auf irgendeine Weise miteinander


verbunden werden, Informationen müssen ausgetauscht werden. In der IT-Welt gibt es
grundsätzlich drei Arten, Applikationen zu verbinden:
• über Nachrichten (Message Queues)
• über eine RPC-basierte Methode
• über eine Prozessintegrationsmethode
Prozessintegration basiert generell auf Komponentenmodellen wie zum Beispiel COM,
CORBA oder JavaBeans. Diese Technologien haben als Basis selbst RPCs. Die
betriebswirtschaftlichen Anforderungen von ERP-, SCM- und CRM-Systemen müssen
berücksichtigt werden. EAI-Lösungen kümmern sich um den Austausch von Daten und
lassen Geschäftsprozesse miteinander kommunizieren. Sie gleichen unterschiedliche
Formate ab und sorgen dafür, dass die Informationen in den richtigen Anwendungen
zur Verfügung stehen.

Grundsätzlich existieren drei Ansätze zur Integration:


• Individuelle Integration: Der erste Ansatz fusst auf einer Individuallösung,
deren in C oder C++ geschriebene APIs sich um die Konnektivität und
Verarbeitungsanforderungen kümmern.
• Integration per Plug-and-Play: Plug-and-Play-Adapter stellen hier die
Verbindung zwischen den zu integrierenden Anwendungen her. Es bedarf
keinerlei Entwicklungsaufwands, die vorgefertigen Adapter können von
entsprechenden Anbietern lizenziert werden. Dieser Ansatz funktioniert nur bei
Standardanwendungen.
• Integration per Plug-and-Customize: Bei diesem Ansatz wird der Grossteil der
Integration durch vorgefertigte Prozess-Adapter vereinfacht. Die verwendeten
Adapter können spezialisiert und modifizert werden. Die Plug-and-Customize-
Lösung erlaubt auch die Integration von Nicht-Standard-Applikationen.
Das Thema Enterprise Application Integration hat nicht zuletzt im Zeitalter von E-
Commerce neuen Auftrieb erhalten. Unternehmen brauchen die Fähigkeit,
Informationstechnologie als Wettbewerbsvorteil einzusetzen. Das reibungslose
Zusammenspiel der vielen unterschiedlichen Unternehmensanwendungen kann
massgeblich zum Erfolg oder Misserfolg eines Unternehmens beitragen. Auch die
Vision eines grenzenlosen elektronischen Handels kann nur dann Wirklichkeit werden,
wenn unterschiedlichste Systeme miteinander verbunden werden. Die Integration von
Geschäftsprozessen und Anwendungen ist und bleibt daher einer der grössten
Herausforderungen, der sich IT-Abteilungen stellen müssen.

Weitere Informationen:
• Kriterienliste für die EAI-Produktauswahl, Richard Nussdorfer
• Competence Center zum Thema EAI-Systeme
Enterprise Ressource Planning ERP

Als Enterprise Ressource Planning (ERP) Software bezeichnet man eine Sammlung
von Applikationen, die Abteilungen mit Finanz- und Personalressourcen automatisieren
und Herstellern helfen Aufgaben wie Bestellungsabwicklung und Produktionsplanung zu
erfüllen. Diese Systeme sind hoch komplex, und ein Einsatz dieser Software erfordert
oftmals eine Änderungen der internen Prozesse des Kunden.
Die Einsatzgebiete von ERP Systemen werden immer vielfältiger und die Anbieter von
ERP Software stossen in neue Gebiete wie Supply Chain Management (SCM) oder
Customer Relationship Management (CRM) vor.

Einsatzgebiete von ERP Systemen

Finanz - Module für Buchhaltung und zur Überwachung des Zahlungsverkehrs. Als
Beispiele:
• Hauptbuch: Beinhaltet zentralisierte Kontenpläne und Firmenbilanz
• Debitoren: Überwacht Kundenzahlungsn und Aussenstände
• Kreditoren: Überwacht Zahlungenstermine an Lieferanten
• Anlagevermögen: Verwaltet Abschreibungen und Kosten die mit Gebäuden,
Eigentum und Ausstattung zusammenhängen
• Finanzverwaltung: Überwacht und analysiert den Kassenbestand,
Finanzverträge und Investitionsrisiken
• Kostenkontrolle: Analysiert Gemeinkosten und Kosten von Produkten und
Produktionsaufträgen

Human Ressources - Software um personelle Aufgaben für Manager und individuelle


Angestellte zu übernehmen. Als Beispiele:
• Verwaltung von Arbeitsreserven: Automatisiert Personalmanagementprozesse
wie Anwerbung neuer Mitarbeiter, Geschäftsreisen und Urlaubszuteilungen
• Lohnlisten: Handhabt die Buchung und Vorbereitung von Lohnschecks, Löhnen
und Boni
• Selbstverwaltung personeller Daten: Mitarbeiter können ihre persönlichen
Daten selbstständig ändern und aktualisieren (Adressänderungen,
Bankverbindungen,...)

Produktion und Logistik - Eine Gruppe von Applikationen für Produktionsplanung,


Auftragserfassung und Vertrieb zum Kunden. Als Beispiele:
• Produktionsplanung: Vollführt Kapazitätsplanungen und erstellt tägliche
Produktionspläne für Erzeugerfirmen.
• Materialmanagement: Kontrolliert den Einkauf von Rohmaterialien und die
Bestände
• Auftragserfassung und Auftragsabwicklung: Automatisiert den
Datenerfassungsprzess von Kundenaufträgen und verfolgt den Status von
Aufträgen
• Lagerverwaltung: Enthält Datensätze von lagerverwalteten Gütern und wickelt
den innerbetrieblichen Transport ab.
• Güterverkehrsteuerung: Arrangiert, plant und überwacht die Zustellung von
Produkten zu Kunden mittels LKWs, Zügen und anderen Transportmitteln
• Projektmanagement: Überwacht Kosten und Arbeitspläne auf einer Projekt-
nach-Projekt Basis
• Werkswartung: Erstellt Pläne und Übersee-Instandhaltungen von internen
Anlagen
• Kundenservice: Administriert Wartungsverträge and überprüft Verträge und
Garantien bei Kundenanfragen.

Begriffe in Zusammenhang mit ERP


Prozesskostenrechnung
Eine Form der Buchführung, die versucht die wirklichen Kosten jedes Teils eines
Geschäftsprozesses zu quantifizieren. Für Produzenten könnte es eine Alternative zu
jährlichen Standardproduktionskosten sein.

Kapazitätsplanung
Die konstante Produktion von Gütern. Sie erlaubt dem Produzenten unter nahezu voller
Auslastung ohne Spitzen und Tiefen in der Auslastung

Kostenstellenrechnung
Prozess um Gemeinkosten verschiedenen Geschäftsobjekten zuzuordnen. Die
Gemeinkosten inkludieren (Gehälter, Gebäudeinstandhaltung und andere Kosten, die
nicht direkt produzierten Gütern zuordenbar sind)

Anlagevermögen
Inkludiert Gebäude, Möbel, Maschinen, Fahrzeuge und anderes physisches Eigentum,
das für Aufgaben wie zB. Abschreibung und Wartung verwaltet werden muss.

Just-in-time Produktion
Lieferung vom Materialien zu einer Produktionsstätte zu dem Zeitpunkt, in dem sie
gebraucht werden um den Lageraufwand zu verringern.
Logistikverwaltung
Verwaltet Operationen der Produktion, wie Vertrieb, Werksdisposition und Transport.

Herstellungsressourcenplanung
Koordiniert den Produktionsprozess. Sie erlaubt eine Vernetzung verschiedener
Funktionen, wie Planung, Produktion, Vertrieb und Disposition

Supply Chain Management


Verwaltet Angebot und Nachfrage im Zusammenhang mit Bestellung, Produktion,
Lagerhaltung, Bestandsüberprüfung und Vertrieb eines Produktes.
Groupware und CSCW

Informationsarbeiter als Zielgruppe

Im Mittelpunkt des Interesses an Groupware stehen Informationsarbeiter ("white collar


workers") und ihre kooperativen Beziehungen zu anderen Mitgliedern einer
Arbeitsgruppe. Informationsarbeiter können sowohl Sachbearbeitungsstellen als auch
Planungs- und Entscheidungsstellen im Informationssystem der Unternehmung sein.
Informationsverarbeitungsaufgaben bilden den Arbeitsinhalt für den Informationsarbeiter
in Büroumgebungen. Informationsverarbeitung ist gekennzeichnet durch informationelle
Prozesse, in denen durch fortschreitende Verwirklichung und Konkretisierung das
gewünschte Ziel "aufgabengerechte Information" in Form von "Informationsprodukten"
erreicht werden soll. Informationsverarbeitungsaufgaben implizieren Gruppenarbeit,
wenn unter den gegebenen Randbedingungen Informa-tionsprodukte nur gemeinsam,
aber nicht einzeln erzielt werden können. Eine anerkannte Definition für Gruppenarbeit
findet sich b ei Rosenstiel. Offensichtlich dabei ist, dass sich die Gruppenmitglieder als
solche bewusst wahrnehmen müssen ("Psychologische Gruppe") und nicht nur durch
äussere Merk-male wie z.B. räumliche Nähe als Gruppe erkennbar werden
("Soziologische bzw. Geographische Gruppe").

Kooperationskonzepte für die Informationsverarbeitung

Gruppenarbeit ist durch kooperative Prozesse gekennzeichnet, bei denen mehrere


Personen individuelle Aktivitäten zur Bewältigung bestimmter Aufgaben oder Probleme
aufeinander abstimmen können oder müssen, um ein gemeinsames Ziel zu erreichen.
Nach Piepenburg sind für kooperatives Arbeiten die Faktoren
• Zielidentität
• Plankompatibilität
• Ressourcenaustausch
• Regelbarkeit und
• Kontrolle
notwendig.

Bei den kooperierenden Aufgabenträgern muss eine zumindest teilweise


Übereinstimmung in deren Zielen vorhanden sein. Kooperatives Arbeiten setzt neben
einer Zielidentität auch ein aufeinander Abstimmen der Handlungspläne der beteiligten
Individuen (Plankompatibilität) voraus. Die Qualität von Kooperationen wird u.a. davon
bestimmt, inwieweit ein Austausch von Ressourcen gewährleistet werden kann.
Das Angleichen von Plänen wie auch der Ressourcenaustausch ist nicht immer von
vornherein exakt festzulegen, sondern erfordert ein bestimmtes Ausmass an
Regelbarkeit ("Flexibilität") der Handlungspläne für die Koordination verschiedener
Kooperationspartner.
Die Kontrolle über den Handlungsablauf stellt einen unabdingbaren Bestandteil der
Regulierbarkeit dieses Ablaufes dar und bestimmt das Ausmass, in dem ein
angestrebtes Ziel erreicht werden kann. Demnach lässt sich eine Kontrollierbarkeit der
eigenen Handlungsabfolgen wie die der anderen Kooperationspartner als
Voraussetzung für das Zustandekommen kooperativen Arbeitens ableiten.
Der Kommunikationswissenschaftler Herrmann hält wiederum folgende ähnliche
Bestimmungselemente für Kooperationen bedeutsam:
• Gemeinsame bzw. überlappende Ziele
• Gemeinsamer Plan
• Bewusstsein, dass man mit jemanden kooperiert
• Gemeinsames Material, das die Kooperation koordinierend vermittelt
• Bewusste Kommunikation bezüglich der Kooperation
Im Gegensatz zu Piepenburg jedoch hält er nicht die Gesamtheit der Faktoren für
kooperatives Arbeiten für unbedingt notwendig, sondern es reicht für eine Kooperation
bereits aus, wenn nur eines dieser Bestimmungselemente gegeben ist.

Dimensionen von Kooperationen

Neben den Bedingungen für kooperatives Arbeiten können nach Piepenburg noch drei
z.T. dichotom ausgeprägte Dimensionen von Kooperation unterschieden werden:
• Bilaterale vs. multiple Kooperation
• Konjunktive vs. disjunktive Kooperation
• Unmittelbare vs. mittelbare Kooperation
Die erste Dimension bezieht sich auf die Anzahl der Kooperationspartner - Kooperation
unter Beteiligung von zwei oder mehreren Partnern ("bilaterale vs. multiple
Kooperation"). Die zweite Dimension bezieht sich auf die Art und Weise, in der
Kooperationspartner das gemeinsam zu erreichende Arbeitsergebnis herbeiführen. Im
Gegensatz zur konjunktiven reicht es bei der disjunktiven Kooperation aus, wenn
lediglich nur einer der Beteiligten den Handlungsablauf bis hin zum Kooperationsziel
vollzieht.
Die dritte Dimension von Kooperation bezieht sich auf die räumliche und zeitliche
Distanz der Beteiligten. Eine unmittelbare Kooperation findet statt, wenn sich alle
Kooperationspartner zur gleichen Zeit am gleichen Ort aufhalten. Mittelbare
Kooperation bezieht sich auf die übrigen Formen, die sich durch die Kombination der
beiden Kriterien Zeit und Ort ergeben.
Kommunikation als Mittel für kooperatives Arbeiten

In der einschlägigen Literatur wird Kooperation eng mit dem Kommunikationsbegriff


verknüpft. Auf die vielfältigen Ausprägungen und Strukturmerkmale von
Kommunikationsprozessen (z.B. formelle/informelle oder vertikale/horizontale
Kommunikation) gehen Picot et al. näher ein.
Nach Watzlawick und Herrmann besteht zwischen Kommunikation und Kooperation
trotz des engen Zusammenhangs keine eindeutig umkehrbare Beziehung. Im
Mittelpunkt von Kooperation steht stets ein gemeinsames Handeln mindestens zweier
Personen. Das Mittel für Kooperationen stellt die Kommunikation dar. Die Art und
Qualität kommunikativer Prozesse richten sich nach den Zielen der konkreten Aktivität,
die kooperativ ausgeführt wird. Demnach macht eine komplexe gemeinsame
Handlungsplanung und -durchführung ein hohes Niveau an Kommunikation erforderlich.
Kommunikation am Arbeitsplatz hat grundsätzlich immer zwei Funktionen, eine
arbeitsbezogene und eine soziale Funktion. Die soziale Kommunikation ist auf der
Gefühlsebene der Kommunikationspartner angesiedelt und dient der Entwicklung der
persönlichen Beziehungen. Die arbeitsbezogene Kommunikation befindet sich auf der
Ebene des objektiven Austausches von arbeitsspezifischen Informationen und lässt sich
wieder untergliedern in eine inhaltsbezogene und eine arbeitsablaufsteuernde bzw.
prozessbezogene Kommunikation. Die inhaltsbezogene Kommunikation dient der
Bereitstellung von fachbezogenen Fakten oder von Methoden zur Fakten- und
Datenanalyse oder sonstigen Übertragung von Sachinformationen, während die
prozessbezogene Kommunikation Hinweise für die Arbeit und Zusammenarbeit der
beteiligten Kommunikationspartner zu geben versucht.

Definition von Groupware

Da für die drei Komponenten der Kommunikation (Arbeitsinhalt, Arbeitsablauf und


Soziale Kommunikation) in der Regel unterschiedliche Kommunikationsmedien -
technische Aspekte der Kommunikation - benutzt werden, ist davon auszugehen, dass
ein Groupware-Arbeitsplatz durch das Angebot der technischen Kommunikationsmittel
und die Organisation der Bedienerführung alle drei Ebenen einer arbeitsplatzbezogenen
Kommunikation unterstützen muss.
Resultierend aus den vorstehenden Erklärungen ist Groupware ein computergestützter
Informationsarbeitsplatz, welcher eine transparente Integration der drei Ebenen der
Kommunikation mit Informationsverarbeitungswerkzeugen möglich macht.
Diese Definition lässt noch offen, ob Groupware nur zur Erledigung kooperativen
Arbeitens genutzt werden muss oder kann, bzw. ob Groupware Ersatz oder Ergänzung
für andere Formen kooperativen Arbeitens ist. Durch diese Definition werden bewusst
Technologien ausgenommen, die lediglich die technische Gestaltung der
Kommunikation herstellen, aber keine Integration mit typischen
Informationsverarbeitungswerkzeugen (z.B. für die Textverarbeitung, Datenhaltung,
Tabellenkalkulation etc.) möglich machen.
Die Integration der drei Ebenen der Kommunikation am Arbeitsplatz beschränkt sich
nicht nur auf den Einsatz von technischen Kommunikationsmedien, sondern muss auch
Formen der persönlichen Kommunikation (z.B. verbale oder nonverbale Kommunikation
in einer Face-to-Face-Situation oder Sprache via Telefon etc.) berücksichtigen und
unterstützen können - Beispiel Integration von Telefon und elektronischem Notizblock:
automatische Anwahl der Nummer des Teilnehmers durch den Computer,
Möglichkeiten zum Anfertigen von Notizen während eines Telefonats, und automatische
Zeitrechnung durch den Computer nach Beendigung des Gesprächs.
Groupware muss die transparente Verwaltung der dabei auftretenden Medienbrüche
durch eine einheitliche Bedieneroberfläche auf dem Arbeitsplatzrechner möglich
machen. Transparenz der Integration bedeutet hier, dass die beteiligten Anwender
unbelastet von computertechnischen Aspekten ihren individuellen und kooperativen
Aufgaben am Arbeitsplatz nachgehen können. Die transparente Verwaltung
verschiedener Kommunikationsmedien und Applikationen für die
Informationsverarbeitung ("Mehrwertanwendungen") ist wichtiger als die Vermeidung
von Medienbrüchen. Schliesslich muss jeder Groupware-Arbeitsplatz an eine real
existierende Arbeitsumwelt angepasst werden, und in dieser kann nicht jeder
Kooperationspartner über dieselben technischen Medien und zur gleichen Zeit erreicht
werden.
Bisherige, z.T. sehr unterschiedliche Abgrenzungsversuche, wie sie u.a. von Ellis,
Oberquelle oder Gerhard unternommen worden sind, beziehen sich nur auf einzelne,
vornehmlich kommunikationsunterstützende Systeme an den Arbeitsplätzen von
kooperierenden Informationsarbeitern. Auch die in der Literatur oft genannte
Bezeichnung für Groupware als "Hardware und Software oder nur
Computerunterstützung für Gruppen" geht nicht auf die transparente Integration von
Werkzeugen zum Erstellen von Informationsprodukten einerseits und
Kommunikationswerkzeugen andererseits am computergestützten Arbeitsplatz ein. Um
diesen Mangel an transparenter Integration verschiedener arbeitsplatzspezifischer
Werkzeuge zu beseitigen, muss für den Informationsarbeiter ein Arbeitsplatz
geschaffen werden, der sowohl auf seine als auch auf die Bedürfnisse der
Arbeitsgruppe, in die er eingebettet ist, ausgerichtet sein muss.
Dieser anwenderorientierte Ansatz verlangt, dass sich Groupware-Benutzer durch
transparente Integration von IuK-Technologien ungeachtet der technischen Aspekte an
ihren Informationsarbeitsplätzen auf das "Was" und nicht auf das "Wie" ihrer Arbeit
konzentrieren können.

CSCW - Computer Supported Cooperative Work

CSCW ist nach dem bisherigen Erkenntnisstand eine noch nicht einheitlich verwendete
Sammelbezeichnung für ein Forschungsgebiet, auf dem sich Wissenschaftler
verschiedener Disziplinen mit der Untersuchung der Zusammenhänge zwischen
Informations- und Kommunikationstechnologien sowie kooperativem Arbeiten
auseinandersetzen. CSCW-Forschungsarbeiten bilden demnach die Grundlage für die
Entwicklung von Groupware-Anwendungen. Der hier vorgestellte Rahmen dient zur
Einordnung einzelner CSCW-Forschungsaktivitäten und hebt die Multidisziplinarität von
CSCW hervor.
Bei der Ausarbeitung von Ansätzen und Konzepten der CSCW-Systementwicklung
dominieren heute vor allem Forschungsarbeiten aus der Informatik und anderen
Computerwissenschaften, die in der Praxis zu einer Vielzahl von Kommunikations-,
verteilten Multimedia-Systemen sowie von Multi-User-Interfaces geführt haben. Diese
Systeme sind die technischen Grundlagen, auf denen heute Groupware-Anwendungen
basieren können. Zum Verständnis von Gruppenarbeit tragen vor allem empirische
Forschungsarbeiten aus den Sozialwissenschaften, der Psychologie, den
Kommunikations- und Organisationswissenschaften etc. bei.
Für die Entwicklung von Groupware müssen in Zukunft die Abhängigkeiten der drei sich
beeinflussenden Forschungsschwerpunkte von CSCW, wie sie in der vorhergehenden
Abbildung dargestellt sind, beachtet werden. Daher ist es offensichtlich, dass
Forschungsarbeiten nicht auf der Ebene von Werkzeug- und
Konzeptimplementierungen beginnen dürfen, sondern auf einer objektiven Analyse des
Arbeitsumfelds der Gruppe basieren müssen.
Aus diesem objektiven Wissen über Gruppenmechanismen und aus den von
verschiedenen Gruppenmitgliedern zu erledigenden Aufgaben müssen
Gestaltungsansätze und konzeptionelle Grundlagen für die Entwicklung von Groupware
abgeleitet werden. Zu den Gruppenmechanismen gehören soziale und funktionale, auf
die Gruppe und ihre einzelnen Mitglieder einflussnehmende Faktoren. Bei empirischen
Forschungsarbeiten über Gruppen mit CSCW-Erfahrung müssen auch
Vergleichsstudien zu früheren Forschungsarbeiten über Gruppen ohne CSCW-
Erfahrung durchgeführt werden, um die Wirksamkeit von Groupware sowie die
Akzeptanz neuer Anwendungen durch die Gruppenmitglieder objektiv beurteilen zu
können.
Das aus frühen wissenschaftlichen Untersuchungen resultierende Gruppenverständnis
ist dahingehend zu untersuchen, welche Formen an Computerunterstützung mit
welchen Eigenschaften zum Untersuchungszeitpunkt zur Verfügung standen und ob
das damals (z.T. vor zwanzig Jahren) erarbeitete Wissen auch für die gegenwärtig
soziale und technische Umwelt noch Gültigkeit hat. Bei der Untersuchung der Nutzung
von Groupware muss auch beachtet werden, dass Gruppen in der Regel nicht nur
kurzfristig und einmalig zusammenarbeiten, sondern auch über längere Zeit hinweg
bestehen. Dieser Untersuchungsaspekt, der von der bisherigen Groupware-Entwicklung
nicht ausreichend beachtet worden ist, betont, dass von einer einmaligen
Zusammenarbeit zwischen kooperierenden Informationsarbeitern nicht automatisch und
zeitunabhängig auf fortlaufende Gruppenprozesse geschlossen werden darf. Auch
müssen "natürliche" Gruppen in die Forschungsarbeit miteinbezogen werden, damit
nicht nur, von Forschern gestellte künstliche Aufgaben, sondern auch jene aus einer
praxisorientierten Arbeitsumwelt bearbeitet werden können.
Informationspolitik

Informationspolitik ist die Regelung des Zusammenwirkens von Individuen, Gruppen,


Organisationen, Kommunen und Staaten zur Erreichung zuvor festgelegter
informationspolitischer Ziele. Sie wird eingeteilt in Ordnungspolitik, Strukturpolitik und
Förderpolitik

Informationswissenschaft

Informationswissenschaft befasst sich mit der Klärung des Informationsbegriffs und des
Informationsverständnisses und seiner/ihrer erkenntnistheoretischen, historischen,
sozialen, ökonomischen, genetisch/biologischen und technischen Zusammenhänge. Sie
befasst sich weiterhin mit Theorie und Praxis des Informationsmanagements in allen
seinen Erscheinungsformen. In ihrer modernsten Ausprägung schliesst sie die Bereiche
Bibliothekswesen, Archivwesen und Museologie ein und arbeitet eng mit den
Nachbardisziplinen Betriebswirtschaft, Bildungswissenschaften, Design,
Ingenieurwissenschaften, Informatik, Kommunikationswissenschaft,
Kulturwissenschaften, Linguistik, Sozialwissenschaften, Verhaltenswissenschaften und
Volkswirtschaft zusammen. Durch Forschung und Lehre sowie durch permanente
Zusammenarbeit mit Informationspolitik und Informationspraxis leistet sie
unverzichtbare Beiträge zum technischen und sozialen Fortschritt und zur humanen
Gestaltung des Lebens.
Aufgabe der Informationswissenschaft, wie aller Wissenschaft, ist neben den Aufgaben:
• Aufstellen einer neuen Theorie
• Ermittlung neuer Grunderkenntnisse
• neue Thesen als Detaillierung von Grunderkenntnissen
• neue Thesen als Kombination von Grunderkenntnissen verschiedener
Disziplinen
• neue Thesen durch Anwenden neuer Methoden
• Quantifizierung bisher qualitativ beschriebener Zusammenhänge
• Interpretation begrenzter Einzelerscheinungen
• Materialerschliessung und -zusammenstellung nach bestimmten Aspekten
• Überblicke über Themenproblematiken nach bestimmten Aspekten
auch die Aufgabe, praktische Probleme durch Angabe konkreter Lösungswege zu
lösen. Dies geschieht - konventionell - in drei Schritten:
• Erkennen der Problemsituation und Darstellung des Problems (Stadium der
Problemerstellung)
• Analyse der Bedingungen und Methoden, die eine Problemlösung gestatten
(Stadium der Problembarbeitung)
• Aufstellung von Hypothesen und ihre Überprüfung in der Praxis (Stadium der
Problemlösung)

Informationspraxis

Informationspraxis ist die Informationsversorgung von Staat, Wirtschaft, Wissenschaft,


Medien, gesellschaftlichen Organisationen und Einzelnen durch Gestaltung und
Prägung ihres Informationsumfeldes unter Anwendung des Standes so-wie der
Forschungs- und Entwicklungsergebnisse der Informationswissenschaft(en) und ihrer
Nachbardisziplinen sowie die Erbringung von Informationsdienstleistungen aller Art.
Aufgabe der Informationspraxis ist,
• für Auftraggeber (Firmen, Firmen-Abteilungen, Behörden,
Wissenschaftseinrichtungen, Berater) die existierenden Informationsstränge zu
ermitteln, zu analysieren, kritisch zu bewerten, Vorschläge für deren
Verbesserungen in apparativer, organisatorischer, ökonomischer und
führungsmässiger Beziehung zu machen, die Einführung zu planen und
vorzubereiten, hierfür erforderliche Hardware und Software auszuwählen, die
Einführung zu überwachen, erforderliche Schulungsmassnahmen rechtzeitig
einzuleiten, Querverbindungen zu potentiellen Ko-Informato-ren herzustellen,
das Informations-Umfeld zu pflegen und die permanente Anpassung an die
technische Entwicklung sicherzustellen,
• die Informationsbedürfnisse ihrer Benutzer bezüglich des fachlichen und/oder
des zeitlichen Umfangs zu ermitteln, schnellstmöglich hierfür geeignete Quellen
auszuwählen, Suchstrategien auszuarbeiten, in den ausgewählten Quellen als
Einzelauftrag oder periodisch als Dauerauftrag zu recherchieren, die
Rechercheergebnisse benutzergerecht aufzubereiten, dem Kunden zu
präsentieren und gegebenenfalls nachzurecherchieren und/oder nachzubereiten,
• die Informationsstruktur(en) der Geselllschaft und einzelner gesellschaftlicher
Gruppen zu beobachten, zu analysieren, und Vorschläge für ihre Optimierung
durch Verbesserung von Effektivität und Effizienz zu machen.
IT Strategie

Die Fähigkeit zur schnellen Reaktion auf sich verändernde Märkte und die
Beherrschung zunehmender Komplexität - sowohl in den vernetzten Prozessen als
auch in der innovativen Produktgestaltung - entscheiden über die Wettbewerbsfähigkeit
der Finanzdienstleistungsunternehmen in der Zukunft. Diese Entwicklung - in der
Fertigungsindustrie bereits weitgehend vollzogen - erzwingt den strategischen Einsatz
des Produktionsfaktors Information.
Die Optimierung und Weiterentwicklung der Informationsverarbeitungssysteme zur
Sicherstellung der Wettbewerbsfähigkeit des Unternehmens ist unabdingbar. Dabei
gewinnt die effiziente Rollenverteilung bei der Gestaltung der Informationssysteme an
Bedeutung. Neben der Organisations-, Produkt- und Marketingstrategie ist die IT-
Strategie der entscheidende Träger der Unternehmensstrategie.
Die IT-Abteilung wandelt sich zu einem Dienstleister mit Beratungsfunktion. Sie liefert
und integriert Softwarebausteine aufgrund gemeinsam abgestimmter Regeln.
Fachbereiche und Betriebsorganisationen leisten eigenständig qualitativ hochwertige
Entwicklungsarbeit und kombinieren auf der Grundlage dieser Regeln Produkte und
Prozesse flexibel aus den gelieferten Softwarebausteinen. Diese Sichtweise hat
Konsequenzen - auf die Zusammenarbeit zwischen den Bereichen ebenso wie auf die
Prozesse innerhalb der IT-Abteilung. Fachbereiche und Betriebsorganisation müssen
als Auftraggeber verbindlich das Bausteinprinzip und die Regeln zu dessen Nutzung
anerkennen und in ihrer täglichen Arbeit berücksichtigen! Dazu zählt auch die
vollständige formale Spezifikation ihrer Anforderungen. Die IT-Abteilung muss in
strenger Kundenorientierung die Entwicklungsarbeit bei ihren Auftraggebern
unterstützen und die geforderten Softwarebausteine und Beratungsleistungen in der
vereinbarten Qualität termin- und aufwandsgerecht liefern. Eine hohe Stabilität der
Grundlagen dieser Zusammenarbeit im Zeitverlauf ist unabdingbar für den dauerhaften
Erfolg.

IT-Management wird zur strategischen Aufgabe für das


Gesamtunternehmen
Vor dem Hintergrund ständiger Paradigmenwechsel in der Informatik, kürzer werdende
Innovations- und Entwicklungszyklen von Hard- und Software, Trends zum Einsatz von
Standardsoftware, anstelle teurer Eigenentwicklungen und nicht zuletzt eines
betriebswirtschaftlich gebotenen Investitionsschutzes (die Liste liesse sich beliebig
fortsetzen) müssen neue Anwendungen in existierende, in der Regel in den 70er und
80er Jahren gewachsene, Umgebungen integriert werden.
Für jede Problemstellung existieren eigene Anwendungen. Fachliche, organisatorische
und technische Wiederverwendung sowie horizontale bzw. vertikale Datenintegration
sind noch Vision.
Dies sind Fakten, die zunächst in einem krassen Gegensatz zu den
betriebswirtschaftlichen Bedürfnissen des Unternehmens nach stabilen, flexiblen,
redundanzarmen, sicheren und bezahlbaren Informationssystemen stehen. Steigende
Aufwände für die Wartung bestehender und die Einbindung neuer Anwendungen
verbunden mit dem Risiko von Inkonsistenzen, machen die Informationsverarbeitung
zeitaufwendig, kostenintensiv und führen oft zu mangelnder Qualität.
Die Alternative einer kompletten Neuentwicklung, mit der Ablösung aller bestehenden
Informationssysteme in einem Schritt, ist extrem teuer und mit hohen Risiken behaftet -
nur wenige Unternehmen werden sich diesen Weg leisten können und wollen.
Die Informatik steht in den Finanzdienstleistungsunternehmen vor einem klassischen
Zielkonflikt. Die strategische Situation der Unternehmen fordert einen Quantensprung in
der Qualität der Informationssysteme - Schlüsselworte sind Flexibilität,
Wiederverwendung und Offenheit; schnelle Anpassungen an die sich wandelnden
Markterfordernisse müssen möglich sein. Dabei wird gleichzeitig eine deutliche
Dämpfung der Kostenverläufe gefordert, ein hinreichender Investitionsschutz muss
gewährleistet werden, Termin- und Aufwandstreue werden als Randbedingung
vorausgesetzt.
Qualitätsmanagement in der Softwareentwicklung

Unter "Softwareentwicklung" versteht man alle Tätigkeiten, die ausgeführt werden


müssen, um ein Softwareprodukt zu erzeugen. Dazu gehören Anforderungsanalyse,
Entwurf, Implementierung und Integration, Wartung, Konfigurationsmanagement,
Qualitätssicherung und Dokumentation. "Qualitätsmanagement" bezeichnet die
Planung, Steuerung und Kontrolle von Qualität.
Was bedeutet "Qualität"? Einige Fachleute verstehen unter "Qualität" die Abwesenheit
von Fehlern. Unsere alltäglichen Erfahrungen mit Softwareprodukten bestimmter
Hersteller weisen allerdings darauf hin, dass Software sehr fehlerhaft und dennoch
erfolgreich sein kann. Offenbar verfügen diese Produkte über andere "Qualitäten" als
Fehlerlosigkeit. Und offenbar bewegen diese anderen Qualitäten die überwältige
Mehrheit von Computernutzern weltweit, diese Produkte trotz ihres offensichtlich hohen
Fehleranteils zu erwerben und jahrelang damit zu arbeiten.
Im allgemeinen wird unter "Qualität" das Ausmass verstanden, in dem ein Gegenstand
geeignet ist, Anforderungen zu erfüllen. Diese Anforderungen können sich bei Software
auf Benutzerfreundlich-keit, Kompatibilität, Portierbarkeit, Integrationsfähigkeit,
Performanz, Wart- und Erweiterbarkeit sowie auf viele andere Aspekte beziehen. Damit
ist auch klar, dass "Softwarequalität" für verschiedene Benutzer völlig unterschiedliche
Dinge bedeuten kann. Unter Berücksichtigung der jeweiligen Rahmenbedingungen
müssen Anforderungen festgelegt werden, die beschreiben, was in einer spezifischen
Situation unter "Qualität" verstanden werden soll.
Es lassen sich zwei verschiedene Perspektiven des Qualitätsmanagements in der
Softwareentwicklung unterscheiden. Die erste Perspektive fokussiert auf das
Softwareprodukt, die zweite auf die Softwareentwicklung selbst – oder anders
formuliert: auf den Prozess der Entwicklung der Software bzw. auf den
Softwareprozess.
Bei der produktorientierten Perspektive werden zunächst Anforderungen an das
Softwareprodukt formuliert. Diese Anforderungen dienen als Leitlinien zur Entwicklung
der Software und als Kriterien zur Bewertung des entwickelten Produktes. In der Regel
werden diese Anforderungen im Rahmen der Anforderungsanalyse formuliert und z. B.
in Form eines Pflichtenhefts dokumentiert. Im Rahmen der Qualitätssicherung wird
überprüft, inwiefern das entwickelte Produkt diese Anforderungen erfüllt.
Bei der prozessorientierten Perspektive werden Anforderungen an den Prozess der
Softwareentwicklung formuliert. Diese Anforderungen dienen sowohl als Vorgaben z. B.
für die Gestaltung einzelner Softwareprojekte als auch als Bewertungskriterien für einen
Softwareprozess, z. B. im Rahmen der Zertifizierung eines
Qualitätsmanagementsystems.
Selbstverständlich besteht zwischen der produkt- und der prozessorientierten
Perspektive eine enge Verbindung. Es handelt sich lediglich um unterschiedliche
Perspektiven auf den selben Gegenstand, nämlich die Softwareentwicklung . Die
Verfechter beider Perspektiven haben das selbe Ziel, sie setzen lediglich
unterschiedliche Schwerpunkte bei der Wahl ihrer Mittel.
Die Verfechter der prozessorientierten Perspektive gehen davon aus, dass ein qualitativ
hochwertiger Prozess (das heisst ein Prozess, der die an ihn gestellten Anforderungen
erfüllt) mit einer hohen Wahrscheinlichkeit auch ein qualitativ hochwertiges Produkt
hervorbringt. Demzufolge konzentrieren sie sich auf die Gestaltung des
Softwareprozesses. Die Verfechter der produktorientierten Perspektive gehen davon
aus, dass zur Erreichung eines qualitativ hochwertigen Softwareproduktes die
Überprüfung der Anforderungen an das Produkt höchste Priorität haben sollte.
Demzufolge betonen sie die Qualitätssicherung des Produktes - in der Regel in Form
von Tests oder Inspektionen.
In der Praxis der Softwareentwicklung werden beide Perspektiven miteinander
kombiniert. Die Unterscheidung der Perspektiven dient in erster Linie zum besseren
Verständnis der unterschiedlichen Ansätze zur Verwirklichung des
Qualitätsmanagements in der Softwareentwicklung.

Produktorientiertes Qualitätsmanagement

Im Rahmen der produktorientierten Perspektive lassen sich im wesentlichen zwei


verschiedene Massnahmenbündel unterscheiden: die dynamische Qualitätssicherung
(oder anders formuliert, das Testen) und die statische Qualitätssicherung. (Daneben
gibt es noch formale Verifikation und symbolische Ausführung. Da diese Ansätze jedoch
nur in Spezialbereichen verwendet werden, wird hier nicht näher darauf eingegangen.)

Dynamische Qualitätssicherung (Softwaretesten)

Softwaretesten bedeutet Überprüfen von Software durch Ausführen eines Testobjektes


(z. B. eines Softwaremoduls) mit Testdaten. Softwaretesten wird deshalb auch als
"dynamische Qualitätssicherung" bezeichnet. Das Ziel des Testens besteht darin,
Fehler zu finden. Fehler sind Abweichungen von den Anforderungen. Softwaretests sind
nicht geeignet, die Sicherheit, Korrektheit oder Qualität eines Softwareproduktes
nachzuweisen. Softwaretests können lediglich Abweichungen von den Anforderungen
(= Fehler) aufzeigen. Selbst wenn bei umfassenden und sehr gründlichen Softwaretests
keine Fehler gefunden wurden, heisst das nicht, dass das getestete Objekt keine Fehler
enthält.
Jedem Softwaretest liegt folgende Struktur zugrunde:
• Definition von Testfällen
• Auswahl einer Testdatenkombination
• Definition des erwarteten Ergebnisses
• Ausführen des Testobjekts mit einer Testdatenkombination
• Vergleich des erwarteten mit dem tatsächlichen Ergebnis
Weicht das erwartete von dem tatsächlichen Ergebnis ab, liegt ein Fehler vor.
Ein Testfall beschreibt eine Menge von Eingabedaten, mit denen ein bestimmter Aspekt
des Verhaltens eines Testobjekts geprüft werden soll. Ein Testfall spezifiziert eine
Menge von Testdaten bzw. Testdatenkombinationen. Testdaten sind die Eingabewerte,
die bei der Testdurchführung verwendet werden. Eine Testdatenkombination ist eine
Kombination von Testdaten, die gemeinsam für eine Ausführung des Testobjekts
verwendet werden. Ein Testverfahren bezeichnet eine begründete Vorgehensweise zur
Aufdeckung einer bestimmten Klasse von Fehlern.
Es gibt sehr unterschiedliche Testverfahren. Da Testobjekte in der Regel nicht
vollständig, das heisst mit allen denkbaren Testdatenkombinationen getestet werden
können, geben Testverfahren Hinweise zur Auswahl von Testfällen und von
Testdaten(kombinationen). Die verschiedenen Testverfahren unterscheiden sich im
wesentlichen dadurch, welche Schwerpunkte bei der Auswahl von Testfällen und
Testdaten(kombinationen) gesetzt werden. Durch diese unterschiedlichen
Schwerpunkte ergeben sich auch unterschiedliche Stärken und Schwächen der
einzelnen Verfahren.Die Testverfahren können in funktionsorientierte und
strukturorientierte Testverfahren unterteilt werden.
Funktionsorientierte Testverfahren benutzen die Spezifikation des Testobjekts als
Referenz für die Bildung von Testfällen. Beispiele für funktionsorientierte Testverfahren
sind die Äquivalenzklassen-Analyse, die Grenzwertanalyse und die Ursache-Wirkungs-
Analyse.
Strukturorientierte Testverfahren benutzen die Implementation des Testobjekts (in der
Regel den programmierten Code) als Referenz für die Bildung von Testfällen.
Strukturorientierte Testverfahren lassen sich unterteilen in kontrollflussorientierte
Testverfahren und datenflussorientierte Testverfahren.
Bei den kontrollflussorientierten Testverfahren werden Strukturelemente (z. B.
Anweisungen, Zweige, Bedingungen) zur Erzeugung von Testfällen verwendet. Bei den
datenflussorientierten Testverfahren werden Zugriffe auf Variablen (z. B. Definitionen
oder berechnende Verwendungen) zur Erzeugung von Testfällen verwendet.
Der Aufwand für das systematische Testen von Software ist hoch. Verschiedene
empirische Untersuchungen zeigen, dass die Kosten für das Testen 20 bis 50 % des
gesamten Projektbudgets ausmachen können. Wird weniger systematisch getestet,
drohen noch weitaus höhere Kosten, z. B. für die Behebung von Fehlern bei Kunden
bzw. für die Anfertigung und Auslieferung verbesserter Versionen.

Statische Qualitätssicherung

Die statische Qualitätssicherung umfasst alle Aktivitäten, die Informationen über ein
Prüfobjekt bereitstellen, ohne es dynamisch auszuführen. Ein typisches Beispiel der
statischen Qualitätssicherung sind Inspektionen. Dabei wird ein Objekt durch ein Team
von drei bis sieben Teilnehmern überprüft. Das Team versucht, durch gemeinsames
Lesen des Prüfobjekts und mit Hilfe von Checklisten Fehler zu entdecken. Prüfobjekte
können z. B. Anforderungsdokumente, Daten- oder Ablaufmodelle oder Softwarecode
sein.
Typische Fragen, die im Rahmen einer solchen Sitzung überprüft werden, sind:
• Stimmt das Objekt mit der Spezifikation überein?
• Ist das Objekt vollständig?
• Ist die gewünscht Funktionalität korrekt implementiert worden?
• Enthält das Objekt nur die Funktionen / Inhalte, die es enthalten soll?
• Sind relevante Richtlinien, Normen und Standards eingehalten worden?
Einer der Vorteile der statischen Qualitätssicherung besteht darin, dass bereits in den
frühen Phasen der Softwareentwicklung Zwischenprodukte systematisch überprüft
werden können. Das Testen hingegen erfordert ablauffähigen Softwarecode. Ein
weiterer Vorteil der statischen Qualitätssicherung besteht darin, dass Fehler direkt - und
nicht nur anhand ihrer Auswirkungen wie beim Testen - erkannt werden können.
Das Softwaretesten scheint in der Praxis im Vergleich zur statischen Qualitätssicherung
verbreiteter zu sein. Das ist vor allem deshalb unverständlich, weil verschiedene
empirische Untersuchungen zeigen, dass z. B. Code-Inspektionen im Vergleich zum
Testen deutlich effizienter sind. Setzt man den Gesamtaufwand ins Verhältnis zur
Anzahl der gefundenen Fehler, so ist mit Code-Inspektionen häufig eine deutlich höhere
Wirtschaftlichkeit erreicht worden.
Das produktorientierte Qualitätsmanagement hat den Nachteil, dass Fehler in der Regel
erst nach der Realisierung eines (Zwischen-)Produktes entdeckt werden können. Im
prozessorientierten Qualitätsmanagement versucht man dagegen, die
Softwareentwicklung so zu gestalten, dass die Wahrscheinlichkeit, Fehler zu begehen,
reduziert wird.

Prozessorientiertes Qualitätsmanagement

Der Begriff "prozessorientiertes Software-Qualitätsmanagement" bezeichnet ein Bündel


von Massnahmen, mit denen wesentliche Teilaufgaben der Softwareentwicklung
geplant, gesteuert und kontrolliert werden können. Diese Massnahmen sind darauf
ausgerichtet, die Softwareentwicklung innerhalb einer Organisation zu standardisieren
und kontinuierlich zu verbessern. Auf diese Weise soll die Leistungsfähigkeit der
Softwareentwicklung erhöht werden. Die erhöhte Leistungsfähigkeit soll sich z. B. durch
verbesserte Produktqualität, niedrigere Entwicklungskosten und kürzere
Entwicklungszeiten bemerkbar machen.
Das prozessorientierte Software-Qualitätsmanagement wird in verschiedenen Leitfäden
beschrieben. Hierzu zählen insbesondere die ISO 9000-Normenfamilie und das
Capability Maturity Model (CMM) for software, auf die im folgenden kurz eingegangen
wird. Darüber hinaus entsteht zur Zeit die Norm ISO 15504 "Software Process
Assessment", die auch unter der Bezeichnung "Software Process Improvement and
Capability dEtermination (SPICE)" bekannt geworden ist.
Die Leitfäden können Unternehmen helfen, ihre Softwareentwicklung zu gestalten und
zu verbessern. Sie eignen sich auch zur Bewertung der Leistungsfähigkeit von
Softwarelieferanten bzw. als Massstab für eine Zertifizierung.

Die ISO 9000-Normenfamilie

Die Entwicklung der ISO 9000-Normenfamilie begann Ende der 70er Jahre, um die
verschiedenen damals bereits existierenden nationalen und branchenspezifischen
Normen zur Qualitätssicherung zu vereinheitlichen. 1987 wurde die ISO 9000-Familie
weltweit veröffentlicht und seit dem in verschiedenen Stufen überarbeitet. Parallel dazu
glichen verschiedene nationale Normungsinstitute ihre Normen an die Vorgaben der
ISO 9000 an.
Die Übertragung der Empfehlungen und Forderungen der branchenunabhängigen ISO
9000-Normenfamilie fiel besonders Dienstleistungsunternehmen und Software
entwickelnden Organisationen schwer. Deshalb wurden verschiedene
branchenspezifische Auslegungen und Konkretisierungen der Normen erstellt. Für
Dienstleistungsunternehmen ist das z. B. die ISO 9004-2, für die Softwareentwicklung
die inzwischen überarbeitete ISO 9000-3.
Die ISO 9000-Normenfamilie besteht aus verschiedenen Normen:
• In der ISO 8402 werden die der ISO 9000-Familie zugrundeliegenden Begriffe
definiert.
• Die ISO 9000-1 ist ein Leitfaden zur Auswahl und Anwendung der ISO 9000
Normen. Sie gibt ausserdem eine Einführung in die Grundgedanken der
Normenfamilie.
• Die ISO 9004-1 gibt Empfehlungen zur Gestaltung des Qualitätsmanagements
bzw. zum Aufbau eines Qualitätsmanagementsystems. Der Begriff
"Qualitätsmanagementsystem (QM-System)" bezeichnet die "zur Verwirklichung
des Qualitätsmanagements erforderliche Organisationsstruktur, Verfahren,
Prozesse und Mittel".
• Die ISO 9001 beschreibt Anforderungen für die Zertifizierung von QM-Systemen.
• Die ISO 9000-3 ist ein Leitfaden für die Anwendung der ISO 9001 auf die
"Entwicklung, Lieferung und Wartung von Software". Die Verfasser der ISO
9000-3 haben versucht, die branchenunabhängig formulierten Begriffe der ISO
9001 in eine in der Softwareentwicklung übliche Terminologie zu übersetzen.
• Die Normen der "10000-er Reihe", die ebenfalls zur ISO 9000-Familie gerechnet
werden, gehen auf einzelne Elemente des Qualitätsmanagements ein, z. B. auf
die Durchführung von Audits oder die Erstellung von Qualitätsmanagement-
Handbüchern.
Inhaltlich geben die Normen in erster Linie Empfehlungen zur Dokumentation, zur
Qualitätssicherung, zum Konfigurationsmanagement, zur Verantwortung der Leitung
einer Organisation sowie zu den Aufgaben von Qualitätsbeauftragten. Der Ruf der ISO
9000 Normenfamilie hat in der Softwarebranche – vermutlich in erster Linie wegen der
Zertifizierungspraxis – gelitten. Allerdings haben viele Softwareunternehmen durchaus
positive Erfahrungen mit der Gestaltung ihrer Softwareentwicklung gemäss den
Empfehlungen der Norm gemacht.

Das Capability Maturity Model (CMM) for software

Das Capability Maturity Modell (CMM) wird seit 1986 am Software Engineering Institute
(SEI) der Carnegie Mellon University in Pittsburgh, USA entwickelt. Das US-
amerikanische Verteidigungsministerium finanziert die Arbeiten am CMM, da es das
Modell als Hilfsmittel zur Beurteilung und Auswahl von Lieferanten für Softwaresysteme
benötigt.
Das wesentliche Strukturierungsmerkmal des CMM sind die sogenannten "Reifegrade"
("Maturity levels"). Reifegrad 1 ("initial") beschreibt "unreife" Gestaltungen der
Softwareentwicklung. Reifegrad 5 ("optimizing") beschreibt den höchsten Reifegrad.
"Reife" im Sinne des CMM bezeichnet das Ausmass, in dem die Softwareentwicklung
definiert und beschrieben ist, und in dem sie geplant, gesteuert und kontrolliert wird. Mit
steigendem Reifegrad wird die Erwartung verbunden, dass Termine, Kosten- und
Qualitätsziele besser geplant und eingehalten werden können. Gleichzeitig - so die
Verfasser des CMM - sinke das Risiko, dass einzelne Projekte ihre Ziele nicht
erreichen.
Die Verfasser des CMM stellen ausserdem einen Zusammenhang zwischen der Reife
und der Effektivität der Softwareentwicklung her. Sie behaupten, je reifer die
Softwareentwicklung sei, desto höher sei die Qualität der entwickelten Produkte, desto
kürzer seien die Entwicklungszeiten und desto niedriger die Kosten. Die fünf Reifegrade
bauen aufeinander auf. Jeder Reifegrad unterscheidet sich von dem vorhergehenden
dadurch, dass zusätzliche Fähigkeiten beherrscht werden.

Die wesentlichen Charakteristika der fünf Reifegrade:


• Reifegrad 1 - "Initial Level"
Softwareentwicklungsprojekte werden ad hoc strukturiert und laufen in der Regel
chaotisch ab. Nur wenige Vorgehensweisen, Methoden oder Verfahren sind klar
definiert. Es gibt keine Vorgaben oder Hilfsmittel zur Planung und Steuerung von
Projekten. Liefertermine und Budgets der Projekte sowie die Qualität der
Produkte lassen sich nur schwer vorhersagen. Der Erfolg oder Misserfolg von
Entwicklungsvorhaben hängt in erster Linie von den Bemühungen, der Motivation
und der Qualifikation der beteiligten Personen ab.

• Reifegrad 2 - "Repeatable Level"


Grundlegende Projektmanagementaufgaben, wie Planung, Kontrolle und
Steuerung von Zeit, Kosten und Qualität, sind etabliert. Die Planung von
Projekten basiert auf den Erfahrungen ähnlicher Projekte. Erfolge einzelner
Projekte können unter ähnlichen Bedingungen mit einer gewissen
Wahrscheinlichkeit wiederholt werden.

• Reifegrad 3 - "Defined Level"


Es sind projektübergreifende, unternehmensweit gültige Regelungen zur
Softwareentwicklung erlassen und dokumentiert worden. Alle
Entwicklungsprojekte richten sich nach diesen Regelungen. Situationsspezifische
Anpassungen und Interpretationen der Regelungen in einzelnen Projekten sind
zulässig und erwünscht, sofern sie nachvollziehbar begründet werden können.
Eine eigene organisatorische Einheit, die "Software engineering process group
(SEPG)", pflegt die Regelungen und entwickelt sie weiter, so dass die Projekte
dadurch sinnvoll unterstützt werden.
• Reifegrad 4 - "Managed Level"
Es werden quantitative Ziele für Softwareprodukte und Teilaufgaben der
Softwareentwicklung formuliert. Die Zielerreichung wird im Rahmen eines
umfassenden Messprogramms überprüft. Alle Messergebnisse werden mit Hilfe
einer Datenbank verwaltet und ausgewertet. Der Einfluss der verwendeten
Hilfsmittel auf die Qualität der Produkte und die Produktivität der Entwicklung ist
verstanden und quantitativ formuliert worden. Die Hilfsmittel können gezielt
eingesetzt und verändert werden, um Zeit-, Kosten- und Qualitätsziele mit hoher
Genauigkeit zu erreichen. Wenn gesetzte Ziele nicht erreicht werden, so können
diese Abweichungen mit Hilfe der gesammelten Daten erklärt werden. Sobald in
einem Entwicklungsprojekt Abweichungen von (Teil-)Zielen festgestellt werden,
werden Gegenmassnahmen ergriffen.

• Reifegrad 5 - "Optimizing Level"


Das gesamte Unternehmen ist auf kontinuierliche Verbesserung eingestellt.
Erfahrungen aus der Softwareentwicklung werden mit quantitativen Daten
beschrieben. Diese Daten ermöglichen eine kontinuierliche Verbesserung aller
Teilaufgaben der Softwareentwicklung. Neue Ideen, Methoden und Werkzeuge
werden in Pilotprojekten erprobt. Quantitative Kosten-Nutzen-Analysen dieser
Innovationen ermöglichen Empfehlungen für den unternehmensweiten Einsatz
der jeweils besten Hilfsmittel.

Empirische Untersuchungen zeigen, dass sich die Mehrheit aller


Softwareentwicklungsprozesse auf Reifegrad 1 oder 2 befindet. Für Software
entwickelnde Organisationen scheint es - unabhängig von der Branche - sinnvoll zu
sein, die Softwareentwicklung in Übereinstimmung mit den Empfehlungen der
Reifegrade 2 und 3 zu gestalten. Die Anforderungen der Stufen 4 und 5 sind hingegen
sehr aufwendig zu realisieren. Sie scheinen nur bei besonders hohen Anforderungen an
die Qualität der entwickelten Software empfehlenswert zu sein.
Das CMM wird in Nordamerika vorwiegend von Unternehmen in den Branchen
Telekommunikation, Luft- und Raumfahrt sowie von Finanzdienstleistern eingesetzt.
Diese Unternehmen erreichen – wegen der Kritikalität ihrer Softwareanwendungen oft
einen hohen Reifegrad nach CMM. Sowohl die ISO 9000 als auch das CMM geben vor,
dass bestimmte Aspekte geregelt und dokumentiert werden müssen. Sie geben aber
nicht vor, wie diese Aspekte gestaltet werden sollen. Vor allem werden keine
Empfehlungen für bestimmte Werkzeuge gegeben. Diese Beschränkung auf allgemein
gehaltene Hinweise hat Vor- und Nachteile. Einerseits lassen die Leitfäden den
Anwendern weite Spielräume zur Interpretation und Gestaltung der Anforderungen und
Empfehlungen. Andererseits können die Leitfäden nicht als "Kochbücher" verwendet
werden, die man unmittelbar umsetzen kann, um zu einer qualitativ hochwertigen
Softwareentwicklung zu gelangen.

Risiken von Fehlern

Am 1. Januar 1996 führt die Deutsche Telekom neue Tarife für die Abrechnung von
Telefonaten ein. Durch einen Fehler werden dabei 11 Millionen Kunden überhöhte
Gebühren in Rechnung gestellt. Nachdem der Abrechnungsfehler bekannt wird,
entschliesst sich die Telekom, den Fehler zu beheben und die Kunden zu entschädigen.
Es wird geschätzt, dass dem Unternehmen dadurch ein Schaden von mehr als 70
Millionen DM entstanden ist.
Am 14. September 1993 versuchen die Piloten eines Airbus A-320 der Deutschen
Lufthansa bei schlechtem Wetter in Warschau zu landen. Nach dem Aufsetzen auf der
Landebahn lässt sich zunächst die Schubumkehr des Airbus nicht betätigen. Neun
Sekunden lang rast das Flugzug mit nahezu unverminderter Geschwindigkeit über die
Landebahn. Als die Schubumkehr wieder funktioniert ist es zu spät. Der Airbus kommt
nicht rechtzeitig zum Stehen, bohrt sich in einen Erdwall und fängt Feuer. Zwei
Menschen werden getötet, 52 schwer und fünf leicht verletzt.
Am 25.02.1991, während des letzten Golfkrieges, verfehlt in Dharan (Saudi-Arabien)
eine Patriot-Abwehrrakete eine irakische Scud-Rakete. Die Scud-Rakete trifft eine
Mannschaftsunterkunft US-amerikanischer Soldaten. 28 Personen werden getötet, 90
weitere zum Teil schwer verletzt.
So unterschiedlich diese Beispiele auch sind, allen drei Fällen ist gemeinsam, dass
mangelnde Softwarequalität massgeblich zu den Schäden beigetragen hat. Solche
spektakulären Fälle mit zum Teil katastrophalen Folgen sind eine Facette mangelnder
Softwarequalität. Eine andere Facette sind die vielen Fehler, die sich in
Betriebsystemen und Anwendungssoftware verbergen. Obwohl diese Fehler nur selten
zu spektakulären Folgen führen, sind ihre Auswirkungen – volkswirtschaftlich gesehen -
ebenfalls erheblich. Das kann man sich leicht klar machen, wenn man errechnet, wie
viele Arbeitsstunden alleine in Deutschland an einem Tag dadurch verloren gehen, dass
Benutzer nach Softwareabstürzen ihre Systeme neu starten und dabei eventuell Daten
neu eingeben müssen.
Qualitätsmanagement in der Softwareentwicklung ist nicht in der Lage, das Auftreten
von Softwarefehlern zu verhindern. Es kann aber einen Beitrag dazu leisten, dass
Software mit weniger Fehlern ausgeliefert und dass das mit den verbleibenden Fehlern
verbundene Risiko vermindert wird. Qualitätsmanagement kann auch dazu beitragen,
dass die Anforderungen der Benutzer an die Software in höherem Masse erfüllt wird.
Ein richtig verstandenes prozessorientiertes Qualitätsmanagement kann ausserdem zu
einer Reduktion von Entwicklungskosten und Projektlaufzeiten beitragen.
Produkt- und prozessorientiertes Qualitätsmanagement sind keine Alternativen,
sondern sich ergänzende Massnahmenbündel. Im Total Quality Management (TQM)
versucht man, beide Perspektiven zu vereinen. Dabei wird besonderer Wert auf die
Ausbildung und Motivation der Mitarbeiter gelegt. Denn eines ist klar: Weder Prüfungen
von Produkten noch Verbesserungen von Prozessen können ihre Wirkung voll
entfalten, wenn sie nicht von engagierten Mitarbeitern getragen werden.

Weitere Informationen
• Software Engineering Institut
• DIN
• ISO
IT-Kultur
o Computerethik
o Cyberculture
o Die Geschichte des Internets
o Die Zukunft des Internets
o Philosophie
o Recht
o Revolution
Computerethik

In der Computerwelt ist wie im richtigen Leben: Ohne ein Mindestmass an gegenseitiger
Rücksichtnahme ist ein effizientes Arbeiten nicht möglich.
Um dies in prägnanten und kurzen Sätzen eindrucksvoll darzustellen, wurden die 10
Regeln der Computerethik zusammengestellt, die oft auch als die 10 »Gebote« der
Computerethik bezeichnet werden:
1. Du sollst nicht deinen Computer benutzen, um anderen Schaden zuzufügen.
2. Du sollst nicht anderer Leute Arbeit am Computer behindern.
3. Du sollst nicht in anderer Leute Dateien stöbern.
4. Du sollst nicht den Computer zum Stehlen benutzen.
5. Du sollst nicht den Computer benutzen, um falsches Zeugnis abzulegen.
6. Du sollst nicht Software benutzen oder kopieren, für die du nicht die Nutzungs-
oder Kopierrechte erworben hast.
7. Du sollst nicht anderer Leute Ressourcen ohne deren Erlaubnis verwenden.
8. Du sollst nicht anderer Leute geistig Werk als deines ausgeben.
9. Du sollst über die sozialen Konsequenzen deiner Programme nachdenken.
10. Du sollst den Computer so benutzen, dass du Verantwortung und Respekt
zeigst.
Cyberculture

Digitale Revolution

Ein vielgebrauchtes Synonym für die Chancen, die neue Technik für jeden einzelnen
und damit für alle zusammen haben soll, ist das Internet. Schnell wird da in den
einschlägigen Branchenblättern von einer " Digitalen Revolution" geredet, die uns von
den Übeln des 20. Jahrhunderts mit einem Geniestreich befreien wird. So manche/r
wünscht sich - wie vor kurzem Monica Brandis an dieser Stelle - genau das: Ein Ende
der bürgerlichen, hierarchisierten, zentralisierten und patriarchalischen Welt.
Und ist enttäuscht, dass sich dem Fachmann wie dem Laien bislang so wenig davon zu
erkennen gibt im Netz der Netze. Denn leider, leider ist die bisherige Entwicklung des
Internets zwar explosionsartig, aber alles andere als politically correct verlaufen. Der
Unmenschengeist des vergangenen Jahrtausends, der Profit, Profit und abermals Profit
sucht, und an vierter Stelle eine Möglichkeit zur eitlen Selbstdarstellung, hat sich in
Windeseile auch der Welt der binären Datenströme bemächtigt und so das Neue in den
Sumpf des Alten herabgezogen.
Musste das denn wirklich so kommen? Müssen denn die Nutzniesser dieser
grossartigen Quelle von Information und globaler Brüderlichkeit schon wieder männlich,
weiss, wohlhabend und gymnasial gebildet sein? Hat denn nicht auch die Erfindung des
Buchdrucks (und was sind Bücher aus Papier und Tinte schon im Vergleich zu rasant
anwachsenden 100 Millionen URLs im Net?) die europäische Gesellschaft grundlegend
verändert, folgte ihm nicht die Renaissance, die Entdeckungen, der Humanismus, die
Reformation? Dürften wir denn nicht eigentlich mindestens das gleiche erwarten vom
dritten Jahrtausend und seiner digitalrevolutionierten, lieblich kommunikativen
Gesellschaft?

Herrschaft im Internet?

Nein. Dürften wir nicht. Davon wird nichts Wahrheit werden. Und nicht nur das:
Diejenigen, die solches fordern, versprechen oder lautstark erhoffen, sind nichts
anderes als Heuchler. Die Wortführer der "Digitalen Revolution", die Vor- und Andenker
der "Demokratisierung übers Netz", die die bürgerliche Moderne am Ende sehen, sind
nämlich selber genau diejenigen, die solchen Prozessen als erste im Wege stehen.
Denn nur sie sind für all das auf einmal Beweinte eigentlich verantwortlich. Die
Menschen, weiblich oder männlich, die schon bisher in Politik und Medien das Sagen
(und Schreiben) hatten, meinen nun, darob plötzlich ein ganz niedliches und
gehätscheltes schlechtes Gewissen zu brauchen.
In der Tat symptomatisch ist es, dass sich ausgerechnet die Frankfurter Allgemeine,
publizistische Speerspitze der Beharrungskräfte, über die elitäre Struktur der
Internetkultur mokiert. Das Credo lautet also: " Nicht die gleichen Fehler nochmal
machen. Es sollte doch bitte alles anders sein im interaktiven Internet. Aber trotzdem
schon hübsch anzusehen, bitte." Und weiter geht es wie bisher.
Und genau so wird es immer sein. So muss es sogar sein, seitdem es die arbeitsteilige
Gesellschaft gibt und die Idee, dass nicht jeder alles tun sollte. Es gestaltet nämlich nur
derjenige, der nicht nur nimmt, sondern auch etwas von sich gibt. Derjenige, der ein
Talent hat oder Ehrgeiz oder Wagemut oder Phantasie. Der sich nicht stillschweigend
über seine Umwelt ärgert, sondern etwas dagegensetzt. Und dieses, was er
dagegensetzt, ist nichts Mystisches und auch keine kriminelle Energie. Er braucht keine
Verschwörung mit anderen ebenso Übelgesinnten, die seine Zwingherrschaft über die
in unverschuldeter Knebelung Dahinvegetierenden auf alle Ewigkeit absichert. Er setzt
dagegen: Das überzeugende Wort, den eloquenten Text und das eindrucksvolle Bild.
Aber auch im Digitalen Zeitalter fällt einem nichts davon in den Schoss. Man muss es
sich häufig genug geradezu abringen. Wie es eben immer war.

Informationsgesellschaft

Sollte es daher in den nächsten Jahren und Jahrzehnten tatsächlich zur Ausprägung
irgendeiner Art von neuer "Informationsgesellschaft" kommen, die über das Spezifikum
der potentiellen Verfügbarkeit sämtlicher Informationen hinausgeht - was ich nicht
glaube -, wird sie weder von neuer Technik noch vom anderen Menschen aus der
Wiege gehoben und getragen werden. Kein Modem und kein Mausklick nimmt
demjenigen, der Einfluss nehmen will, die Verpflichtung ab, mit seinen Worten und
Taten im ganz klassischen Sinne überzeugend zu sein.
Im Gegenteil: In einer Welt - einem Web - voller irreführender Bilder, in der technisch
alles darstellbar ist und ein jeder das weiss, sehnt sich der Mensch ganz besonders
nach dem klaren, unmissverständlichen, stilsicheren Wort aus unkomplizierten,
vertrauten Zeichen - das Internet ist ein viel literarischeres Medium als das Fernsehen.
Vielleicht ist es bedauerlich, dass diese Fähigkeit zur Formulierung in gewissem Grade
erlernbar ist und darum vor allem von Profis ausgeübt wird: Politikern, Werbemachern
und Journalisten. Aber so ist es nun einmal. Diese sind es bereits und werden es auch
in Zukunft sein, die die Inhalte und das Gesicht des WWW bestimmen. Und es hat nicht
den geringsten Sinn, auf etwas anderes zu hoffen.

Digital Age

Dass nämlich, wie z.B. Monica Brandis anscheinend glaubt, ein Mehr an verfügbarer
Information auch bessere Informiertheit vieler nach sich zöge, ist anthroposophisches
Wunschdenken. Und dass - von der technischen Seite aus betrachtet - neue Formen
auch neue Inhalte generieren müssen, die wiederum neue "Köpfe" brauchen, ist
ohnehin das grosse Ammenmärchen der Computerkids zwischen 15 und 35.
Wer sich die selbstpostulierten positiven Grundüberzeugungen der "Netizens" durchliest
(Toleranz, Pluralismus, Eigenverantwortung, Gewinnstreben, Sozialdarwinismus,
Popkultur, Rationalismus) erkennt sofort, dass diese haargenau identisch sind mit dem,
was jeder halbwegs gebildete und erfolgsorientierte Mittzwanziger auf der westlichen
Hemisphäre seit jeher als seine Werte angeben würde. Selbst, wenn er an seinem
Rechner zu Hause kaum den Einschaltknopf findet. Das ist ganz natürlich so, denn
auch im Digital Age wächst kein Mensch ohne starke Bezüge zu "alten Autoritäten" auf;
anderes zu behaupten ist populistischer Individualismuskult.
Konstruktive Kommunikation

Der einzige Unterschied liegt in zwei zusätzlichen Merkmalen: Der überzeugten


Führerlosigkeit und dem Glauben an den "Geek". Denn: Führerlosigkeit aus Misstrauen
Hierarchien gegenüber ist Schwäche. Und: "Geeks" (="Strebertypen",
"Berufsintellektuelle") stehen vielleicht hinter den Kameras, aber niemals davor. Darum
werden diese "Netizens" auch immer nur in ihrem eigenen, kuscheligen Universum
leben. Vielleicht findet ihre kleine, feine Revolution im Saale statt, aber wahrscheinlich
nicht mal das. Der Trost: Immerhin dürfen sie im Netz dieses kleine Universum
darstellen, wie sie es gern hätten. Es bleibt allerdings der Verdacht, dass sie dabei der
Welt eine Technologie als essentiell unterjubeln, die gewissen Leuten viel Geld und
dem "Geek" eine Entschuldigung bringt, im Wohnzimmer sitzen bleiben zu dürfen und
sich nicht in der Wirklichkeit ihrer Schüchternheit schämen zu müssen. Sondern sich
weiter hinter Avataren und in Chatrooms verstecken zu dürfen.
Nicht schüchtern dagegen waren schon immer die Profis von Wort und Bild. Und nur
das, was diese anbieten, wird der ganz normale AOL-Kunde mit Freuden konsumieren.
Warum auch nicht? Sich unterhalten zu lassen ist schon längst zum Grundrecht
geworden; auch nach einem Offenbarungseid ist der Fernseher unpfändbar, und
demnächst wird es auch der Computer sein. Politische Mitbestimmung, Information,
aber auch Entertainment, im ganzen also: konstruktive Kommunikation dagegen macht
Arbeit, und die ist oft nicht so unterhaltsam und wird immer nur von wenigen geleistet
werden. Alle anderen werden das tun, was sie schon immer getan haben: ihren eigenen
Angelegenheiten nachgehen und sich darauf verlassen, dass die wenigen für sie
mitdenken, wie sie es schon immer getan haben. Und genau so ist es richtig.
Die Geschichte des Internets

Um die Geschichte des Internets ranken inzwischen die abenteuerlichsten Erzählungen.


Weit verbreitet ist zum Beispiel die Version, dass der Internet-Vorläufer ARPANet zum
Schutze der militärischen Grossrechner der USA gegen Atomschläge eingerichtet
wurde. Schuld an diesem Gerücht ist auch der zweideutig definierte Grundauftrag der
ARPA: "Die primäre Verantwortung der ARPA soll helfen, die technische Überlegenheit
der Vereinigten Staaten von Amerika beizubehalten und gegen unvorhergesehene
technologische Fortschritte durch mögliche Gegner zu schützen."

ARPA

Im Jahre 1958 richtete das US-Verteidigungsministerium eine Arbeitsgruppe namens


"ARPA" ("Advanced Research Projects Agency") ein, die nach neuen Ideen und
Technologien Ausschau halten sollte. ARPA handelte dabei nur als Investor und
Koordinator für wissenschaftliche Projekte in Universitäten und Forschungsinstituten,
deren Ergebnisse bei entsprechender Eignung dem Militär zu überlassen waren oder
alternativ privatwirtschaftlich genutzt werden durften.
Der erste Schritt der ARPA in die Informationstechnologie wurde 1962 mit der
Gründung des IPTO ("Information Processing Techniques Office") gelegt, dessen
Leitung von Joseph Carl Robnett Licklider übernommen wurde. Licklider war ein
Visionär, der schon frühzeitig erkannte, dass Computer nicht nur zu rein
wissenschaftlichen Zwecken genutzt werden sollten, sondern in Zukunft dank
interaktiver und intuitiver Bedienung immer grössere Verbreitung finden würden. Dazu
gehörte seiner Meinung nach auch die Vernetzung von Computerpower und er
unterstützte viele Pionierprojekte in diese Richtung.

Das Gerücht des "Militärnetzes"

In vielen Dokumentationen des Internets wird die Geschichte des ARPANets mit einer
gleichzeitig stattgefundenen Entwicklung verwechselt: Im Jahre 1964 entwickelte Paul
Baran von der Firma RAND Corporation [ http://www.rand.org/ ] für die US Air Force
eine neuartige Netzwerkstruktur, das sogenannte Dezentrale Netzwerk.
In diesem Netzwerk sollten einzelne Rechner mit mehreren Verbindungen gleichzeitig
an anderen Rechnern angeschlossen werden, was ein maschendrahtähnliches Gebilde
ergab. Diese Netzwerkstruktur sollte anhand eines paketorientierten
Übertragungsprotokolls eine effizientere Datenübertragung ermöglichen. Ausserdem
(und dies war der interessanteste Punkt für die Air Force) war ein solches Netzwerk
gegenüber äusseren Störungen, z.B. Zerstörung einzelner Rechner durch Atomschläge,
weit unempfindlicher, da einzelne defekte Datenleitungen nicht unbedingt einen
kompletten Zusammenbruch des Netzes zur Folge hatten.
Geplant war, die Rechner der Air Force mit solch einem Dezentralen Netzwerk zu
verbinden, um einen Betrieb auch bei grösseren Ausfällen des Netzes aufrecht zu
erhalten. Das Vorhaben wurde jedoch nie begonnen, da das US-
Verteidigungsministerium auf eine einheitliche Lösung für die gesamten US-Streitkräfte
bestand. Die Idee des Dezentralen Netzwerkes und der paketorientierten
Datenübermittlung floss jedoch in ein anderes Projekt ein: Das ARPANet.

Das ARPANet

Da die ARPA zur damaligen Zeit ein relativ knappes Budget hatte, machte man sich vor
der Anschaffung neuer Grossrechner Gedanken, da man nicht jeder
Forschungseinrichtung einen Grossrechner spendieren konnte. 1966 wurde die Idee
geboren, die ARPA-eigenen Rechner zu vernetzen und somit einzelne
Grossrechneranlagen kostengünstig allen angeschlossenen Rechnern zugänglich zu
machen.
Diese geniale Idee wurde bis Ende 1969 mit dem ARPANet realisiert, dass zunächst
vier Forschungseinrichtungen in Los Angeles (University of California), Menlo Park
(Stanford Research Institute), Santa Barbara (University of California) und Salt Lake
City (University of Utah) über gemietete Telefonstandleitungen miteinander verband.
In allen vier teilnehmenden Forschungseinrichtungen standen vier verschiedene und
zueinander völlig inkompatible Systemplattformen, so dass ein neuartiger Weg zum
Vernetzen gegangen wurde: Man schloss jeden Rechner an einen sogenannten IMP
("Interface Message Processor") an, der als Zwischenglied zwischen Netzwerk und
Rechner diente. Die IMP waren wiederum mit mindestens zwei anderen IMP innerhalb
des ARPANets verbunden. Die gemieteten Telefonleitungen hatten eine Bandbreite von
50 kbps. 1970 kamen die Havard University und das Massachusetts Institute for
Technology in Boston dazu, 1971 bildeten schon fast vierzig Einrichtungen das
ARPANet.
Das grundlegende Übertragungsprotokoll im ARPANet war das NTP ("Network Transfer
Protocol"), dass eine paketorientierte Übertragung vornahm. Eine Datei wird beim
Absender in viele kleine Päckchen zerlegt. Jedes Päckchen enthielt unter anderem
Absender- und Ziel-Adresse und wurde einzeln von IMP zu IMP übertragen, die Route
wurde je nach aktueller Leitungstopologie von jedem IMP autark bestimmt.
Die ersten beiden Dienste im ARPANet waren Telnet und FTP ("File Transfer
Protocol"). Mit Telnet wurde es ermöglicht, einen anderen Rechner per Netzverbindung
zu steuern und mit ihm zu arbeiten. FTP wurde zur Datenübertragung jeglicher Art
genutzt. Mit diesen beiden Protokollen war zwar das bequeme Arbeiten mit entfernten
Rechnern möglich, jedoch nicht mit anderen Wissenschaftlern. Es fehlte eine interaktive
Kommunikationsplattform, die mit der Erfindung der eMail ("Electronic Mailing") 1971
schlagartig erschlossen wurde. Innerhalb weniger Monate schoss das
Datenaufkommen der versendeten eMails in immense Höhen, Mailinglisten
ermöglichten die Bildung von Benutzergruppen.
Ab Mitte 1968 trafen sich regelmässig Mitarbeiter der damals vier teilnehmenden
Computerzentren, um ihre Aktivitäten zu besprechen und zu koordinieren. Diese
Gruppe nannte sich NWG ("Network Working Group") und zeichnete für viele Projekte
und Dienste des ARPANets verantwortlich. Die NWG war auch Begründer der RFC-
Reihe ("Request For Comments"), mit der technologische Fragen und Spezifikationen
festgelegt und der Internet-Gemeinschaft präsentiert wurden. Noch heute tragen alle
RFC in der ersten Zeile die Kennung "Network Working Group".
Schon nach wenigen Jahren zeigte sich, dass das bisherige Übertragungsprotokoll NTP
den Anforderungen nicht mehr gewachsen war. Gerade die Integration von
verschiedensten Netztechnologien war nahezu unmöglich, weshalb Anfang der
siebziger Jahre verstärkt nach einer neuen Übertragungstechnik geforscht wurde, die
ebenfalls paketorientiert arbeiten sollte. Dazu wurde 1973 von der IPTO das "Internet
Program" ins Leben gerufen, das ein einheitliches Übertragungsprotokoll entwickeln
sollte, damit verschiedenste Netze unter einem einheitlichen Protokoll arbeiten und
miteinander verbunden werden konnten.
Das Ergebnis war TCP ("Transmission Control Protocol"), das für die fehlerfreie
Paketübertragung sorgte, indem der Versand jedes Pakets überwacht wurde. Zu
Beginn war TCP auch für die Adressierung im Netz zuständig, erst 1980 wurde für die
Adressierung ersatzweise das leistungsfähigere IP ("Internet Protocol") eingeführt.

Das Netz der Wissenschaft


Ende der siebziger Jahre entstand das Problem, dass nur die wenigsten Akademien für
Computerwissenschaften an das ARPANet angeschlossen waren, da nur Akademien
einen Anschluss bekamen, die auch Forschung für die ARPA betrieben.
Aus diesem Grund trafen sich im Mai 1979 Vertreter von sieben grossen Universitäten,
um über die Einrichtung eines eigenen Datennetzes zu diskutieren. Als Ergebnis wurde
von der staatlichen NSF ("National Science Foundation") das CSNet ("Computer
Sciences Network") gestartet, das allen Universitäten mit computerwissenschaftlichen
Akademien offenstand.
Im Laufe der Zeit wuchs auch das Interesse von Wissenschaftlern aus anderen
Fachbereichen, so dass 1984 das CSNet zum TCP/IP-basierten NSFNet umgewandelt
wurde, zu dem alle US-Universitäten und deren Wissenschaftler Zugang hatten. Eine
Besonderheit des NSFNets war, dass es auch Ressourcen des ARPANets mitbenutzte.
Dafür durften Teilnehmer des ARPANets auch die Rechner im NSFNet benutzen.

Das Ende des ARPANets

Schon 1974 versuchte die ARPA, das ARPANet in private Hände abzugeben, da die
organisatorischen und finanziellen Möglichkeiten langsam aber stetig der ARPA über
den Kopf wuchsen. Auch machte sich das US-Verteidigungsministerium über die
Offenheit des ARPANets Sorgen, da auch militärische Anlagen im ARPANet zugänglich
waren.
Diese Sorge wuchs, als auch das NSFNet Zugriff auf das ARPANet hatte. Deshalb
trennte man 1983 das ARPANet in zwei Teilnetze: Das erste Netz behielt den Namen
ARPANet und das zweite wurde das MILNet, dass alle militärischen Einrichtungen
verband und den gesamten militärischen Datenverkehr übernahm.
Da die angeschlossenen Netze immer weiter wuchsen und das NSFNet immer mehr
Funktionen des ARPANets übernahm, beschloss die ARPA 1990, das inzwischen
äusserst organisations-, pflege- und kostenintensive ARPANet-Projekt einzustellen. Das
ARPANet hörte auf zu existieren, jedoch war die Philosophie und die Technik des
ARPANets fest im Internet verankert.
Dienste, Dienste, Dienste

Die darauffolgenden Jahre waren geprägt von der Entwicklungsfreudigkeit der


Wissenschaftler und engagierten Nutzer, die das Internet nutzten. Insbesonders der
eMail-Verkehr nahm immer mehr zu und ermöglichte eine weltweite Zusammenarbeit
von Arbeitsgruppen.
Ein Schattendasein führte in den ersten Jahren nach seiner Erfindung z.B. das IRC
("Internet Relay Chat"). Mit IRC konnte man nahezu in Echtzeit Texte zwischen
mehreren Personen austauschen, die alle an einem IRC-Server-Netz angebunden
waren. Dank fehlender Öffentlichkeit betrieben nur wenige Universitäten IRC-Server,
dementsprechend klein waren die Benutzerzahlen.
Ein weiterer, wichtiger Schritt zum universellen Kommunikationsnetz war die
Entwickung des Dienstes Gopher: Gopher ermöglichte es, reine Textdateien
hierarchisch auf einem Server anzulegen und herunterzuladen. Doch erst ein anderer
Dienst eröffnete das Internet für die breite Öffentlichkeit: Das WWW.

Das Internet bekommt Farbe

Genau diesen Gedanken hatte der Brite Tim Berners-Lee, damals Informatiker am
"CERN", dem Institut für Teilchenphysik in Genf, als er im März 1989 einen neuartiges
Hypertextsystem für das hauseigene Intranet vorschlägt: Das World Wide Web bietet
eine gut durchdachte Bedienoberfläche, die mit speziellen Programmen, den Browsern
angezeigt werden kann.
Besonders hervorstechend sind die Fähigkeiten des WWW, Text, Grafik, Töne und
Videos zu multimedialen Präsentationen zu verbinden. Eine weitere Neuerung stellen
die Hyperlinks dar, mit denen aus jedem WWW-Dokument zu einer anderen Ressource
im Internet verwiesen werden kann. Erstmals ist es möglich, ohne grösseres
Fachwissen einen Dienst zu bedienen und eigene Informationen aufzubereiten und im
Internet zu veröffentlichen.

Die breite Öffentlichkeit kommt

Gerade durch den neuen "Medienstar" World Wide Web erregt das Internet in der
Öffentlichkeit ungeahnte Aufmerksamkeit. Der Boom beginnt ab März 1991, 5 Monate
nach Einführung des World Wide Webs, als Fachmagazine und Tageszeitungen immer
regelmässiger über das Internet und insbesondere das WWW berichten.
In rasend schnellem Tempo schiessen Online-Dienste und ISP ("Internet Service
Provider") aus dem Boden, die den Markt entdeckt haben, preisgünstig einen Zugang
zum Internet zu verkaufen, während die Werbewirtschaft das World Wide Web als
ideale Werbeplattform entdeckt. Das "Web" breitet sich immer mehr aus und entwickelt
sich zum am weitesten verbreiteten Dienst im Internet und überholt im Laufe des Jahres
1996 das Datenaufkommen aller FTP-Verbindungen.
Doch die Entwicklung geht weiter: Besonderes Augenmerk wird dem NC, dem
"Netzcomputer" geschenkt, der kein eigenständiger Computer mehr ist und seine
Software direkt aus dem Internet bezieht. Auch ein vorrangiges Ziel ist die Telefonie
und das Telefaxen über das Internet, dass ebenfalls den endgültigen Durchbruch des
Internets bescheren könnte. Immense Kosteneinsparungen wären hier das Ergebnis, da
keine teuren Fernverbindungen mehr zum Telefonieren aufgebaut werden müssten,
sondern die bestehende Infrastruktur des Internets genutzt werden kann. Auch die
vernetzte Waschmaschine muss kein unsinniger Traum bleiben, denn auf die Weise
könnte z.B. die Betriebssoftware vollautomatisch immer auf dem aktuellsten Stand
gehalten werden.
Das Internet ist auf dem besten Wege, immer unentbehrlicher für das tägliche Leben zu
werden.
Die Zukunft des Internets

An dieser Stelle sei es mir gestattet, einige "philosophisch" anmutende Gedanken zur
Zukunft des Internets abzulassen. Nicht dass Sie am Ende der Meinung sind, dass
Internet "sei nur eine Modeerscheinung", wie ein Unternehmensberater einmal
selbstsicher verlautbaren liess...

Wie soll's denn weitergehen?

Nein, eine vorübergehende Modeerscheinung von Computerfreaks bleibt das Internet


ganz bestimmt nicht. Ganz im Gegenteil, das Internet ist auf dem besten Wege, immer
tiefer in unser normales Leben einzudringen.
Schon heute gibt es keinen Fernsehsender und keine überregionale Zeitung mehr, die
nicht im Internet vertreten ist. Immer mehr regionale Anbieter gesellen sich ins Internet.
Vor 100 Jahren waren Kontinente noch Wochen entfernt, moderne Transportmittel
verkürzten diese Zeit auf Tage und Stunden, das Internet verkürzt diese Zeit auf wenige
Sekunden. Der Informationsaustausch wird sich in den nächsten Jahren vervielfachen,
insbesonders auch durch firmeninterne Kommunikation über das Internet.

Informationsfülle en masse

Vielleicht könnte schon in wenigen Jahren der Traum der Menschheit in Erfüllung
gehen, dass alles Wissen der Menschheit praktisch auf Knopfdruck von jedem Internet-
Zugang der Welt abrufbar ist. Viele Regierungen und Forschungseinrichtungen arbeiten
mit Hochdruck daran, Bibliotheken zu digitalisieren und online verfügbar zu machen.
Eine Schattenseite dieser Informationsflut ist die schnelle Vergänglichkeit von
Information im Internet. Während ein gedrucktes Buch einen unvergänglichen
Schnappschuss einer Informationsmenge enthält, können online verfügbare Medien
regelrecht "leben" und sich immer wieder weiterentwickeln. Dies birgt die Gefahr, dass
falsche, veraltete oder vermeintlich uninteressant gewordene Information überschrieben
wird und nachfolgenden Generationen nicht mehr zur Verfügung steht. Schon heute
warnen viele Wissenschaftler davor, dass die ersten Jahrzehnte des
Informationszeitalters durch fehlende Dokumentation glänzen werden und womöglich
ein wichtiges Kapitel der Menschheitsgeschichte in den Geschichtsbüchern fehlen
könnte.

Schneller, grösser, weiter!

Das Internet ist in seiner Struktur noch zu klein und langsam, um modernen
Anwendungen, wie z.B. qualitativ gute Video- und Audioübertragungen in Echtzeit
nachzukommen. Um diese und zukünftige Anwendungen zu ermöglichen, ist eine weit
höhere Bandbreite notwendig, die gleichzeitig effizienter genutzt werden muss.
Ein Meilenstein zu diesem Ziel ist durch die Einführung eines neuen TCP/IP-Protokolls
vorgelegt, das zum einen die Header der IP-Päckchen verkleinert und allgemein die IP-
Päckchen "intelligenter" macht: Beispielsweise können Übertragungsrouten
vorbestimmt oder bestimmte IP-Päckchen mit höherer Priorität behandelt werden.
Auch in Sachen Übertragungskapazitäten wird sich in den nächsten Jahren einiges tun:
Dank Glasfasertechnik werden Gigabit-Standleitungen die Kontinente verbinden und
auch die Forschungen auf dem Gebiet der Terabit-Übertragungen laufen auf vollen
Touren. Schon jetzt ist absehbar, dass solche Kapazitäten unbedingt notwendig sind,
will man nicht schon in wenigen Jahren in gigantischen Daten-Staus versinken.

Immer mehr Interaktivität

Spöttisch wird heute (noch) über die vernetzte Waschmaschine gewitzelt, obwohl dies
nicht mehr lange Utopie sein muss und handfeste Vorteile hat: Ein Hersteller von
Waschmaschinen kann dann z.B. neue Waschprogramme vollautomatisch in Ihre
Waschmaschine einspielen und so das Gerät auf dem neuesten Stand halten. Genauso
würde das für Videorecorder einen Durchbruch bringen, die z.B. die aktuelle
Programmübersicht online erhalten könnten und kinderleicht zu programmieren wären.
Selbst eine Fernsteuerung oder Ferndiagnose bei Störungsfällen wäre denkbar.
Schon jetzt kristallisieren sich äusserst interessante Anwendungsgebiete für die
Steuerung und Pflege von Maschinen über das Internet heraus, so dass mittelfristig
über das Internet auch immer mehr diagnostische und supporttechnische Aufgaben
übertragen werden.

Getrennte Wege

Getrennte Wege gehen in den USA schon Wissenschaft und Kommerz: Die US-
amerikanische Regierung, Universitäten und namhafte Sponsoren betreiben einen
TCP/IP-basierten "Super-Highway" nur für Bildungseinrichtungen und
Forschungsinstitute, auf dem ungestört neue Technologien für und um das Internet,
aber auch für andere wissenschaftliche Zwecke getestet werden können.
Das Internet2 [ http://www.internet2.edu/ ] entstand auf die Weise ganz nach der
Tradition des ideelen Vorläufers ARPANet und wird, ebenfalls wie beim historische
Vorbild, auch ausländischen Einrichtungen angeboten.

Das WWW: Bunter, lauter, dynamischer

Auch im Bereich des World Wide Webs sind noch längst nicht alle technischen
Möglichkeiten ausgereizt. Sehr viele Erwartungen werden hierbei auf HTML und seinen
Nachfolger XML ("EXtended Markup Language") gelegt, das noch einige überwindbare
Kinderkrankheiten hat. Reine HTML-Seiten sind viel zu statisch, um vollkommene
Interaktivität zu ermöglichen. Zwar gibt es schon heute interaktive und multimediale
Elemente, jedoch ist dazu in der Regel immenser Programmier- und Rechenaufwand
nötig.
Mit XML wird die Programmierung von WWW-Seiten grundsätzlich nicht einfacher,
jedoch ist eine einheitlichere Standardisierung als bei HTML möglich. Dies bedeutet
auch, dass XML deutlich empfindlicher gegenüber fehlenden oder falschen Befehlen ist
und, ähnlich wie die "Mutter aller Auszeichnungssprachen" SGML, sehr strenge
Typisierungsregeln hat. HTML bleibt jedoch auch in Zukunft eine
Auszeichnungssprache, die von den meisten Browsern verstanden und als ein wichtiger
Wegbereiter in die moderne Informationsgesellschaft in die Geschichte eingehen wird.
Ein anderes, grosses Entwicklungsfeld sind sichere Online-Zahlungssysteme. Erst
wenn über das Internet nicht nur bestellt, sondern mit einem einheitlichen
Zahlungssystem auch gleich gefahrlos und sicher bezahlt werden kann, wird sich das
Online-Shopping, das sogenannte eCommerce, gegenüber herkömmlichen
Vertriebswegen durchsetzen können. Dann wird jedoch wahrscheinlich auch ein Teil
aller bisher freien Angebote (z.B. Datenbanken, Bibliotheken, Bildersammlungen)
kostenpflichtig werden.
Philosophie

Die Gesellschaft braucht Informationskultur

Der Informationskanal, der in den Häusern der Bürgerinnen und Bürger endet, eröffnet
viele neue, positive Möglichkeiten. Die Menschen der Welt werden zu einer "Global
Community", zu einer Weltgesellschaft zusammenwachsen. Die Organisation des
täglichen Lebens wird durch Serviceangebote aus der Mediensteckdose bequemer
werden, die Auswahl des Unterhaltungsprogrammes individueller. Im Zusammenleben
aller Menschen wird intelligenter Einsatz der neuen Technologien bei der Lösung
aktueller Aufgaben und Probleme wie beispielsweise der Steuerung der
Informationsflut, der Reduzierung der Luftverschmutzung, der Müllvermeidung und -
sortierung oder der Sicherung von Produktionsanlagen helfen.
Die Verfügbarkeit von Information wird in der Informationsgesellschaft zu einer
Grundfrage der Demokratie, denn vorhandenes Wissen gehört zu den wertvollsten
Gütern eines Volkes. Es ist deshalb eine gesellschaftliche Aufgabe der Bibliotheken und
der Dokumentation, ihre Kollektion für das Volk zu erschliessen und kostengünstig zur
Verfügung zu stellen. Eine funktionierende Infrastruktur, die den Zugang zur Information
für alle Menschen im Staat gleichberechtigt möglich und bezahlbar macht, ist
unverzichtbar.

Qualitätssicherungsmassnahmen für Informationsinhalte

Bei der Organisation des Wissens spielen bisher Verlage eine entscheidende Rolle. Sie
selektieren Information, beschäftigen sich mit der Präsentation, dem Bekanntmachen
und Verbreiten der Information. Was von Verlagen publiziert wird, durchläuft in der
Redaktion einen Qualitätskontrollprozess. Die verlegte Information sollte nach den
geltenden Regeln geprüft, original, integer, authentisch und überall identisch sein.
Unsere Rechtsordnung schützt Kreativität und Originalität von Publikationen als
geistiges Eigentum. Für die dauerhafte Festlegung von Meinungen, Entscheidungen,
Ergebnissen, Methoden, Verfahren, Diagnosen, Standards, Gesetzen usw. wird
deshalb eine formelle Dokumentation gebraucht. Für sie setzt man immer noch sehr
häufig Papier ein. Neue Datenträger wie digitale Tonbänder (DAT), CD-ROM oder das
elektronische Notizbuch mit Kommunikationsfähigkeiten (Palm- oder Handhelds/PDAs)
stellen derzeit meist nur ein ergänzendes Medium dar, das die alten Inhalte neu
zugänglich macht.
Aussagen, die im Druck publiziert werden, werden durch die Publikation zum "public
record", zur einer öffentlich dokumentierten, unveränderbaren Meinungs- oder
Erkenntnisäusserung, die damit der gesamten Bevölkerung aktuell und später in
Bibliotheken, Patentauslegestellen, Dokumentationszentren usw. zur Verfügung steht.
Bereits heute sind viele der Dokumente, die in Datennetze eingespielt werden,
ungeprüft. Überdies können die Schriftstücke im Netz relativ leicht manipuliert, die
ursprünglichen Aussagen verändert werden. Auch ohne Korrektur der Autorenzeile.
Jede elektronisch verbreitete Information im Netz oder auf wiederbeschreibbaren
Medien ist manipulierbar. Fragen der Integrität, Authentizität und Verifikation sind
ungelöst. Für die Verwendbarkeit von Information sind jedoch Datensicherheit und
Dokumentation von entscheidender Bedeutung.
Ein wesentlicher Aspekt der Informationskultur ist deshalb die Schaffung von
Qualitätsstandards für das elektronische Publizieren. Neue Kriterien müssen definiert
werden für die Prüfung von Qualität, Integrität, Originalität und Zuverlässigkeit der im
Netz verbreiteten Informationen, ohne dass dabei Grundrechte von Demokratie und
Meinungsfreiheit verletzt werden.

Mit Informationskultur die Chancen nutzen

Es soll hier kein falscher Eindruck entstehen: Die Informationsgesellschaft mit all ihren
Chancen wird von den Mitgliedern des Gesprächskreises Informatik durchaus begrüsst.
Doch aus den internationalen Medienangeboten, aus dem neuen System der globalen
Kommunikation, ergeben sich eine Menge ethischer und sozialer Fragen. Unsere
Gesellschaft muss sie rechtzeitig bewältigen, will sie die Chancen gewinnbringend zur
wirtschaftlichen und kulturellen Weiterentwicklung nutzen. Es gilt, gesellschaftliche
Erschütterungen, wie sie früher bedeutende technische Erfindungen begleiteten, (etwa
des Webstuhls, der Dampfmaschine oder des Elektromotors), zu vermeiden.
Rechtzeitig und umfassend müssen deshalb Antworten für folgende Fragen erarbeitet
werden:
• Welche gesellschaftlichen Konsequenzen sind aus der Tatsache zu erwarten,
dass derzeit nicht alle Bürgerinnen und Bürger (sowohl von der verfügbaren
Technik, wie von ihrem Bildungsstand her) den gleichen Zugang zur Information
haben? Wie kann allen ein gleichberechtigter Zugang zur Information gesichert
werden?
• Fördert der multikulturelle Kommunikationsraum Europa/Welt die Verständigung
oder verstärkt er Sprach- und Kulturbarrieren? Wie kann sich die Bevölkerung
darauf vorbereiten?
• Fördert die moderne Informations- und Kommunikationstechnik nicht auch die
soziale Isolierung des Individuums? Telespiele und Telekommunikation weisen
auf entsprechende Tendenzen im Freizeitbereich sowie Teleworking im
Arbeitsleben.
• Lähmt erhöhtes Medienangebot die Kreativität, fördert es die geistige und
emotionale Verflachung bis hin zur Verrohung? Vermehrt es die Kriminalität
ursächlich, wie das am Rande von Strafprozessen heute im Bezug auf das
Fernseh-Angebot bereits diskutiert wird?
• Gefährdet die überwiegende Kommunikation in Bildern und Symbolen die
Fähigkeit, sich durch Sprache vernünftig auszudrücken?
• Wie will man mit der Suggestivwirkung von Bildern und Sprache umgehen?
• Soll jeder Informationen anbieten dürfen?
• Wer verantwortet die Inhalte?
• Wie verhindert man, dass Menschen durch gezielte Desinformation über Medien
manipuliert werden?
• Müssen wir uns vom bestehenden Copyright, dem Schutz des geistigen
Eigentums, verabschieden, weil es unkontrollierbar wird?

Kontrollgremien und ethische Leitlinien schaffen

Politisch und volkswirtschaftlich verantwortungsbewusst Handeln heisst, sich den


Fragen zu stellen und Antworten zu erarbeiten.
Ein wichtiger Schritt wäre die Einrichtung eines Kontrollorgans "Informationsrat",
vergleichbar dem Rundfunkrat.
Als Schul- und Studienfach sollte Informationsethik auf den verantwortungsbewussten
Umgang mit neuen Medien vorbereiten und die Grundlage für eine Selbstkontrolle der
Datennetze legen (die Netze werden derzeit schon für pornographische Bilder, für
Kriegsspiele und politisch extreme Literatur missbraucht). Der Ethik der
Informationsgesellschaft muss ein kontinuierlicher Dialog zwischen Wissenschaft,
Politik, Bürgerinnen und Bürgern gewidmet werden. Die Bevölkerung muss durch
aufklärende Information (auf herkömmlichen Wegen) und Ausbildung in die Lage
versetzt werden, sich aktiv am gesellschaftlichen Diskurs über die Gestaltung der
Informationsgesellschaft beteiligen zu können. Ethische Leitlinien müssen entstehen.
In die Forschung zu den neuen Informations- und Kommunikationstechniken sollte
schnellstmöglich eine Wirkungsforschung eingebunden werden. Ebenfalls von Anfang
an in der Entwicklung berücksichtigt werden müssten ökologische Aspekte. Die
Grenzen der Informationsverarbeitung, die Mathematik und Physik als Basis für die
Informations- und Kommunikationstechnologien nutzen, sind absehbar. In der nächsten
Entwicklungsgeneration wird die Biologie neue Möglichkeiten bringen.
Recht

Schreiben auch Sie einen Beitrag in unser Forum:

Welche Links sind erlaubt? Was ist Recht im Internet?

Weitere Informationen:
• Deutsches Informations- und Kommunikationsdienstegesetz
• Juristisches für Internet-Praktiker
• IT Rechtsprobleme
• Selfhtml - Recht und Links? Selfhtml kämpft gegen den Abmahnwahn!
• Freedom for Links
Revolution

Ist die Digitale Revolution in Wirklichkeit nur eine virtuelle


Revolution?

Die Digitale Revolution ist zur Zeit in aller Munde, und kaum einer weiss, wovon er
eigentlich spricht, wenn er das Zauberwort in den Mund nimmt. In Amerika wird die
Digitale Revolution - oder das, was man gerade darunter zu verstehen wünscht - viel
und als Allheilmittel für alle gesellschaftlichen Übel gepriesen, in Europa dagegen wird
sie geschmäht, und wenn man sie überhaupt für einen Wandel verantwortlich machen
will, dann natürlich für einen ins Negative. Schaut man sich amerikanische Web-Sites
an, bekommt man leicht den Eindruck, dort die Hohepriesterschaft einer neuen Religion
zu sehen, deren Mysterium Digital Revolution heisst, blickt man dagegen ins
europäische Netz, fährt einem der eiskalte Hauch des zweifelnden Protestantismus ins
Gesicht: Gutenberg , das sei noch eine Revolution gewesen, meint z.B. Christoph
Räthke, aber Gates? Gates sei reines Blendwerk.
Die Digitale Revolution, an der die Geister sich so scheiden, ist in den Pamphleten und
Diskussionen schlecht umrissen. Wie bei den meisten Religionsstreitigkeiten,
konzentriert sich das Gros der Eiferer auf kleine Punkte. Sie sehen, sozusagen, vor
lauter Gefechtfeuer die Revolution nicht.
Beliebt ist, die Digitale Revolution mit dem Internet gleichzusetzen und die Wirksamkeit
je nach Konfession entweder daran zu messen, inwieweit Wort und Schrift als Medium
verdrängt werden, oder inwieweit eine weltumfassende, allseligmachende Demokratie
entsteht. Vergleichbar ist so ein Ansatz vielleicht mit der Reformation: Auch zu Zeiten
Luthers hatte die abendländische Religion weiterreichende Ansprüche als den Verkauf
von Ablassbriefen.

Das Internet

Die Digitale Revolution beschränkt sich nicht auf das Internet, den Desktop-Computer
oder die Dominanz einer nordwestamerikanischen Softwarefirma auf dem Jahrmarkt
der Betriebssysteme. Vielmehr schliesst sie nahezu alle Lebensbereiche ein, in denen
elektrische Geräte zum Einsatz kommen: Vom Toaster über den Bankautomaten bis
zum Überschallflugzeug. Wie alle Revolutionen beginnt auch die Digitale bei ganz
banalen Dingen. Dass der Küchentoaster, der zum Frühstück das Brot goldgelb röstet,
von einem digitalen Timer gesteuert wird, findet eigentlich niemand revolutionär. Toast
gab's schon immer, und mit ein bisschen Erfahrung entlockte man auch Grossmutters
Vorkriegsmodell ausgezeichnete Resultate. Ähnlich ist es mit dem Auto: Auch ohne die
Vielzahl von Steuereinheiten, die Einspritzung, ABS, Innentemperatur und Airbags
kontrollieren, kam man im analogen Zeitalter von A nach B - und das, wenn man
Grossvaters Käfer mit dem eigenen Opel Astra vergleicht, oft mit erheblich weniger
Komplikationen.
Überhaupt ist an dem, was wir tun, wenig revolutionär - und war es nie. Etwa seitdem
unsere entfernten Vorfahren den zweibeinigen Gang entwickelten, hat sich das, was wir
tun, nicht entscheidend verändert: wir essen, verdauen, schlafen, kommunizieren und
bewegen uns. Nur wie wir das alles tun, hat sich so sehr verändert, dass Lucy oder
auch Ötzi es kaum wiedererkennen würden. Diese Veränderung, das Wie, ist es, was
die Revolutionen ausmacht, nicht etwa das Was. Auch vor der Erfindung des
Buchdrucks durch Gutenberg wurden Bücher zu Tausenden kopiert und gelesen; jeder
gebildete Mitteleuropäer kannte zu dieser Zeit Homer, Horaz, das Neue Testament und
Augustinus. Gutenberg hat lediglich das Produktionsverfahren vereinfacht (und auch
noch lange nach Gutenberg haben nicht mehr Leute lesen gelernt). Ebenso war es mit
der Dampfmaschine: auch vorher gab es industrielle Produktion und Transportation.
Der Dampfdruck hat nur den Produktionsmechanismus entscheidend verändert.
Ähnlich ist es mit der Digitalen Revolution. Auch sie wird uns nicht auf höhere
Bewusstseinsstufen bringen oder die Basis für ein optimales Gesellschaftssystem sein.
Trotzdem verändert sie radikal, wie wir die Dinge tun, die wir tun. Das fängt an beim
idealgebräunten Toast, geht über das vom Schreibtisch vollzogene Bankgeschäft und
endet noch lange nicht bei der im PC entwickelten Boeing.

Einfluss auf den Menschen

Die Digitale Revolution wird die Welt mindestens so verändern, wie Buchdruck und
Dampfmaschine es getan haben. Allerdings darf man diese Veränderungen nicht auf
dem falschen Gebiet erwarten: Wer denkt, die Digitalisierung würde die
Demokratisierung (oder Totalisierung) vorantreiben, die Schrift ausrotten (oder ihr zu
einem neuen Höhepunkt verhelfen) oder eine neue Welle der Aufklärung (oder
Gegenaufklärung) auslösen, der wird wahrscheinlich enttäuscht sein. Natürlich werden
digitale Medien in all diesen Prozessen, die in der Zukunft zu erwarten sind, mitwirken,
aber auslösen werden sie sie nicht.
Trotzdem wird die Digitale Revolution tief in viele menschliche Prozesse eingreifen und
tut es ja schon: seit Entwicklung der digitalen Nachrichtenübermittlung haben sich nicht
nur die Nachrichten, sondern mit ihnen die gesellschaftliche Auffassung von politischen
Prozessen sehr verändert. Das Resultat ist ein weitverbreiteter Skeptizismus und
Zynismus (Man erinnere sich nur an die Tagesschau der 70er Jahre, wo jedes Wort und
Bild als reines Gold der Wahrheit aufgefasst wurde). Nahezu jeglicher
wissenschaftlicher Fortschritt der letzten 30 Jahre ist direkt oder indirekt mit digitalen
Computern verbunden, die Gen-Tomate ebenso wie die Fortschritte in der
Quantentheorie, AZT genauso wie das Human Genome Project. Schon heute, ganz am
Anfang der Digitalen Revolution, sind viele Wirtschaftszweige völlig von Computern
abhängig. Die meisten gab es zwar schon vor der Digitalisierung, aber durch Computer
hat sich die Art, wie Geschäfte gemacht werden, so sehr verändert, dass sie ohne
digitale Unterstützung gar nicht mehr denkbar sind.

Die Revolution steht erst am Anfang!

Paradigmatisch für die Digitale Revolution ist schliesslich der Siegeszug des Internets.
Vor fünf Jahren hatte es etwa 20 Millionen geschätzte - zu einem grossen Teil
akademische - Benutzer. Heute sind es ein Vielfaches. Das allein ist keine Revolution,
und wer meint, jetzt schon vor dem Ergebnis der Internet-Revolution zu stehen, befindet
sich wahrscheinlich in einer ähnlichen Situation wie ein Jakobiner, der 1789 meinte, die
Französische Revolution sei vollendet, ohne dass er Napoleon antizipierte oder gar die
Demokratien des 20. Jahrhunderts vorhergesehen hätte.
Obwohl die endgültigen Veränderungen, die ein globales Computernetzwerk, wie das
Internet, bewirken kann, noch gar nicht abzusehen sind, sind wir doch schon Zeugen
von echten Neuerungen, die man nicht unterschätzen darf: Das Internet hat in den
wenigen Jahren seiner Existenz schon mehr literarische Genres hervorgebracht als das
ganze 20. Jahrhundert zuvor. Email, Usenet-messages, IRC und Homepages sind völlig
neuartige und äusserst lebendige Formen, in denen Text und Text&Bild auf ganz neue
Weise komponiert werden. Briefe gab es zwar schon vorher, keine Frage, aber wer von
den Lesern schreibt eine Email denn so, wie er einen Brief schreiben würde? Wer hat
vor dem Internet eine Darstellungsform gebraucht, die der Homepage ähnlich wäre?
Und wer hat überhaupt so viele Nachrichten ausgetauscht, wie er es heute tut, bevor er
online ging? Diese Veränderungen im Wie sind bereits eine Revolution für sich, und nur
ein kleiner Teil der grossen Digitalen Revolution.

Wohin führt uns die Revolution?

Alle Veränderungen, die die Digitale Revolution mit sich bringen wird und schon
gebracht hat, hier aufzuzählen, wäre unmöglich und absurd. Es ist auch nicht nötig,
abzuwägen, ob die Revolution denn eine gute oder eine böse sei - die Revolution stellt
uns Fragen, die mit den Kategorien der Religion nicht zu beantworten sind. Die
Digitalisierung vieler Prozesse ist einem Werkzeug vergleichbar: Zwar war die
Erfindung des Hammers der Menschheit ein Segen, da er das Bauen erleichterte. Aber
nicht nur ersetzte der Hammer viele Bauarbeiter an einer bestimmten Stelle des
Produktionsprozesses, er konnte auch als gefährliche Waffe dienen. Gut oder böse?
Das ist vielleicht eine anthropologische Frage. Wer sie sich wirklich in Bezug auf digitale
Instrumente stellen möchte, sollte sie vielleicht ausweiten und auf den Menschen selbst
beziehen.
Auch Gretchens ursprüngliche Frage beantwortet man vielleicht am besten mit den
Worten Fausts: "Lass das, mein Kind! Du fühlst, ich bin dir gut." Wer da ein anderes
Gefühl hat, der denke an dieser Stelle doch bitte an Gretchens Ende und lasse die
Zweifel.
Internet
o Architektur des Internets
o Contentmanagement (s.h. IT-Grundlagen)
o Das Portal
o Dienste
o eBusiness und eCommerce
o Internet Organisation
o Standards im Internet
o Suchmaschinen
o W3C Standards
o Webserver
Architektur des Internets

Eigenschaften des Internets

Die Vorstellung eines umfassenden Dienstes ist wichtig, aber diese allein kann nicht
alle Ideen erfassen, die eine Forschergruppe für ein einheitliches Internet im Kopf hat,
weil viele Ausführungen eines umfassenden Dienstes möglich sind. In diesem Ansatz
soll die darunterliegende Internetarchitektur vor dem Benutzer verborgen werden. Und
zwar deshalb, weil nicht von den Benutzern oder Anwendungsprogrammen verlangt
werden soll, dass sie die Details der Hardwareverbindungen verstehen müssen, um das
Internet benutzen zu können. Ausserdem wird keine bestimmte
Netzwerkverbindungstopologie gefordert. Insbesondere soll das Anbinden eines neuen
Netzwerks an das Internet nicht das Verbinden mit einen zentralen Knotenpunkt oder
gar das Hinzufügen direkter physikalischer Verbindungen zwischen dem neuen
Netzwerk und allen bestehenden Netzwerken erfordern. Es soll möglich sein, Daten
durch Netzwerke zu senden, auch wenn diese nicht unmittelbar mit dem Quell- oder
Zielrechner verbunden sind. Jeder Rechner im Internet soll eine einheitliche Kennung
besitzen (die man sich als Name oder Adresse vorstellen kann).
Diese Vorstellung eines einheitlichen Internets enthält überdies die Idee der
Netzwerkunabhängigkeit der Benutzerschnittstelle. Das erfordert, dass der Befehlssatz,
der verwendet wird, um Kommunikation herzustellen oder Daten zu übertragen,
unabhängig von der darunterliegenden Netzwerktechnologie und der des Zielrechners
ist. Sicherlich sollte ein Benutzer nicht die Netzwerkverbindungstopologie verstehen
müssen, um Anwendungsprogramme für die Kommunikation zu schreiben.

Internetarchitektur

Rechner können zu individuellen Netzwerken verbunden werden. Wie aber werden


Netzwerke zu einem Internetwork (Internet) verbunden? Zunächst einmal müssen zwei
Netzwerke physikalisch durch einen Rechner, der an beiden hängt, verbunden sein.
Eine physikalische Anbindung allein liefert jedoch nicht die Verbindung, die sich die
Entwickler vorgestellt haben, da eine solche Verbindung nicht garantiert, dass die
Rechner mit anderen zusammenarbeiten, die zu kommunizieren wünschen. Um ein
funktionierendes Internet zu erhalten, werden Rechner benötigt, die Pakete von einem
Netzwerk zum anderen transportieren. Rechner, die auf diese Weise mit zwei
Netzwerken verbunden sind und Pakete von einem zum anderen verschicken, werden
Internet-Gateways oder Internet-Router genannt.
Es soll nun ein Beispiel betrachtet werden, das aus zwei physikalischen Netzwerken
besteht wie in Bild 1 dargestellt. Im Bild ist der Router R sowohl mit Netzwerk 1 als auch
mit Netzwerk 2 verbunden. Damit R als Router handeln kann, muss dieser Pakete in
Netzwerk 1 erfassen, die für Rechner in Netzwerk 2 bestimmt sind und diese
übertragen. Genauso muss R Pakete in Netzwerk 2 erfassen, die ins Netzwerk 1 sollen,
und übertragen.
Abbildung: Zwei physikalische Netzwerke, die durch einen Router (IP Gateway), verbunden sind.

Im Bild werden die Wolken verwendet, um physikalische Netzwerke zu kennzeichnen,


da die exakte Hardware unwichtig ist. Jedes Netzwerk kann ein LAN oder ein WAN sein
und an jedes können viele Endsysteme oder nur wenige angeschlossen sein.

Verbindung durch Router

Sobald Internetverbindungen komplexer werden, müssen Router die Topologie des


Internets kennen, die sich hinter den Netzwerken verbirgt, mit denen sie verbunden
sind. Als Beispiel dient Bild 2, das vier Netzwerke zeigt, die durch zwei Router
verbunden sind.

Abbildung: Vier Netzwerke, die durch drei Router miteinander verbunden sind.

In diesem Beispiel muss Router R1 alle Pakete von Netzwerk 1 zu Netzwerk 2


übertragen, die für Rechner in Netzwerk 2, Netzwerk 3 oder Netzwerk 4 bestimmt sind.
Bei einem grossen Internet, das aus vielen Netzwerken besteht, wird die Aufgabe des
Routers, zu entscheiden, wohin Pakete gesendet werden, komplexer.
Die Idee eines Routers erscheint einfach, aber sie ist wichtig, da sie eine Möglichkeit
bietet, Netzwerke und nicht nur einzelne Rechner miteinander zu verbinden. Genau
dies ist das Grundprinzip der Verbindung, das überall im Internet Anwendung findet:
In einem TCP/IP Internet stellen als Router (oder Gateways) bezeichnete Rechner alle
Verbindungen zwischen den physikalischen Netzwerken zur Verfügung.
Man könnte annehmen, dass Router, die wissen müssen, wie sie Pakete an ihren
Bestimmungsort schicken, grosse Rechner mit ausreichend primärem und sekundärem
Speicher sind, der Informationen über jeden Rechner im Internet enthält, an das sie
angeschlossen sind. Router, die in TCP/IP Internets verwendet werden, sind jedoch
üblicherweise kleine Rechner. Sie verfügen über kleinen oder gar keinen
Plattenspeicher und beschränkten Hauptspeicher. Dies ist möglich, weil folgender
"Trick" benutzt wird:
Router verwenden das Zielnetzwerk und nicht den Zielrechner beim Routen eines
Pakets.
Wenn das Routing netzwerkbasiert erfolgt, verhält sich die Informationsmenge, die ein
Router speichern muss, proportional zur Anzahl der Netzwerke im Internet und nicht zur
der der Rechner.

Die Sicht des Benutzers

TCP/IP wurde entworfen, um eine umfassende Verbindung zwischen Rechnern


herzustellen, unabhängig von den jeweiligen Netzwerken, an die sie angeschlossen
sind. Auf diese Weise wird für den Anwender das Internet als einzelnes, virtuelles
Netzwerk dargestellt, an das alle Rechner angebunden sind, unabhängig von ihren
tatsächlichen physikalischen Verbindungen. Bild 3a stellt dar, wie das Ansehen als ein
Internet statt als einzelne Netzwerke die Details vereinfacht und es für den Anwender
leichter macht, sich von der Kommunikation eine Vorstellung zu machen. Zusätzlich zu
den Routern, die physikalische Netzwerke miteinander verbinden, benötigt man
Software auf jedem Endsystem, die es Anwendungsprogrammen ermöglicht, das
Internet zu benutzen, als sei es ein einziges reales physikalisches Netzwerk.
Abbildung: (a) Die Sicht des Benutzers auf ein TCP/IP Internet, in dem jeder Rechner an ein einziges grosses
Netzwerk angeschlossen zu sein scheint, und (b) die Struktur von physikalischen Netzwerken und Routern, die die
Verbindungen herstellen.

Der Vorteil, Verbindung auf Netzwerkebene herzustellen, wird nun deutlich. Weil
Anwendungsprogramme, die via Internet kommunizieren nicht die Details der
darunterliegenden Verbindungen kennen müssen, können sie ohne Veränderung auf
jedem Rechner benutzt werden. Weil die Details der physikalischen
Netzwerkverbindungen eines jeden Rechners in der Internetsoftware versteckt sind,
muss nur diese Software verändert werden, wenn neue physikalische Verbindungen
hinzukommen oder alte verschwinden. Tatsächlich ist es sogar möglich, die internen
Strukturen des Internets durch Verändern der physikalischen Verbindungen zu
optimieren, ohne Anwendungsprogramme neu zu kompilieren.
Ein weiterer Vorteil der Kommunikation auf Netzwerkebene ist von geringerer
Bedeutung. Die Anwender müssen nicht verstehen oder sich daran erinnern, wie
Netzwerke miteinander verbunden sind oder welchen Datenverkehr sie bewältigen. Es
können Anwendungsprogramme geschrieben werden, die unabhängig von der
darunterliegenden physikalischen Verbindung miteinander kommunizieren. Tatsächlich
ist es den Netzwerkmanagern möglich, einzelne Komponenten der darunterliegenden
Netzwerkarchitektur zu wechseln, ohne die Anwendungssoftware auf den meisten
Rechnern, die ans Internet angeschlossen sind, zu verändern (selbstverständlich muss
die Netzwerksoftware rekonfiguriert werden, wenn ein Rechner an ein neues Netzwerk
angeschlossen wird).
Wie Bild 3b zeigt, stellen Router nicht zwischen allen Netzwerkpaaren direkte
Verbindungen her. Es kann notwendig sein, dass Daten, die von einem Rechner zu
einem anderen geschickt werden, verschiedene dazwischenliegende Netzwerke
passieren. Dazu ist es nötig, dass jedes Netz sich damit einverstanden erklärt,
Datentransitverkehr abzuwickeln im Austausch zu dem Recht Daten überall ins Internet
zu senden. Typische Anwender werden vom zusätzlichen Datenverkehr auf ihrem
lokalen Netzwerk nicht beeinflusst und bemerken diesen nicht.

Gleichbehandlung von Netzwerken

Ein TCP/IP Internet kann aus einer Vielzahl von Netzwerktechnologien


zusammengebaut sein. In diesem Entwurf wird das Internet als eine Vereinigung von
zusammenarbeitenden, miteinander verbundenen Netzwerken beschrieben. Dazu ist es
wichtig, ein grundlegendes Konzept zu verstehen: Aus Sicht des Internets zählt jedes
Kommunikationssystem, das in der Lage ist, Pakete zu transportieren, als einzelnes
Netzwerk, unabhängig von Verzögerung, Durchsatz, maximaler Paketgrösse oder
geographischem Ausmass. Insbesondere verwendet Bild 3b die gleiche kleine Wolke,
um alle physikalischen Netzwerke darzustellen, weil TCP/IP diese gleich behandelt trotz
ihrer Unterschiede. Der Punkt ist:
Die TCP/IP Internetprotokolle behandeln alle Netzwerke gleich. Ein local area network
wie z.B. ein Ethernet, ein wide area network wie das ANSNET backbone und eine
Direktverbindung zwischen zwei Rechnern zählen jeweils als ein Netzwerk.
Jemand, für den die Internetarchitektur ungewohnt bzw. neu ist, mag es möglicherweise
als schwierig empfinden, eine solch vereinfachende Sicht von Netzwerken zu
akzeptieren. Im wesentlichen definiert TCP/IP eine Abstraktion von "Netzwerk", die die
Details physikalischer Netzwerke versteckt. Eine solche Abstraktion trägt dazu dabei,
TCP/IP äusserst mächtig zu machen.

Zusammenfassung

Ein Internet ist mehr als eine Anhäufung von Netzwerken, die durch Rechner
miteinander verbunden sind. Internetworking bedeutet, dass die miteinander
verbundenen Systeme Konventionen berücksichtigen, die es jedem Rechner erlauben,
mit jedem anderen zu kommunizieren. Insbesondere erlaubt ein Internet zwei Rechnern
miteinander zu kommunizieren, auch wenn der Kommunikationspfad zwischen ihnen
ein Netzwerk durchläuft, an das keiner von beiden direkt angeschlossen ist. Eine solche
Zusammenarbeit ist nur möglich, wenn die Rechner eindeutige Kennungen und Befehle
verwenden, um Daten an ihren Bestimmungsort zu schicken.
In einem Internet werden die Verbindungen zwischen Netzwerken durch Rechner
hergestellt, die IP Router oder IP Gateways genannt werden und die an zwei oder mehr
Netzwerke angeschlossen sind. Ein Router befördert Pakete zwischen Netzwerken,
indem er diese aus einem Netzwerk empfängt und in ein anderes sendet.
Das Portal.

Das Portal ist eine Einstiegsseite und erster Anlaufpunkt, über den der Zugang zu
weiteren Websites erfolgt. Informationen und Dienstleistungen werden einem offenen
oder geschlossenen Userkreis zugänglich gemacht. Das vertikale Portal ist ein
Internetangebot, das sich an eine klar umrissene Zielgruppe wendet. Sie konzentriert
sich auf das Thema und geht eher in die Tiefe als in die Breite. Vertikale Portale sind
vor allem im B2B-Bereich wichtig. Im Gegensatz dazu richtet sich ein horizontales
Portal an eine sehr breite Nutzerschicht mit allgemeinen Interessen. Ein Business-
Portal ist ein auf eine Branche spezialisiertes vertikales Portal, welches ausschliesslich
geschäftlichen Zwecken dient, wie etwa ein Internetangebot für die Holz verarbeitende
Industrie, über das man zu den einzelnen Anbietern oder zu einem digitalen Marktplatz
kommt.

Typen von Webseiten

• Suchmaschinen - google.com
• Meta-Suchmaschinen - profusion.com
• Internet Verzeichnisse - yahoo.de
• Portale - t-online.de

• Firmensites
• private Homepages
• Community-Sites - community.ican.at
• News-Sites - news.ch
• Filesharing - gnutella.wego.com

• E-Business
• E-Commerce
• E-Government
• E-Procurement
• Auktionen - ricardo.de
• Co-Shopping - letsbuyit.com
• Internet Banking
• Online Brokering
• Shopping-Mall
• Infomediäre / Agents - ask.com

Techniken bei Webseiten

• Collaborative Filtering
• Personalisierung
• Profile Filertering
• Profiling
• Prosuming
• Crosslinking
• Cross-Selling
• One-to-One Marketing
• Permission Marketing
• Interruption Marketing
Dienste

World Wide Web (WWW)

Das World Wide Web (WWW) ist der Senkrechtstarter unter den Internet-Diensten und
enhält u.a eine gewaltige Sammlung an Texten, Bildern oder Sounds. Die einzelnen
Dateien sind auf Millionen von Web-Servern verteilt und über sogenannte Links
miteinander verbunden, der Anwender kann diese Daten mit einem Browser abrufen.
Trotz der Bezeichnung Web ist das WWW kein eigenständiges Netz wie das Internet,
sondern es benutzt das Internet zur Übertragung der Daten.
Im WWW gibt es einen eigenen Übertragungsstandard, der die Kommunikation
zwischen Browser (Client) und Anbieter (Server) regelt, dies ist das "Hypertext Transfer
Protocol" (HTTP). Übertragen werden Dateien, die in "Hypertext Markup Language"
(HTML) geschrieben sind. HTML ist eine einfache Sprache mit Struktur- und
Funktionselementen, die unter anderem die Formatierung von Text, Einbindung von
Grafiken oder Verlinkung mit anderen HTML-Dokumenten erlaubt. Jede auf einem
WWW-Server gespeicherte Datei hat eine weltweit eindeutige Adresse, URL genannt
(Unified Resource Locator).
URLs bestehen im Wesentlichen aus 3 Teilen und geben an, wie und von wo Daten aus
dem Internet angefordert werden. Der erste Teil gibt das Übertragungsprotokoll an (zB.
"http://"), der zweite Teil die Adresse des Servers (zB. itmanager.info) und der dritte Teil
die Datei, die angefordert werden soll (zB. index.htm im Verzeichnis internet). Die
komplette Adresse wäre in diesem Fall http://itmanager.info/internet/index.htm
Mit den Browsern kann auch auf andere Internet-Dienste zugegriffen werden, in solchen
Fällen wäre dann der erste Teil der jeweiligen Adresse (URL) "ftp://" für den Internet-
Dienst FTP, "gopher://" für Gopher usw.

E-Mail (Elektronische Post)

Die elektonische Post (E-Mail, Electronic Mail) gehört neben dem World Wide Web zu
den meistgenutzten und populärsten Diensten im Internet. Der Umgang mit E-Mail ist
einfach, unkompliziert und sehr effizient.
Vergleichbar ist dieser Dienst mit einem Fax oder der normalen Post. Ein elektronisch
verfasster Brief kann über das Internet direkt an einen anderen Netz-Teilnehmer
geschickt werden, innerhalb von Minuten landet die verschickte E-Mail im Postfach des
Empfängers, egal ob dieser in Europa oder in den USA ist.
Um eine E-Mail zu schreiben, muss man sich im Wesentlichen um folgende 3
Bestandteile kümmern:
• Empfängeradresse
• Betreff (Subject)
• den eigentlichen Inhalt (Body)
Die E-Mail-Adressen sind sehr einfach aufgebaut und bestehen meistens aus einem
Namen gefolgt vom Zeichen @ ("at" oder Klammeraffe) und dem Namen der Domäne.
Ein Beispiel wäre info@itmanager.info. Eine solche E-Mail-Adresse ist weltweit
eindeutig.
Im Betreff wird schlagwortartig auf den Inhalt hingewiesen, der Body enthält den
eigentlichen Inhalt der Mail. Weiters besteht die Möglichkeit, beliebige Arten von
Dateien an eine Mail anzuhängen (Attachments) und zu verschicken.

Usenet / Newsgroups

Die Newsgroups sind die öffentlich zugänglichen Diskussionsforen im Internet, die


sogenannten "schwarzen Bretter". Unter zigtausenden von Newsgroups zu allen
möglichen Themen kann jeder seine Favoriten abonnieren, als stiller Teilnehmer
mitlesen oder selbst an Diskussionen teilnehmen. Als Übertragungsprotokoll hat sich im
Usenet das "Network News Transfer Protokoll" (NNTP) durchgesetzt.
Beispiele von Newsgruppen sind de.comm.internet.misc für Beiträge rund um das
Internet oder de.rec.fotografie für Foto-Interessierte. Das "de" am Anfang bedeutet,
dass es sich um eine deutschsprachige Newsgroup handelt. Je nach Thema gibt es in
deutschsprachigen Newsgroups täglich zwischen wenigen bis zu ein paar hundert neue
Beiträge, die von vielen tausenden von Teilnehmern gelesen werden können.
Für die Teilnahme an den Newsgroups benötigt man eine eigene Software, die
allgemein unter dem Namen Newsreader bekannt ist.

FTP (File Transfer Protocol)

FTP gehört zu den ältesten Internet-Diensten, für die Übertragung wird das File
Transfer Protocol verwendet. Es ist möglich, Dateien per FTP aus dem Internet
downzuloaden oder auch ins Internet zu kopieren, zum Beispiel alle Dateien eines Web-
Angebotes.
Normalerweise können die heutigen Web-Browser auf FTP-Server zugreifen und auch
Programme downloaden, es gibt aber auch eigene FTP-Programme, die auch für den
Upload von Dateien ins Internet notwendig sind.

TelNet

TelNet setzt sich aus den beiden Wörtern Telecommunication und Network zusammen
und ist einer der ältesten Internet-Dienste. TelNet bietet die Möglichkeit, auf unterster
Ebene mit anderen Computern zu kommunizieren. Klassische Einsatzbeispiele von
TelNet sind das Abfragen von Datenbanken oder das Ausführen lassen von
Rechenoperationen auf fremden Grossrechnern. Für die Benutzung des TelNet ist ein
eigener TelNet-Client notwendig. Heute ist der Bereich Telebanking ein typisches
Beispiel, wo auch der private Internet-User über TelNet einen zentralen Host bedienen
kann.
Internet Relay Chat (IRC)

IRC ist ein Internet-Dienst, der es ermöglicht, per Tastatur gleichzeitig mit mehreren
Netzteilnehmern zu kommunizieren. Es hat sich der Name Chat (Plaudern)
eingebürgert.
Chat-Teilnehmer müssen sich bei einem IRC-Server einloggen, der dann die
Tastatureingaben jedes einzelnen sofort an die anderen Chat-Teilnehmer weiterleitet.
Die Benutzung des IRC erfolgt mit eigenen Programmen, alternativ dazu gibt es die
Java-Applets für den Chat, die das Chatten auch mit einem Browser ermöglichen.

Gopher

Gopher ist ein ähnliches Informationssystem wie das World Wide Web, sozusagen der
Vorläufer des WWW. Normale Text-Dateien sind hierarchisch abgelegt, ähnlich wie
beim Dateimanager von Windows. Durch einfaches Anklicken können diese Text-
Dateien angesehen werden. Im Gegensatz zum World Wide Web gibt es bei Gopher
keinerlei Formatierungen und keine multimedialen Fähigkeiten.

Wais

Wais (Wide Area Information Service) ist ein junger Internet-Dienst, ein System zur
Volltextsuche in Dokumenten und Datenbanken. Kombinationen von Suchbegriffen sind
erlaubt, wodurch die Treffsicherheit erhöht wird.

Archie

Archie ist ein Suchdienst, um nach Dateien auf öffentlichen FTP-Servern zu suchen.
Auf eigenen Archie-Servern werden in umfangreichen Datenbanken die Inhalte der
FTP-Server verwaltet. Inzwischen ist Archie veraltet, die Indexierung von FTP-Servern
wurde mittlerweile von Suchmaschinen im World Wide Web übernommen.
eBusiness und eCommerce

Der Überbegriff für eCommerce, eGovernment, eProcurement, eLogistik


usw. ist eBusiness.
eBusiness umfasst alle Teile von Geschäftsprozessen einer
Unternehmensorganisation, die über Datennetze (z.B. WorldWideWeb-WWW)
zwischen zentralen Unternehmenssystemen und Partnern (z.B. Kunden, Mitarbeitern,
Händlern und Lieferanten) abgewickelt werden. Alle diese Prozesse werden intensiv mit
den neuen Technologien (z.B. Internet) abgewickelt, inklusive aller Dienstleistungen, die
es offline, sprich ohne elektronische Systeme, gar nicht gibt.
Wenn dabei die Zahlung auch elektronisch erfolgt, spricht man von eCommerce, und
wenn die Transaktionen mobil (z.B. WAP-Handy) durchgeführt werden, dann
mCommerce oder beim Internet über den Fernsehapparat von tCommerce.
Die eBusiness Branche unterscheidet generell zwischen
• Business-to-Business Transaktionen (B2B)
• Business-to-Consumer Transaktionen (B2C)
• Consumer-to-Consumer Transaktionen (C2C)
• Administration-to-Business Transaktionen (A2B)
• Administration-to-Consumer Transaktionen (A2C)
• Administration-to-Administration Transaktionen (A2A)

Business-to-Business (B2B)

B2B deckt sämtliche Transaktionen zwischen zwei oder mehreren Geschäftspartnern


ab. Diese Transaktionen basieren häufig auf einem Extranet, also zugangsgeschützen
Netzen im Internet. Dieser Bereich macht derzeit den Hauptanteil von eBusiness aus,
da sich hier vorallem durch die elektronischen Kommunikations- und
Datenverarbeitungsmöglichkeiten die grössten Einsparungspotentiale ergeben.
Handelsketten, Zuliefer- und Produktionsbetriebe, setzen schon heute auf vorhandene
Standardanwendungen (z.B. EDI - Electronic Data Interchange). In dieser Kategorie
kann kein betriebswirtschaftlich denkender Betrieb an eBusiness vorübergehen.

Business-to-Consumer (B2C)

B2C bezieht sich auf die Beziehung zwischen Händler und Privatkunden (auch
eRetailing genannt). Diese Geschäfte werden meist über das offene Internet
abgewickelt. Diese Kategorie erlebt durch das WWW einen grossen Aufschwung.
Online Shops und Shopping Malls sind ein beliebtes Thema in den Medien und
entstehen in allen möglichen Sparten und Erdteilen. Aber erst mit Web-TV,
Screenphones und anderen Frontend Anwendungen in den Haushalten oder Kiosken
werden hier in den nächsten Jahren betriebswirtschaftliche Erfolge zu verzeichnen sein.
Mehr Erfolg haben Marketinginformationen und PR-Aktivitäten, wie Shareholder
Informationen, Beschwerdemanagement und -analyse, welche die Kommunikation
Unternehmen Kunden fördern und damit Loyalität sowie Kundenzufriedenheit
verbessern. Natürlich hat sich aufgrund der administrativen Kostensituation im
Finanzbereich online banking auch in dieser Kategorie immer mehr durchgesetzt.

Consumer-to-Consumer (C2C)

C2C umfasst alle Transaktionen zwischen Konsumenten. Der Konsument verkauft an


andere Konsumenten - in Printmedien wie dem Bazar etwas ganz alltägliches, welches
in Zukunft durch das Internet (WWW, E-Mail und Newsgroups) eine neue Dimension
bekommt.

Administration

Auch bei den Ministerien gibt es den Versuch die Formularflut zwischen öffentlichen
Einrichtungen und Unternehmen elektronisch abzuwickeln. Diese Transaktionen fallen
in den Bereich Administration-to-Business (A2C). Administration-to-Consumer (A2C) ist
das 24-Stunden-Amt für den Bürger und wenn die Behörden untereinander elektronisch
kommunizieren oder Daten austauschen, ist das Administration-to-Administration (A2A).
Diese drei Transaktionsformen nennt man auch eGovernment und führen zu einer
Erhöhung der Leistungsfähigkeit und Kostenoptimierung in der Verwaltung - der
Wunschtraum jedes Politikers und Steuerzahlers.

Kategorien

eBusiness in Portalen kann grob in folgende Kategorien eingeteilt werden:


• Horizontale Portale bieten Verzeichnisse von Unternehmen nach Branchen bzw.
Produktgruppen. Diese Kataloge sind auf Vollständigkeit orientiert.
• Vertikale Portale sind branchen-orientiert. Alle relevanten Informationen für eine
bestimmte Community (Anbieter und Nachfrager) sind auf einer Plattform
vereinigt.

eProcurement

Die elektronische Organisation von Beschaffungsvorgängen automatisiert den


gesamten Einkaufsprozess in einem Unternehmen oder der öffentlichen Verwaltung.
Die Vorteile sind offensichtlich:
• Die Einkaufsabteilung kann sich auf den strategischen Einkauf konzentrieren. Sie
wählt die Lieferanten aus und verhandelt die Konditionen.
• Der operative Einkaufsvorgang wird dorthin verlagert wo der Bedarf entsteht,
nämlich zum Mitarbeiter. Spontaneinkäufe bei falschen Lieferanten werden durch
elektronische, zentral gesteuerte Produktkataloge vermieden.
• Durch die hochgradige Standardisierung bei einer elektronischen Beschaffung
kann der administrative Aufwand im Unternehmen stark reduziert werden und die
Beschaffungszeiten verkürzen sich.
• Durch die unmittelbare Publikation von Bedarf und Ausschreibungen im Internet
reduzieren sich die Suchkosten und die Zeit bis zum Einlagen von Angeboten.
Der erweiterte Kreis an potentiellen Anbietern oder der virtuelle
Zusammenschluss von Einkaufsgemeinschaften (NetMarkets) ermöglicht
günstigere Angebote.
Internet Organisation

Was sind IP-Adressen?

Domainnamen wie www.itmanager.info sind nichts anderes als Gedächtnishilfen für den
Menschen am Computer -- die Computer selbst benutzen zur Kommunikation IP-
Adressen: Codes, die derzeit aus vier Zahlen zwischen 0 und 255 bestehen. Erst ein
DNS-Server verwandelt die vom Menschen eingetippte Zeichenfolge
www.itmanager.info in die IP-Adresse 192.168.34.65. IP bedeutet dabei Internet
Protocol.
Mittels einer IP-Adresse lässt sich ein bestimmter Nutzer aber nicht zweifelsfrei
identifizieren, da oftmals IP-Adressen dynamisch vergeben werden: Beispielsweise
kann ein Zugangsprovider über eine ganze Reihe von IP-Adressen verfügen und einem
Nutzer die jeweils nächste freie IP-Adresse zeitweilig zuweisen. Auf der anderen Seite
führt ein Domainname oftmals zu einer Reihe von Servern mit jeweils eigenen IP-
Adressen.

Was für Domain-Arten gibt es?

Eine Webadresse wie www.itmanager.info lässt sich in drei Abschnitte unterteilen, die
von hinten nach vorne gelesen werden. .ch steht für die Schweiz und ist einer von über
240 Ländercodes. Solche Domainnamen werden als country-code Top-Level-Domains
bezeichnet, kurz ccTLD. Für die Einrichtung des Domainnamens icannchannel.de ist
nicht ICANN, sondern die Vergabestelle des jeweiligen Landes zuständig (für
Deutschland: DE-NIC). Über die Einrichtung von www.itmanager.info,
mail.itmanager.info oder irgendwas.itmanager.info entscheidet schliesslich der
Domaininhaber selbst.
Ausser den Ländercode-Domainnamen gibt es generische Top-Level-Domains, die mit
gTLD abgekürzt werden. .com ist die am häufigsten verwendete gTLD, dazu kommen
.net und .org. Ursprünglich sollten .net-Domains im Zusammenhang mit dem
Netzwerkbetrieb und .org-Domains für Organisationen verwendet werden. Weitere
gTLDs sind .edu (Bildungseinrichtungen), .gov (US-Regierung), .mil (US-Militär) und .int
(internationale Organisationen).

Was sind Rootserver?

Die Zuordnung einer IP-Adresse (wie 192.168.34.65) zu einem Domainnamen (wie


itmanager.info) erfolgt über so genannte DNS-Server. Solche DNS-Server sind auf der
ganzen Welt verteilt, und zumeist kennt der DNS-Server z.B. des eigenen
Zugangsprovider bereits die IP-Adresse der gewünschten Domain.
Wenn der DNS-Server die Domain nicht zuordnen kann (oder die Zuordnung bereits so
alt="" ist, dass sie nicht mehr verlässlich ist), schickt er die Anfrage weiter an einen
höheren DNS-Server. An oberster Stelle des Domain Name Systems stehen dreizehn
Rechner: die Rootserver, jeweils mit einem Buchstaben gekennzeichnet. An oberster
Stelle steht der Rootserver A, auf dessen Daten die Angaben aller anderen Rootserver
beruhen -- das "Herz des Internets".

Was ist ICANN?

Die Abkürzung steht für Internet Corporation for Assigned Names and Numbers. ICANN
ist eine private Internet-Organisation mit Sitz in Marina del Rey, Kalifornien, die
bestimmte zentrale Koordinierungsaufgaben im Internet übernimmt. Es geht dabei um
folgende Bereiche:
• IP-Adressen: ICANN koordiniert das IP-Adressensystem, und ist die oberste
Instanz, die IP-Adressenblöcke vergibt. Die Blöcke werden an die regionalen IP-
Registries vergeben, die sie dann weiter verteilen.
• Domainnamen-System: ICANN koordiniert das Domainnamen-System (DNS)
und ist insbesondere die Instanz, die über die Einrichtung von Top-Level-
Domains entscheidet.
• Internet-Protokolle: ICANN koordiniert die Zuweisung von Parametern mit
Internet-Bezug und ist z.B. für die Vergabe von IP-Port-Nummern zuständig.
• Rootserver System: In diesem Punkt hat ICANN eine deutlich geringere Rolle
als in den anderen Bereichen. ICANN überwacht zwar den Betrieb des
Rootserver-Systems, bislang scheint die US-Regierung jedoch nicht bereit zu
sein, die letzte Aufsicht darüber völlig abzugeben.

Ist ICANN die Welt-Internetregierung?

ICANN hat weder die Kompetenzen noch den Etat oder das Personal, eine Welt-
Internetregierung zu stellen. Über viele Aspekte des Internets wird an anderer Stelle
beraten und entschieden, z.B. bei G-8 und WTO (e-Commerce) oder bei IETF und W3C
(Standards). Dennoch ist ICANN derzeit das Gremium im Internet, auf das sich viele
Akteure -- von Regierungen über Unternehmen bis zu Bürgerrechtlern -- konzentrieren.
ICANNs technische Entscheidungen können starke politische und wirtschaftliche
Auswirkungen haben.
In Ermangelung eines besseren Begriffes wird bei ICANN Channel daher vorwiegend
der Begriff Internet-Verwaltung verwendet. Das sollte jedoch nicht über die Bedeutung
von ICANN hinwegtäuschen: Das Domainnamen-System ist zu einem Rückgrat des
Internets geworden, und ICANN ist dabei die Stelle, an der die Spielregeln aufgestellt
werden.

Wie ist ICANN aufgebaut?


ICANN besteht hauptsächlich aus einem Direktorium samt Präsident und drei
Unterorganisationen. Das ICANN-Direktorium besteht aus neunzehn Mitgliedern:
• je drei werden von den drei Fachorganisationen (ASO, DNSO und PSO) gewählt,
• neun werden von den Internetnutzern gewählt, die sich als ICANN-At-Large-
Mitglieder registriert haben,
• dazu kommt ein von den anderen Direktoren gewählter Präsident, der dann
ebenfalls dem Direktorium angehört.

Die Unterorganisationen sind jeweils für bestimmte Aufgabenbereiche


zuständig:
• Die Address Supporting Organization (ASO) ist für IP-Adressen zuständig. Die
Mitglieder des ASO-Gremiums Address Council werden von den drei regionalen
IP-Registries (ARIN, RIPE NCC und APNIC) gestellt.
• Die Domain Name Supporting Organization (DNSO) ist für das Domainnamen-
System zuständig. Die Mitglieder des Names Council werden von sieben
Fachgruppen gewählt. In diesen Fachgruppen sind jeweils Interessenvertreter
einer Richtung versammelt:
o Registrare (die das Eintragen von Domainnamen anbieten)
o gTLD-Registries (die das Register über die eingetragenen Domains
führen; derzeit gibt es nur eine gTLD-Registry)
o ccTLD-Registries (für jede Ländercode-Top-Level-Domain)
o kommerzielle Internetnutzer
o nicht-kommerzielle Domainnamenbesitzer (wie z.B. Organisationen,
Universitäten)
o Internet Service Provider und Connectivity Provider
o Vertreter von Urheberrechtsinteressen
• Die Protocol Supporting Organization (PSO) ist für technische Parameter
zuständig. Der zugehörige Protocol Council setzt sich aus vier Organisationen
zusammen, die im Internet-Bereich Standards setzen:
o World Wide Web Consortium (W3C)
o Internet Engineering Task Force (IETF)
o International Telecommunications Union (ITU)
o European Telecommunications Standards Institute (ETSI)

Welche Rolle spielen Regierungen bei ICANN?

ICANN ist keine internationale Organisation, die von Staaten gebildet wurde, sondern
eine private Organisation nach kalifornischem Recht. Es gibt jedoch ein Gremium, an
dem Regierungsvertreter aller Staaten teilnehmen können: Das Governmental Advisory
Committee (GAC) . Es handelt sich dabei jedoch um ein beratendes Komitee, dessen
Beschlüsse für das ICANN-Direktorium rechtlich nicht bindend sind. Bislang gab es
allerdings auch keinen ernsthaften Konflikt zwischen GAC und dem Direktorium.
Darüber hinaus hat die US-Regierung weiterhin die letzte Aufsicht über den
Rootserver A.

Was ist die At-Large-Wahl?

Ein Teil der Direktoriumsmitglieder wird durch die ICANN-At-Large-Mitglieder gewählt.


ICANN-At-Large-Mitglied kann jeder werden, der über eine E-Mail-Adresse und eine
Postadresse verfügt.
Die Anmeldung erfolgte über die ICANN-At-Large-Website. Es wurde dann eine
Mitgliedsnummer und ein Passwort an die E-Mail-Adresse geschickt. Die PIN-Nummer
wurde per Post an die angegebene Adresse versandt. Die Mitgliedschaft wurde
aktiviert, wenn alle drei Angaben (Mitgliedsnummer, Passwort und PIN-Nummer) auf
der ICANN-At-Large-Website eingegeben werden.
Gewählt wurde ebenfalls über das Internet: Von den neun At-Large-Direktoren wurden
fünf im Oktober 2000 von den Mitgliedern gewählt, die sich bis zum 31.7.2000
angemeldet hatten. Die Abstimmung erfolgte dabei nach Weltregionen: Je ein Direktor
wurde gewählt von den At-Large-Mitglieder in den Regionen
• Europa
• Asien/Australien/Pazifik
• Lateinamerika/Karibik
• Afrika
• Nordamerika

Was war vor ICANN?

ICANNs Aufgaben wurden vorher durch oder im Auftrag von US-Regierungsbehörden


erledigt. Die meisten Aufgaben hat ICANN von der IANA, der Internet Assigned
Numbers Authority übernommen, hinter der hauptsächlich ein Internet-Pionier, Jon
Postel stand. Postel gehörte zu den Erfindern des Domainnamen-Systems.
Seit 1992 ist die Firma Network Solutions Inc. im Auftrag der US-Wissenschaftsbehörde
NSF für den Betrieb der Domain-Datenbank für .com, .net, .org und .edu zuständig.
1995 wurde das Abkommen zwischen US-Regierung und Network Solutions geändert,
dass die Firma jährliche Gebühren nehmen durfte. Vom Internet-Boom (vor allem durch
das World Wide Web) profitierte Network Solutions enorm.
Jon Postels IANA unternahm 1996/97 einen Versuch, zusammen mit Internet-
Verbänden und internationalen Organisationen eine Domainverwaltung aufzubauen, die
neue Top-Level-Domains einrichten sollte. Es wurden zwar ein Abkommen
unterzeichnet und sieben neue Top-Level-Domains ausgesucht, Network Solutions
weigerte sich jedoch, die neuen gTLDs in die Rootserver einzutragen.
Die US-Regierung gab Network Solutions vorerst recht und legte nacheinander zwei
Entwürfe zur künftigen Domainverwaltung vor. Der erste Entwurf (das Grünbuch vom
Januar 1998) sah vor, dass das Domainnamen-System klar unter US-amerikanischer
Führung bleiben sollte. Nach heftiger Kritik wurde im Mai 1998 das Weissbuch zur
Internetverwaltung vorgelegt, das stärkere internationale Beteiligung vorsah. ICANN ist
auf Grundlage dieses Weissbuches gegründet worden.
Standards im Internet

TCP/IP-Protokoll

TCP/IP ist der kleinste gemeinsame Nenner des gesamten Datenverkehrs im Internet.
Erst durch dieses Protokoll wurde historisch gesehen aus einem begrenzten Netz ein
Netz der Netze. Egal, ob Sie WWW-Seiten aufrufen, E-Mails versenden, mit FTP
Dateien downloaden oder mit Telnet auf einem entfernten Rechner arbeiten: stets
werden die Daten auf gleiche Weise adressiert und transportiert. TCP bedeutet
Transmission Control Protocol (Protokoll für Übertragungskontrolle), IP bedeutet
Internet Protocol.
Wenn Sie eine E-Mail verschicken oder eine HTML-Datei im WWW aufrufen, werden
die Daten bei der Übertragung im Netz in kleine Pakete zerstückelt. Jedes Paket enthält
eine Angabe dazu, an welche Adresse es geschickt werden soll, und das wievielte
Paket innerhalb der Sendung es ist.
Die Adressierung besorgt das IP. Dazu gibt es ein Adressierungsschema, die
sogenannten IP-Adressen.
Dass die Datenpakete auch wirklich beim Empfänger ankommen, und zwar in der
richtigen Reihenfolge, dafür sorgt das TCP. Das TCP verwendet Sequenznummern für
die einzelnen Pakete einer Sendung. Erst wenn alle Pakete einer Sendung vollständig
beim Empfänger angekommen sind, gilt die Übertragung der Daten als abgeschlossen.
Jeder Rechner, der am Internet teilnimmt, ist mit einer IP-Adresse im Netz angemeldet.
Rechner, die ans Internet angeschlossen sind, werden als Hosts oder Hostrechner
bezeichnet. Wenn Sie also mit Ihrem PC im WWW surfen oder neue E-Mails abholen,
sind Sie mit einer IP-Adresse im Internet angemeldet. Ihr Zugangs-Provider, über
dessen Hostrechner Sie sich einwählen, kann feste IP-Adressen für Sie einrichten.
Grosse Zugangs-Provider, etwa Online-Dienste wie CompuServe oder AOL, vergeben
auch personenunabhängig dynamische IP-Adressen für jede Internet-Einwahl. Damit
ein Rechner am Internet teilnehmen kann, muss er über eine Software verfügen, die
das TCP/IP-Protokoll unterstützt. Unter MS Windows ist das beispielsweise die Datei
winsock.dll im Windows-Verzeichnis.

IP-Adressierung

Eine typische IP-Adresse sieht in Dezimalschreibweise so aus: 149.174.211.5 - vier


Zahlen also, getrennt durch Punkte. Die Punkte haben die Aufgabe, über- und
untergeordnete Netze anzusprechen. So wie zu einer Telefonnummer im weltweiten
Telefonnetz eine Landeskennzahl, eine Ortsnetzkennzahl, eine Teilnehmerrufnummer
und manchmal auch noch eine Durchwahlnummer gehört, gibt es auch im Internet eine
Vorwahl - die Netzwerknummer, und eine Durchwahl - die Hostnummer.
Der erste Teil einer IP-Adresse ist die Netzwerknummer, der zweite Teil die
Hostnummer. Wo die Grenze zwischen Netzwerknummer und Hostnummer liegt,
bestimmt ein Klassifizierungsschema für Netztypen. Die folgende Tabelle verdeutlicht
dieses Schema. In den Spalten für die IP-Adressierung und einem typischen Beispiel ist
die Netzwerknummer (der Vorwahlteil) fett dargestellt. Der Rest der IP-Adresse ist die
Hostnummer eines Rechners innerhalb dieses Netzes.

Typische IP-
Netztyp IP-Adressierung
Adresse
Klasse-A-Netz xxx.xxx.xxx.xxx 103.234.123.87
Klasse-B-Netz xxx.xxx.xxx.xxx 151.170.102.15
Klasse-C-Netz xxx.xxx.xxx.xxx 196.23.155.113

Die oberste Hierarchiestufe bilden die sogenannten Klasse-A-Netze. Nur die erste Zahl
einer IP-Adresse ist darin die Netzwerknummer, alle anderen Zahlen sind
Hostnummern innerhalb des Netzwerks. Bei Netzwerknummern solcher Netze sind
Zahlen zwischen 1 und 126 möglich, d.h. es kann weltweit nur 126 Klasse-A-Netze
geben. Eine IP-Adresse, die zu einem Klasse-A-Netz gehört, ist also daran erkennbar,
dass die erste Zahl zwischen 1 und 126 liegt. Das amerikanische Militärnetz ist
beispielsweise so ein Klasse-A-Netz. Innerhalb eines Klasse-A-Netzes kann der
entsprechende Netzbetreiber die zweite, dritte und vierte Zahl der einzelnen IP-
Adressen seiner Netzteilnehmer frei vergeben. Da alle drei Zahlen Werte von 0 bis 255
haben können, kann ein Klasse-A-Netzbetreiber also bis zu 16,7 Millionen IP-Adressen
an Host-Rechner innerhalb seines Netzes vergeben.
Die zweithöchste Hierarchiestufe sind die Klasse-B-Netze. Die Netzwerknummer
solcher Netze erstreckt sich über die beiden ersten Zahlen der IP-Adresse. Bei der
ersten Zahl können Klasse-B-Netze Werte zwischen 128 und 192 haben. Eine IP-
Adresse, die zu einem Klasse-B-Netz gehört, ist also daran erkennbar, dass die erste
Zahl zwischen 128 und 192 liegt. Bei der zweiten sind Zahl Werte zwischen 0 und 255
erlaubt. Dadurch sind etwa 16.000 solcher Netze möglich. Da die Zahlen drei und vier in
solchen Netzen ebenfalls Werte zwischen 0 und 255 haben dürfen, können an jedem
Klasse-B-Netz bis zu ca. 65.000 Hostrechner angeschlossen werden. Klasse-B-Netze
werden vor allem an grosse Firmen, Universitäten und Online-Dienste vergeben.
Die unterste Hierarchie stellen die Klasse-C-Netze dar. Die erste Zahl einer IP-Adresse
eines Klasse-C-Netzes liegt zwischen 192 und 223. Die Zahlen zwei und drei gehören
ebenfalls noch zur Netzwerknummer. Über zwei Millionen solcher Netze sind dadurch
adressierbar. Vor allem an kleine und mittlere Unternehmen mit direkter Internet-
Verbindung, auch an kleinere Internet-Provider, werden solche Adressen vergeben. Da
nur noch eine Zahl mit Werten zwischen 0 und 255 übrig bleibt, können in einem C-Netz
maximal 255 Host-Rechner angeschlossen werden.
Ob dieses Adressierungs-Schema den Anforderungen der Zukunft noch gerecht wird,
bezweifeln manche. Es gibt bereits Ideen zu einer Neustrukturierung der Adressierung
von Netzen und Hostrechnern.

Client-Server-Technologie

Für die einzelnen Internet-Dienste wie World Wide Web, Gopher, E-Mail, FTP usw.
muss auf einem Hostrechner, der anderen Rechnern diese Dienste anbieten will, eine
entsprechende Server-Software laufen. Ein Hostrechner kann einen Internet-Dienst nur
anbieten, wenn eine entsprechende Server-Software auf dem Rechner aktiv ist, und
wenn der Rechner "online" ist.
Server sind Programme, die permanent darauf warten, dass eine Anfrage eintrifft, die
ihren Dienst betreffen. So wartet etwa ein WWW-Server darauf, dass Anfragen
eintreffen, die WWW-Seiten auf dem Server-Rechner abrufen wollen.
Clients sind dagegen Software-Programme, die typischerweise Daten von Servern
anfordern. Ihr WWW-Browser ist beispielsweise ein Client. Wenn Sie etwa auf einen
Verweis klicken, der zu einer HTTP-Adresse führt, startet der Browser, also der WWW-
Client, eine Anfrage an den entsprechenden Server auf dem entfernten Hostrechner.
Der Server wertet die Anfrage aus und sendet die gewünschten Daten. Um die
Kommunikation zwischen Clients und Servern zu regeln, gibt es entsprechende
Protokolle. Client-Server-Kommunikation im WWW etwa regelt das HTTP-Protokoll. Ein
solches Protokoll läuft oberhalb des TCP/IP-Protokolls ab.
Dass ein Client Daten anfordert und ein Server die Daten sendet, ist der Normalfall. Es
gibt jedoch auch "Ausnahmen". So kann ein Client nicht nur Daten anfordern, sondern
auch Daten an einen Server schicken: zum Beispiel, wenn Sie per FTP eine Datei auf
den Server-Rechner hochladen, wenn Sie eine E-Mail versenden oder im WWW ein
Formular ausfüllen und abschicken. Bei diesen Fällen redet man auch von Client-Push
("Client drängt dem Server Daten auf").
Ein anderer Ausnahmefall ist es, wenn der Server zuerst aktiv wird und dem Client
etwas ohne dessen Anforderung zuschickt. Das nennt man Server-Push ("Server
drängt dem Client Daten auf"). Neue Technologien wollen diesen Ausnahmefall zu einer
Regel erheben: die sogenannten Push-Technologien. Diese Technologien sollen
ermöglichen, dass ein Client regelmässig Daten empfangen kann, ohne diese eigens
anzufordern. Dadurch sind Broadcasting-Dienste wie aktuelle Nachrichten usw.
realisierbar. Netscape und Microsoft Internet Explorer (beide ab Version 4.0) haben
entsprechende Schnittstellen, um solche Dienste in Anspruch zu nehmen.

DNS - Domain Name Service

Computer können mit Zahlen besser umgehen, Menschen in der Regel besser mit
Namen. Deshalb hat man ein System ersonnen, das die numerischen IP-Adressen für
die Endanwender in anschauliche Namensadressen übersetzt.
Dazu hat man ein System geschaffen, das ähnlich wie bei den IP-Adressen
hierarchisch aufgebaut ist. Eine Namensadresse in diesem System gehört zu einer Top-
Level-Domain und innerhalb dieser zu einer Sub-Level-Domain. Jede Sub-Level-
Domain kann nochmals untergeordnete Domains enthalten, muss es aber nicht. Die
einzelnen Teile solcher Namensadressen sind wie bei IP-Adressen durch Punkte
voneinander getrennt. Eine solche Namensadresse ist beispielsweise itmanager.info.
Top-Level-Domains stehen in einem Domain-Namen an letzter Stelle. Es handelt sich
um einigermassen sprechende Abkürzungen. Die Abkürzungen, die solche Top-Level-
Domains bezeichnen, sind entweder Landeskennungen oder Typenkennungen.
Beispiele sind:
de = Deutschland
at = Österreich
ch = Schweiz
it = Italien
my = Malaysia
com = Kommerziell orientierter Namensinhaber
org = Organisation
net = Allgemeines Netz
edu = amerikanische Hochschulen
gov = amerikanische Behörden
mil = amerikanische Militäreinrichtungen

Jede dieser Top-Level-Domains stellt einen Verwaltungsbereich dar, für die es auch
eine "Verwaltungsbehörde" gibt, die für die Namensvergabe von Sub-Level-Domains
innerhalb ihres Verwaltungsbereichs zuständig ist. Wenn Sie beispielsweise einen
Domain-Namen wie MeineFirma.de beantragen wollen, muss der Antrag an das DE-
NIC (Deutsches Network Information Center) gestellt werden. Kommerzielle Provider
erledigen das für Sie, wenn Sie dort einen entsprechenden Service in Anspruch
nehmen. Ihren Wunschnamen erhalten Sie aber nur, wenn die Namensadresse noch
nicht anderweitig vergeben wurde. Schlaufüchse sind daher auf die Idee gekommen,
Namen grosser Firmen, die noch keine eigene Domain beantragt haben, für sich zu
reservieren, um sie dann, wenn auch die grosse Firma die Zeichen der Zeit erkennt,
teuer an diese weiterzuverkaufen. Mittlerweile sind solchen Machenschaften Riegel
vorgeschoben. Dennoch kommt es immer wieder zu Rechtsstreitereien wegen
attraktiven Domain-Namen. Wenn etwa zwei zufällig gleichnamige Firmen, die sonst
nichts miteinander zu tun haben, den gleichen Domain-Namen reservieren lassen
wollen, kann nur eine der Firmen den Zuschlag erhalten. Um Streitigkeiten dieser Art zu
reduzieren, gibt es mittlerweile auch neue Top-Level-Endungen.
Inhaber von zweiteiligen Domain-Namen können nochmals Sub-Level-Domains
vergeben. So gibt es beispielsweise eine Domain namens seite.net. Die Betreiber
dieser Domain haben nochmals Sub-Domains vergeben, wodurch Domain-Adressen
wie java.seite.net oder javascript.seite.net entstanden.

Routing und Gateways

Im Internet als dem Netz der Netze ist es zunächst nur innerhalb des eigenen Sub-
Netzes möglich, Daten direkt von einer IP-Adresse zu einer anderen zu schicken. In
allen anderen Fällen, wenn die Daten an eine andere Netzwerknummer geschickt
werden sollen, treten Rechner auf den Plan, die den Verkehr zwischen den Netzen
regeln. Solche Rechner werden als Gateways bezeichnet. Diese Rechner leiten Daten
von Hostrechnern aus dem eigenen Sub-Netz an Gateways in anderen Sub-Netzen
weiter und ankommende Daten von Gateways anderer Sub-Netze an die darin
adressierten Host-Rechner im eigenen Sub-Netz. Ohne Gateways gäbe es gar kein
Internet.
Das Weiterleiten der Daten zwischen Sub-Netzen wird als Routing bezeichnet. Die
Beschreibung der möglichen Routen vom eigenen Netzwerk zu anderen Netzwerken
sind in Routing-Tabellen auf den Gateway-Rechnern festgehalten.
Zu den Aufgaben eines Gateways gehört auch, eine Alternativ-Route zu finden, wenn
die übliche Route nicht funktioniert, etwa, weil bei der entsprechenden Leitung eine
Störung oder ein Datenstau aufgetreten ist. Gateways senden sich ständig Testpakete
zu, um das Funktionieren der Verbindung zu testen und für Datentransfers
"verkehrsarme" Wege zu finden.
Wenn also im Internet ein Datentransfer stattfindet, ist keinesfalls von vorneherein klar,
welchen Weg die Daten nehmen. Sogar einzelne Pakete einer einzigen Sendung
können völlig unterschiedliche Wege nehmen. Wenn Sie beispielsweise von
Deutschland aus eine WWW-Seite aufrufen, die auf einem Rechner in den USA liegt,
kann es sein, dass die Hälfte der Seite über den Atlantik kommt und die andere über
den Pazifik, bevor Ihr WWW-Browser sie anzeigen kann. Weder Sie noch Ihr Browser
bekommen davon etwas mit.

Selbstorganisation im Internet

In Anbetracht der Teilnehmerzahl im Internet ist der Verwaltungsaufwand im Netz


vergleichsweise klein. Die meisten Endanwender wissen nicht einmal, dass es solche
Verwaltungsstellen überhaupt gibt.
Eine gesetzgeberische Institution, wie es sie etwa innerhalb des Verfassungsbereichs
eines Staates gibt, gibt es im Internet als weltweitem Verbund nicht. Viele Bereiche im
Internet beruhen faktisch auf Selbstorganisation. Bei Diensten wie E-Mail gilt
beispielsweise das stille Abkommen, dass jeder beteiligte Gateway alle Mails
weiterleitet, auch wenn weder Sender noch Empfänger dem eigenen Sub-Netz
angehören. Die Kosten trägt zwar der Netzbetreiber, aber da alle ein Interesse am
weltweiten Funktionieren des Netzes haben, ist jeder bereit, die anfallenden
Mehrkosten zu tragen.
Die Funktionsfähigkeit des Internet basiert also auf der Bereitschaft der Beteiligten,
keine Pfennigfuchserei zu betreiben! Grosszügigkeit hat das Internet geschaffen, und
Kleingeisterei ist der grösste Feind der Internet-Idee.
Das Usenet, also der grösste Teil der Newsgroups, organisiert sich sogar vollständig
selbst, weshalb leidenschaftliche Anhänger dieses System gerne als real existierendes
Beispiel für Herrschaftsfreiheit anführen. Die "Verwaltung" findet im Usenet in speziellen
Newsgroups statt (solchen, die mit news. beginnen). Dort können beispielsweise
Vorschläge für neue Gruppen eingebracht werden, und in Abstimmungen wird darüber
entschieden, ob eine Gruppe eingerichtet oder abgeschafft wird.
Offizielle Anlaufstellen gibt es für die Vergabe von Netzwerkadressen und für
Namensadressen (DNS). Für die Vergabe von IP-Adressen innerhalb eines Netzwerks
ist der jeweilige Netzbetreiber verantwortlich. Dazu kommen Organisationen, die sich
um Standards innerhalb des Internets kümmern.
Die Kosten für die Datenübertragungen im Internet tragen die Betreiber der Sub-Netze.
Diese Kosten pflanzen sich nach unten fort zu Providern innerhalb der Sub-Netze bis
hin zu Endanwendern, die über Provider Zugang zum Internet haben oder Internet-
Services wie eigene WWW-Seiten nutzen.
Die folgende Liste enthält einige Verweise zu den wichtigsten internationalen und
nationalen Organisationen im Internet:
Hier der Link zu Organisationen !!!
Vor allem jene Organisationen, die sich um die technische Weiterentwicklung im
Internet kümmern, werden zunehmend von grossen Software-Firmen wie Microsoft,
Netscape oder Sun bestürmt, da diese Firmen ein Interesse daran haben, ihren
Software-Produkten und hauseigenen Standards bei Server-Technologien,
Programmiersprachen usw. zum Status weltweiter Internet-Standards zu verhelfen. Ob
und wie weit es gelingt, im Internet angesichts des entstehenden Milliardenmarkts neue,
firmenunabhängige Standards durchzusetzen, die so erfolgreich werden wie HTML oder
HTTP, muss die Zukunft zeigen
Suchmaschinen

Typischerweise kann man eine Suchmaschine in mehrere Komponenten und


Datenstrukturen aufteilen: Der URL Server, ein oder mehrere Crawler, der Parser und
der Store Server bilden die Webcrawler-Komponente der Suchmaschine. Diese
durchläuft das Internet, indiziert alle gefundenen Seiten und bereitet diese in den
Datenstrukturen Lexicon, Hit Lists und Repository vor. In diesen Datenstrukturen kann
der Benutzer dann mittels des Searchers seine Suchanfragen stellen.

Abbildung: Aufbau der Suchmaschine Google

Dieses Schema ist eine Idealisierung: In der Praxis haben Suchmaschinen oft noch
zusätzliche Komponenten, welche ihre besonderen Features verwirklichen, oder haben
aus technischen Gründen ihre Datenstrukturen anders organisiert. Im allgemeinen
jedoch lässt sich eine Suchmaschine auf diese Kernkomponenten abbilden.

URL Server

Der URL Server verwaltet die URLs, welche noch aus dem Internet geholt, indiziert und
verarbeitet werden müssen. Er gibt diese weiter an die Crawler, sobald diese neue
Kapazitäten frei haben.
Da man im allgemeinen Fall nicht davon ausgehen kann, das gesamte Internet
indizieren zu können (ausser man möchte nur einen Teil erfassen, z.B. alle Seiten eines
bestimmten Servers), ist es wichtig zu entscheiden, in welcher Reihenfolge die URLs
abgearbeitet werden sollen. Diese Entscheidung wird im URL Server getroffen und wird
später in dieser Arbeit genauer beschrieben.
Unabhängig von der Reihenfolge besteht hierbei aber das Problem, dass nur Seiten
erfasst werden können, auf die auch Links existieren. Isolierte Seiten oder Teilgraphen
des WWW, auf die keine Kante führt, werden auf diesem Wege nicht gefunden. Aus
diesem Grund bieten die meisten Suchmaschinen an, URLs manuell dem URL Server
zu übergeben, z.B. durch die Möglichkeit der Anmeldung von Seiten.

Crawler

Der Crawler ist die Komponente einer Suchmaschine, die dafür zuständig ist, eine
gegeben URL aus dem Internet zu holen. Zuerst wandelt er mit Hilfe des Domain Name
Service (DNS) die URL in eine IP-Adresse um. Dann versucht er, zu dem
entsprechenden Server mittels HTTP eine Verbindung zu öffnen. War der
Verbindungsaufbau erfolgreich, verlangt er vom Server über das GET-Kommando die
entsprechende Seite und wartet dann auf dessen Erhalt. War die Übertragung
erfolgreich, übergibt er die geholte Seite dem Parser.
Da bei dieser Prozedur lange Latenzzeiten entstehen, bearbeitet der Crawler immer
mehrere URLs gleichzeitig. So kann beim Transfer einer Seite von einem Server zum
Crawler schon die Verbindung zu einem weiteren Server aufgebaut oder der DNS
befragt werden und so die Effizienz gesteigert werden. In der Tat ist es bei grossen
Suchmaschinen, die einen möglichst umfassenden Index erzeugen wollen, sinnvoll,
gleichzeitig mehrere Crawler auf verschiedenen Systemen laufen zu lassen. In wird
berichtet, dass ein Crawler typischerweise 300 Verbindungen gleichzeitig offen hat und
das Gesamtsystem in Spitzenzeiten mit 4 Crawlern etwa 100 Seiten pro Sekunde
erfasst.
Problematisch bei dieser Komponente ist die enorme Netzlast, welche besonders beim
Crawlersystem und bei den Zielservern entsteht. Während das Crawlersystem
naturgemäss mit hohen Bandbreiten ausgestattet ist, kann des Durchlaufen komplexer
Seitenstrukturen auf einem Server diesen durchaus für einige Zeit lahmlegen. Auch ist
mit Reaktionen der betroffenen Betreiber zu rechnen, die nicht immer wissen, was ein
Crawler ist. In wird beschrieben, wie täglich dutzende Emails und Telefonanrufe
eingingen, die ihre Freude über das anscheinende Interesse an ihren Seiten
ausdrücken wollten oder verhindern wollten, dass bestimmte Seiten ihres Servers
indiziert werden. Für letzteres Problem existiert das Robots Exclusion Protocol, welches
aber nicht allen Betreibern bekannt ist.
Und schliesslich muss sich der Designer eines Crawlers mit dem Umgang mit
temporären Problemen beschäftigen. So kann der Versuch, eine bestimmte URL zu
holen, zu einer bestimmten Zeit fehlschlagen, da Teile des Netzes überlastet sind. Hier
muss sich der Crawler entscheiden, ob der die URL zurückstellt und es zu einem
späteren Zeitpunkt noch einmal versucht und wenn ja, wie oft er dies macht.

Parser

Nachdem eine Seite aus dem Internet geholt wurde, muss sie vom Parser zur Analyse
vorbereitet werden. Alle WWW-Seiten sind in der Hypertext Markup Language (HTML)
geschrieben und der Parser erstellt nun aus jeder Seite einen Ableitungsbaum. Diesen
übergibt er dann dem Repository zur Verarbeitung.
Der Parser kann sehr komplex werden, da im Internet eine Vielzahl von HTML-
Versionen existieren zusammen mit mehreren Dialekten (so haben Netscape und
Microsoft eigene, nicht dem Standard entsprechende Schlüsselwörter der Sprache
hinzugefügt und durch ihre Browser populär gemacht), welche alle korrekt interpretiert
werden müssen. Hinzu kommt, dass eine erstaunlich grosse Zahl von Seiten Fehler
enthalten. So finden sich Tippfehler in HTML-Schlüsselwörtern oder es werden
geöffnete Blöcke nicht geschlossen. All dies fällt im Browser nicht auf, da diese WWW-
Seiten so gut darstellen wie sie können und alles nicht erkannte einfach weglassen.
Dem Designer eines Parsers fällt also die Aufgabe zu, diesen möglichst fehlertolerant
zu gestalten.

Store Server

Die Aufgabe des Store Servers ist es, aus den vom Parser erhaltenen
Ableitungsbäumen die für die Suchmaschine wichtigen Informationen zu extrahieren.
Zum einen sind dies Links auf andere Seiten, die dem URL Server übergeben werden.
An dieser Stelle ist es möglich eine Auswahl zu treffen, welche URLs überhaupt geholt
werden sollen. Soll beispielsweise eine lokale Suchmaschine für alle Seiten von IT-
Intelligence erstellt werden, so kann ein Filter eingebaut werden, der nur URLs an den
URL Server übergibt, welche mit "../../" anfangen. Dadurch werden alle Links, welche
auf Seiten anderer Server führen, übergangen.
Bei der Auswahl der URLs muss besonderen Wert darauf gelegt werden, dass keine
dynamisch generierten Seiten angefordert werden. Es wäre fatal für die Suchmaschine,
wenn sie sich in der Anfragemaske einer anderen Suchmaschine oder in dynamisch
generierten Seiten eines Online-Spiels verfangen würde. Dies kann oft daran erkannt
werden, dass die URL Elemente des Common Gateway Interface (CGI) enthält.
Im Text der geholten WWW-Seite wird dann nach neuen Wörtern gesucht und bei
Bedarf das Lexicon erweitert. Zu jedem Wort der Seite wird in den Hit Lists vermerkt,
wie oft es in dieser Seite vorkommt, und schliesslich wird ein Teil der Seite im
Repository abgespeichert.

Lexicon

Im Lexicon sind alle Wörter gespeichert, die im Netz angetroffen wurden und nach
denen der Benutzer suchen kann, ausgenommen die Wörter, die einem Satz keinen
Inhalt beisteuern (Artikel, und, oder usw.). Jedes Wort enthält einen Zeiger auf die
entsprechende Hit List.
Da auf diese Datenstruktur beim Suchen sehr oft zugegriffen werden muss, ist ein
Designziel, eine möglichst effiziente Datenstruktur zu verwenden, die möglichst
komplett in den Hauptspeicher passt. Für schnellen Zugriff bietet sich eine Hashtabelle
an, und die Betreiber der Suchmaschine Google berichten, dass ihr Lexicon etwa 14
Millionen Wörter umfasst und in den Speicher eines Rechners mit 256MB
Uauptspeicher passt.
Hit Lists

Die Hit Lists enthalten zu jedem Wort des Lexicons eine Menge von Zeigern auf die
Seiten im Repository, in denen es vorkommt. So kann bei einer Suchanfrage zu einer
gegebenen Menge von Suchwörtern schnell die entsprechende Ergebnismenge an
URLs berechnet werden.
Hier können auch noch andere Informationen abgespeichert werden, z.B. wie oft das
Wort im entsprechenden Dokument vorkommt, ob es in einer Überschrift oder im Titel
steht, in welcher Schriftart es gesetzt ist usw. Dies kann bei der Berechnung der
Relevanz helfen, ohne zeitaufwendig auf die gespeicherten Daten im Repository
zurückgreifen zu müssen (wenn diese Daten überhaupt dort gespeichert wurden).

Repository

Im Repository werden die Informationen aller indizierten Seiten gespeichert, welche zur
Ausgabe der Ergebnisse oder, wenn die Informationen in den Hit Lists nicht ausreichen,
zur Suche benötigt werden. Manche Suchmaschinen speichern nur den Titel, andere
die ersten 20 Zeilen und mittlerweile geht man immer mehr dazu über, die gesamte
Seite zu speichern.
Werden grosse Teile der Seiten gespeichert (im Extremfall Volltext), ist es nötig die
Daten zu komprimieren. Eine wichtige Designentscheidung dabei ist die Abwägung
zwischen Qualität und Geschwindigkeit der Kompression. In den seltensten Fällen kann
die beste Kompression gewählt werden, da dies für die Mange an anfallenden Daten
einfach zu langsam wäre und auch das Suchen zu lange dauerte.

Searcher

Der Searcher ist der Teil der Suchmaschine, den der Anwender zu Gesicht bekommt.
Er ist ein Webserver, welcher das Frontend für die Datenbank darstellt und bietet auf
der Startseite die Anfragemaske. Die Suchanfragen werden meist über CGI an den
Searcher übermittelt, selten auch mittels Java.
Hat der Searcher die Suchanfrage erhalten, erstellt er mit Hilfe des Lexicons und der Hit
Lists die Ergebnismenge, welche mit Hilfe eines Ranking-Algorithmus sortiert wird.
Dabei bekommen im einfachsten Fall die Seiten das höchste Ranking, welche die
meisten Suchwörter am häufigsten enthalten; Verbesserungen für Ranking-
Algorithmen, werden später in dieser Arbeit vorgestellt.
Die Links auf die als relevant eingestuften Seiten werden zur besseren Übersicht des
Anwenders dann mit Informationen aus dem Repository angereichert.
W3C Standards

HTML - Hypertext Markup Language

Das Internet-Protokoll HTTP (Hypertext Transfer Protocol), das oberhalb des TCP/IP-
Protokolls (der "Socket-Verbindung") aufsetzt, und die einheitliche, hypertextfähige
Dokumentauszeichnungssprache HTML (Hypertext Markup Language) sind die beiden
Säulen des Internets. Weder das HTTP-Protokoll noch die HTML-Sprache sind bis
heute sonderlich ausgereift. Das HTTP-Protokoll hat Sicherheitslücken und unterstützt
im Gegensatz etwa zum Xanadu-System keine Möglichkeit eines Tantiemensystems für
Informationsbereitsteller. HTML verdankt seine Weiterentwicklungen, aber auch seine
Probleme bei der Festsetzung eines verbindlichen Standards dem Machtkampf
zwischen den führenden Browser-Anbietern Microsoft und Netscape - und dem
geringen Leistungsumfang, den die Initiatoren des W3-Konsortiums der Sprache
zunächst mit auf den Weg gegeben haben.

Text zu Text Verbindung als schematische Darstellung, Theodor Holm Nelson, 1965
Modell von verlinkten Textfenstern, Xanadu Projekt, 1972

Hypertext im Internet ist strikt nach Authoring und Browsing getrennt. Die Abschirmung
erfolgt durch das Client-Server-Modell des Internet. Anbieter von HTML-Dateien können
die Dateien auf Internet-Server-Rechnern ablegen, die das HTTP-Protokoll
unterstützen. Der Anwender benötigt neben der Software für die Internet-Verbindung
einen Browser, um im Internet zur Verfügung stehende HTML-Seiten aufzurufen.
HTML-Dateien oder HTML-generierende Programme, die auf Server-Rechnern
abgelegt sind, können dort von keinem Anwender geändert werden. Jedoch kann der
Anwender übertragene Dateien auf seinem Client-Rechner ablegen, manipulieren und
an anderer Stelle wieder ins Internet hochladen. Dies ist vielen Anbietern ein Dorn im
Auge, hat aber mit dazu beigetragen, dass sich HTML so stark verbreiten konnte und so
vielen Menschen zugänglich wurde.
Das Internet ist kein Hypertext, sondern eine weltweite und öffentliche Plattform für
Hypertext-Projekte mit der Möglichkeit, auch direkt aufeinander zu verweisen. In
welchem Umfang das Internet in Zukunft jedoch echten Hypertext bieten wird, hängt
stark davon ab, wie weit sich das Bewusstsein von Informationsanbietern entwickelt,
dass sie sich in einem Netz befinden und nicht in einer wahllosen Internet-
Adressenlandschaft.

Weitere Informationen:
• HTML 4.01, W3C, 24.12.1999
• HTML-Dateien selbst erstellen (Selfhtml)
• Das XANADU-Projekt
XHTML - XML-based Hypertext Markup Language

XHTML ist eine Erweiterung von HTML 4.01. Gemäss W3C wird in Zukunft nur noch
XHTML weiterentwickelt - HTML nicht mehr. Dokumenttypen von XHTML sind XML
basierend und letztlich bestimmt, um in Verbindung mit XML-basierenden
Benutzeragenten zu arbeiten. Ein XHTML-Dokument muss wohlgeformt und gültig sein,
sprich eine saubere Struktur haben. Das erleichtert dem Browser das Parsen und
Darstellen der Seite und erleichert auch die Übertragung auf andere Geräte (Handys,
PDA usw.).
XHTML 1.0 ist der erste Dokumenttyp der XHTML Familie. Es ist eine Reformulierung
der drei HTML Dokumenttypen als Anwendungen von XML. Es ist beabsichtigt, dass er
als Sprache für Inhalte verwendet wird, die sowohl XML-konform sind und, wenn einige
einfache Richtlinien befolgt werden, in HTML konformen Benutzeragenten
funktionieren. Entwickler, die die Inhalte ihrer Seiten auf XHTML 1.0 umstellen, werden
die folgenden Vorteile feststellen:
• XHTML Dokumente sind XML konform. Als solche können sie ohne weiteres mit
Standard-XML-Werkzeugen betrachtet, bearbeitet und validiert werden.
• XHTML Dokumente können so geschrieben werden, dass sie genauso gut oder
besser in bestehenden HTML 4 Benutzeragenten funktionieren wie in neuen,
XHTML 1.0 konformen Benutzeragenten.
• XHTML Dokumente können Anwendungen nutzen (z.B. Skripte oder Applets) die
entweder vom HTML Dokumentobjektmodell oder vom XML
Dokumentobjektmodell (DOM) abhängig sind.
• Sowie sich die XHTML Familie weiterentwickelt, werden XHTML 1.0 konforme
Dokumente eher zusammen mit und innerhalb verschiedener XHTML
Umgebungen arbeiten können.
Die XHTML Familie ist der nächste Schritt in der Weiterentwicklung des Internets.
Indem Inhaltsentwickler heute auf XHTML umsteigen, können sie in die XML-Welt mit
allen dazugehörigen Vorteilen einsteigen, während sie sich auf die Abwärts- wie auch
die zukünftige Kompatibilität ihrer Inhalte verlassen können.

Weitere Informationen:
• XHTML 1.0, W3C, 26.01.2000
• XHTML 1.0 in Deutsch

CSS Cascading Style Sheets

Style-Sheets sind eine unmittelbare Ergänzung zu HTML. Es handelt sich dabei um


eine Sprache zur Definition von Formateigenschaften einzelner HTML-Befehle. Mit Hilfe
von Style-Sheets können Sie beispielsweise bestimmen, dass Überschriften 1. Ordnung
eine Schriftgrösse von 18 Punkt haben, in der Schriftart Helvetica, aber nicht fett
erscheinen, und mit einem Abstand von 1,75 Zentimeter zum darauffolgenden Absatz
versehen werden. Angaben dieser Art sind mit herkömmlichem HTML nicht möglich.
Das ist aber nur der Anfang. Style-Sheets bieten noch viel mehr Möglichkeiten. So
können Sie beliebige Bereiche einer HTML-Datei mit einer eigenen Hintergrundfarbe,
einem eigenen Hintergrundbild (Wallpaper) oder mit diversen Rahmen versehen. Sie
können beliebige Elemente, sei es eine Grafik, ein Textabsatz, eine Tabelle oder ein
Bereich aus mehreren solcher Elemente, pixelgenau im Anzeigefenster des WWW-
Browsers positionieren. Für Drucklayouts stehen Befehle zur Definition eines
Seitenlayouts bereit. Für die akustische Wiedergabe von HTML-Dateien gibt es ein
ganzes Arsenal an Befehlen, um künstliche Sprachausgabesysteme feinzusteuern.
Spezielle Filter schliesslich, die derzeit allerdings noch rein Microsoft-spezifisch sind,
erlauben Grafik-Effekte bei normalen Texten, die aus Grafikprogrammen wie
PhotoShop bekannt sind.
Ein weiteres wichtiges Leistungsmerkmal von Style-Sheets ist es, dass Sie Definitionen
zentral angeben können. So können Sie beispielsweise im Kopf einer HTML-Datei
zentrale Definitionen zum Aussehen einer Tabellenzelle notieren. Alle Tabellenzellen
der entsprechenden HTML-Datei erhalten dann die Formateigenschaften, die einmal
zentral definiert sind. Das spart Kodierarbeit und macht die HTML-Dateien kleiner. Sie
können Ihre Style-Sheet-Definitionen sogar in separaten Dateien notieren. Solche Style-
Sheet-Dateien können Sie in beliebig vielen HTML-Dateien referenzieren. Auf diese
Weise können Sie für grosse Projekte einheitliche Layouts entwerfen. Mit ein paar
kleinen Änderungen in einer zentralen Style-Sheet-Datei können Sie dann für hunderte
von HTML-Dateien ein anderes Layout bewirken.
Style-Sheets unterstützen also erstens die professionelle Gestaltung beim Web-Design,
und zweitens helfen sie beim Corporate Design für grosse Projekte oder für
firmenspezifsche Layouts.

Weitere Informationen:
• CSS Übersicht, W3C
• CSS 2.0, W3C, 12.05.1998
• Introduction to CSS, Dave Ragett
• Einführung in CSS (Deutsch), Bernhard Friedrich

SGML - Standard Generalized Markup Language

Ungefähr in den 60er-Jahren, als die durch den Computer unterstützte Textverarbeitung
noch in den Kinderschuhen steckte, kam zum ersten mal der Gedanke auf, die
Formatierung eines Textes von ihrem Inhalt zu trennen. In dieser Zeit unterstützte die
Graphic Communications Association of America diesen Gedanken, indem Seminare
und Arbeitstagungen zu diesem Thema ins Leben gerufen wurden. Auf diese Initiative
ist das Konzept von GenCode zurückzuführen. Hierbei handelt es sich um ein
allgemeines Codier-Schema für die grafikverarbeitende Industrie.
1969 entwickelten Charles Goldfarb, Edward Musher und Raymond Lorie für IBM GML
(Generalized Markup Language - vielleicht kam ja GML auch von den
Anfangsbuchstaben ihrer Nachnamen?). In den 70er-Jahren ging die
Internationalisierung und die Standardisierung vornehmlich von den Vereinigten Staaten
aus. SGML wurde eine Sprache, mit der man jedes Dokument in jeder Sprache
darstellen konnte.
In den 80er-Jahren entstand mit Desktop-Publishing die Möglichkeit, das Aussehen
eines Dokuments grundlegend zu manipulieren. Diese Desktop-Publishing Werkzeuge
haben sich in den letzten Jahren in ihrer Leistungsfähigkeit sehr stark weiterentwickelt.
Allerdings trat damit auch die Schwierigkeit der Standards auf. Die Möglichkeit der
Weiterverarbeitung älterer Dokumente war auf nicht viel mehr als die Lebensdauer der
Formatierungs-Codierung oder auch der Rechnergattung beschränkt. Immer mehr
wuchs der Wunsch, den Dokumentenaustausch zwischen Rechnern zu normen, die
Formatierung rechnerunabhängig zu machen, so dass ein aktuelles Dokumentenarchiv
auch noch in zehn Jahren seine Gültigkeit hat.
Genormt wurde SGML erst 1986 unter einem Open System Interchange (OSI) Standard
von der International Standards Organisation (ISO) unter der Referenznummer ISO
8879:1986 und von der International Electrotechnical Commission (IEC).
Der ISO Standard definiert SGML als eine Sprache für Dokumentenrepräsentation,
welche Markup formalisiert und von System- und Verarbeitungsabhängigkeiten löst.
SGML erlaubt den Austausch von grossen und komplexen Datenmengen und
vereinfacht den Zugriff auf sie. Zusätzlich zu den Möglichkeiten des deskriptiven
Markups benutzen SGML-Systeme ein Dokumentenmodell, welches die Überprüfung
der Gültigkeit eines Textelements in einem bestimmten Kontext erlaubt. Weiterhin
enthält SGML Techniken, welche den Benutzer folgende Dinge erlauben:
• Zusammenbindung von Dateien, zur Erstellung eines zusammenhängenden
Dokuments,
• Einbindung von Illustrationen und Tabellen in Textdateien,
• Erzeugen von mehreren Versionen eines Dokuments in einer einzigen Datei,
• Hinzufügen von Kommentaren in die Datei,
• Kreuzreferenzen und weitere.
Bei SGML handelt es sich nicht um eine vordefinierte Menge von Tags zum Markieren
von Textpassagen, wie das vielleicht bei zu sehen ist. ist ein Satzsystem, bei dem das
Aussehen des Dokumentes im ausgedruckten Zustand im Vordergrund steht. Dazu
benutzt u.a. bestimmte Zeichen (geschweifte Klammern...), welche natürlich
unterschiedlich interpretiert werden können, wenn das Dokument von dem einen auf
den anderen Rechner übertragen wird. SGML löst sich von diesen Sonderzeichen-
Abhängigkeiten. Ausserdem beschreibt SGML nicht das Aussehen des Textes, sondern
erlaubt die Beschreibung seiner strukturellen Komposition.

Weitere Informationen:
• SGML Geschichte, Charles F. Goldfarb
• Einführung in SGML, Oliver Corff
XML - Extensible Markup Language

Der Begriff Extensible Markup Language (XML) beschreibt die neueste Entwicklung des
W3C's. Unter XML versteht man eine Metasprache wie SGML. Man kann also mit XML
eigene Dokumenttypen definieren.. Im Jahre 1996 wurde ein erster Vorschlag zu dieser
neuen Sprache vorgestellt und 1998 wurde dann der erste Standard für XML vom W3C
erstellt (XML 1.0 - Specification). XML kann auch als Kompromiss zwischen der
Komplexität von SGML und der begrenzten Gestaltungsmöglichkeiten von HTML
bezeichnet werden.
In dem Begriff "Extensible" wird schon angedeutet worum es bei dieser Sprache
hauptsächlich gehen soll: Erweiterbarkeit. Die Grenze von HTML besteht darin, dass
nicht beliebige viele Elemente verwendet werden dürfen. In HTML beschränken sich die
zu verwendenden Elemente auf genau die Anzahl von Elementen, die in der DTD für
HTML definiert worden sind, d.h. schon von vornherein vorgesehen wurden. Mit XML
wird dem Anwender jetzt die Möglichkeit eingeräumt sich neben der Beschreibung
eigener Dokumente auch seine eigenen Elemente zu definieren.
Das W3C verfolgte mit der Entwicklung von XML vor allem folgende Zielsetzungen,
welche sie in der Syntaxbeschreibung von XML benannt haben:
• XML sollte im Internet einfach nutzbar sein.
• XML sollte ein breites Spektrum von Anwendungen unterstützen.
• XML sollte zu SGML kompatibel sein.
• Es sollte einfach sein Programme zu schreiben, welche XML - Dokumente
verarbeiten.
• Die Anzahl optionaler Merkmale in XML sollte minimal, im Idealfall 0 betragen.
• Jedes XML - Dokument sollte für den Menschen lesbar und angemessen
verständlich sein.
• Der XML - Entwurf sollte zügig abgefasst werden.
• Der Entwurf von XML sollte formal und präzise sein.
• XML - Dokumente sollten leicht erstellbar sein.
• Die Knappheit von XML - Markup sollte jedoch von minimaler Bedeutung sein.
Ein weiterer Vorteil von XML ist, dass die Dokumente Meta-Daten enthalten. Meta-
Daten geben dem Browser Informationen über die Art des Textes, den sie enthalten.
Dem Browser wird damit ermöglicht das Dokument gezielt nach Personen abzusuchen
oder beispielsweise auch nach einer Altersangabe. Diese Daten sind jedoch nur dann
nutzbar, wenn Inhalt und Form getrennt gespeichert werden. Über diesen Vorteil
verfügte schon SGML. Leider hat er sich für HTML nicht halten können, da dort Inhalt
und Format inzwischen stark vermengt sind, durch die zusätzlichen
Gestaltungsmöglichkeiten, die in HTML Eingang gefunden haben.
Auch die Unabhängigkeit vom Ausgabemedium ist wie schon in SGML jetzt auch
wieder in XML vertreten. Ein Dokument kann auf Papier, auf dem Bildschirm dargestellt
werden oder man kann es sich vorlesen lassen. Das W3C hat für die lautliche
Darstellung von Dokumenten als Teilmenge der Cascading Style Sheets die Aural Style
Sheets entwickelt. Mit Hilfe dieses Werkzeugs können dann Eigenschaften wie
Lautstärke, Sprechpausen und Sprechgeschwindigkeit festgelegt werden.

Weitere Informationen:
• XML Übersicht, W3C
• XML 1.0 (Zweite Ausgabe), W3C, 06.10.2000
• XML 1.0, Deutsch, Übersetzung: Henning Behme und Stefan Mintert
• Einführung in XML, Manuela Abu Musameh

SMIL - Synchronized Multimedia Integration Language

SMIL ist eine Sprache zur Integration unabhängiger Multimediaobjekte in eine


zeitabhängige Multimediapräsentation. SMIL wird vor allem zur Erstellung von
Multimediapräsentation verwendet, die mit Hilfe der Streamingtechnologie über das
Internet "gesendet" werden.
SMIL ist HTML sehr ähnlich. Mit HTML ist es möglich, das Layout einer HTML-Seite
exakt zu gestalten, Objekte unterschiedlicher Formate zu integrieren, und sowohl
statische als auch dynamische Präsentationen zu erzeugen. Auch SMIL bietet diese
Funktionalität, allerdings bezogen auf jede Art von Multimediaobjekt. Im Vergleich zu
HTML bietet SMIL die Möglichkeit, Audio- und Videoobjekte zu integrieren, sowie die
zeitliche Präsentation von Objekten genau zu steuern.
Ein HTML-Dokument wird vom Web-Server mit dem Hypertexttransferprotokoll (http)
zum Client übertragen. Das übertragene HTML-Dokument wird dabei schrittweise auf
dem Bildschirm sichtbar, ohne dass der zeitliche Ablauf der Übertragung oder der
Präsentation der einzelnen Objekte kontrolliert werden kann. Dies ist bei traditionellen
HTML-Seiten, die aus Texten und Bildern bestehen, auch gar nicht erforderlich. Texte
und Bilder einer HTML-Seite erscheinen nach ihrer vollständigen Übertragung auf dem
Bildschirm. Ihre Präsentation ist an keinen festen zeitlichen Ablauf gebunden.
Dies ist bei multimedialen Präsentationen anders. Text, Ton und statische oder
laufende Bilder werden in einer vorher genau definierten zeitlichen Folge präsentiert.
Bei einem Film ist es ist wichtig, dass der Ton zusammen mit dem entsprechenden Bild
wahrgenommen werden kann, usw.. Um dies zu erreichen, müssen Multimediaobjekte
kontinuierlich und nach einem klar definierten zeitlichen Schema übertragen werden.
Die genaue zeitliche Steuerung und Kontrolle der Übertragung ist für eine
Multimediapräsentation also eine entscheidende Determinante. Um dieses Problem zu
lösen, wurde SMIL entwickelt. Über die zeitliche Steuerung und Konrtolle der
Übetragung und des Ablaufs eine Multimediapräsentation hinaus, kann SMIL auch zur
Kontrolle des Layouts der Präsentation verwendet werden. Vereinfacht ausgedrückt:
SMIL dient der Positionierung, Synchronisation und Präsentation von
Multimediaobjekten.
SMIL-Präsentationen können auf einer CD oder Platte eines PCs abgelegt sein und bei
Bedarf abgerufen werden. Die Nutzung von SMIL ist also nicht an das Internet
gebunden. Die Stärke von SMIL liegt aber eindeutig bei Multimediapräsentationen im
Internet. Mit SMIL kann definiert werden, wann, wie, was, von wo und wohin übertragen
wird. Im Zusammenspiel mit einem RealServer kann das Realtimestandardprotokoll
(rtsp) benutzen werden. Dies bedeutet, dass das SMIL-Dokument sequentiell
abgearbeitet und die dazugehörenden Multimediaobjekte kontinuierlich übertragen
werden. Der Player, der die übertragenen Informationen auf dem Bildschirm sichtbar
macht, regelt zudem den Übertragungsvorgang. Dies hat den entscheidenden Vorteil,
dass eine Präsentation parallel zum Ladevorgang kontinuierlich betrachtet werden
kann. Der RealServer erzeugt nach dem Realtimestreamingprotokoll einen
kontinuierlichen Datenstrom, der von dem Realplayer auf der Nutzerseite kontinuierlich
sichtbar und/oder hörbar gemacht wird.
Wie bereits betont, ist SMIL eng mit der Streamingtechnologie verbunden. Bevor SMIL
entwickelt wurde, diente die Streamingtechnologie lediglich zur kontinuierlichen
Übertragung von Audio- und Videoclips. Internet-Radiosender und später Internet-
Fernsehsender bedienten sich dieser Technologie, um ihre Programme in Teilen oder
vollständig über das Internet weltweit zu übertragen. Als nächstes nutzten Webmaster
die Möglichkeit, Audio- und Videoinformationen als Teil ihrer Webpräsentation
anzubieten. Mit SMIL wurde ein neues Kapitel in der Geschichte der
Streamingtechnologie aufgeschlagen. Während früher ein Audio- oder Videoclip nach
dem anderen abgespielt wurde, wurde es mit SMIL möglich, die Streamingtechnologie
für eine integrierte Multimediapräsentation über das Internet zu nutzen. Clips können in
HTML-Seiten integriert werden. Und nicht nur Audio- und Videoinformationen sondern
auch Texte und Bilder lassen sich mit SMIL zu einer einheitlichen Präsentation
zusammenfassen. Durch die Verwendung von Links, kann der Nutzer selbst
bestimmen, was er wann sehen möchte. Damit ist der Weg offen, die interaktiven
Möglichkeiten des World Wide Web und die des Internet-Rundfunks zu verbinden. Mit
SMIL wird interaktiver Rundfunk möglich.
Doch nicht nur die Interaktivität macht die Nutzung von SMIL so interessant für
Rundfunkanbieter. Mit SMIL kann ein Programmangebot entwickelt werden, das der
Nutzer nach seinen Wünschen abrufen und gestalten kann. Kurz gesagt: Mit SMIL kann
jeder sein eigener Programmdirektor werden.
SMIL ist nicht die einzige Technologie, mit deren Hilfe Multimediapräsentationen erstellt
werden können. SMIL besitzt allerdings gegenüber anderen Multimediatechniken
erhebliche Vorteile:
• Die Streamingtechnologie kann viele unterschiedliche Datei-Formate übertragen;
mit SMIL können die unterschiedlichen Formate zu einer einheitlichen
Präsentation zusammengefasst werden.
• Die in einer Präsentation benutzten Multimediaobjekte müssen physikalisch nicht
auf einem einzigen Server liegen; mit SMIL können Multimediaobjekte, die auf
räumlich verteilten Servern abgelegt sind, zu einer einheitlichen Präsentation
zusammengefasst werden.
• SMIL unterstützt Multilingualität; um beispielsweise ein Video in
unterschiedlichen Sprachversionen übertragen zu können, produziert man eine
Videodatei ohne Tonspur; nachträglich erstellt man Audiodateien mit den
unterschiedlichen Sprachversionen; in einem SMIL-Dokument werden Video-
und Audiodateien so miteinander verbunden, dass ein Nutzer automatisch die
gewünschte Sprachversion des Videos erhält.
• SMIL unterstützt unterschiedliche Bandbreiten; auf diese Weise ist es möglich,
die Übertragung ein- und derselben Version einer Multimediapräsentation an die
Bandbreite des Nutzers anzupassen.
• SMIL-Präsentationen können so gestaltet werden, dass sie sich automatisch an
die Gegebenheiten des Browsers oder Players des Nutzers anpassen.
• SMIL bietet eine einfache Möglichkeit die Präsentationsdauer jedes einzelnen
Multimediaobjekts zu kontrollieren.
• SMIL bietet viele Möglichkeiten das Layout einer Multimediapräsentation zu
gestalten.

Weitere Informationen:
• Synchronized Multimedia Übersicht, W3C
• SMIL 2.0, W3C, 07.08.2001
• Technische Einführung in SMIL, Dirk Wüstenhagen
• SMIL Grundlagen, Wolfgang von Keitz
Webserver

Nützliche Links:
• Apache und MySQL unter Windows aufsetzen
• Webserver Statistiken
• Allgemeine Info zum Webserver
Projekt-
management
o Analyse und Design
o Datenmodellierung
o Evaluation_Pflichtenheft
o Informationssystem
o Konzepte
o Problemlösung
o Relationales Datenbankmodell ERD
o System Engineering

• Hilfsmittel Methoden
! Brainstorming
! Brainwriting oder Methode 635
! Delphi
! Die morphologische Methode
! Inverses Brainstorming
! Synektik
Analyse und Design

Analyse bedeutet die systematische Untersuchung eines Systems hinsichtlich aller


Komponenten und der Beziehungen zwischen diesen Komponenten. Dabei stehen
Fragen im Vordergrund wie: Was ist die Aufgabe des Systems? Welches sind seine
Hauptfunktionen? Was gehört alles dazu? Was nicht mehr? Wie funktioniert es heute?
Wie muss es in Zukunft angelegt sein? Welchen Anforderungen muss es genügen?
usw.
Unter Design verstehen wir im allgemeinen einen zeichnerischen oder plastischen
Entwurf, angefangen bei einer Skizze bis hin zu einem kompletten Konzept oder Modell.
Das Design für ein Informationssystem beinhaltet, unter anderem, das Festlegen der
Verarbeitungsformen (z.B. Online), die Gestaltung der Mensch-Computer-Schnittstelle
(Bildschirmmasken, Listen-Layouts, Dialogabläufe) und das Bestimmen der benötigten
Transaktionen.

Prinzipien

• Top-Down-Prinzip
o schrittweise Einengung des Betrachtungsfeldes
o fortschreitende Detaillierung
o vom Abstrakten zum Konkreten
• Bottom-Up-Prinzip
o Systemteile in ein übergeordnetes System integrieren
o fortlaufend Abstraktionsstufen definieren (Zusammenfassung,
Gruppierung)
• Prinzip der minimalen Modelle
o 80 : 20-Regel
o nach einfachen Lösungen suchen, komplex wird es von alleine
• Prinzip der Strukturierung
o die Darstellung von Funktionen und deren Beschreibungen sollen nach
den Regeln der Strukturierung erfolgen
• Prinzip der Verständlichkeit
o mit Grafiken Modelle, Systeme darstellen
o den der Stufe des Entwicklungsprozesses und der Branche oder Firma
angepassten Wortschatz verwenden
o das Konzept, die Modelle müssen konsistent und jederzeit überprüfbar
sein
o Vollständigkeit und doch Redundanzfreiheit
o projektphasengerechter Detaillierungsgrad
o verständliche Grafiken (kein Chaos, kein Spinnennetz)
• Prinzip der Informations-Kapselung
o Kenntnis nur, wenn nötig (Verwendung über Schnittstellen)
o minimale Abhängigkeiten (min. Kopplung)
o maximale Zusammengehörigkeit (max. Kohäsion)
• Prinzip der Neutralität
o striktes Trennen von Was und Wie (nicht sofort an Bit und Byte bzw. eine
spezielle Implementierung denken, sondern das Essentielle finden und
entwerfen)
o bis zum Physischen Design sollen die Entwürfe und Modelle
betriebsorganisatorisch und implementierungstechnisch möglichst neutral
sein
• Prinzip der Anwendung mehrerer Sichten
Aufgrund der hohen Komplexität der heutigen Systeme genügt es nicht mehr, ein
System nur aus der Daten-orientierten Sicht zu analysieren und modellieren. So
ist das System immer wieder aus der Sicht von
o Daten
o Funktionen und
o Zeit (Ereignisse)
in dieser Reihenfolge zu betrachten. Dadurch werden laufend Lücken und
Inkonsistenzen aufgezeigt und bereinigt.

Das Meta-Modell

Das Meta-Modell dient der Konstruktionslehre. Es soll aufzeigen, welche Komponenten


für die Analyse und das Design relevant sind und wie diese zueinander in Beziehung
stehen. Dadurch wird, unter anderem, die Qualität des Entwurfes erhöht
(Vollständigkeit, Konsistenz) und die Kommunikation zwischen Beteiligten vereinfacht.
Das Meta-Modell für die Analyse wird für die Beschreibung des Geschäftssystems aus
Aufgaben, Gegenständen und Abläufen verwendet. Das Meta-Modell für das Design
leitet aus dem Ergebnis der Analyse, dem Geschäftssystem, eine technische Lösung
ab, die das Geschäftssystem unterstützen soll. Eine solche technische Lösung besteht
aus den Komponenten logische Transaktion (in sich abgeschlossene
Verarbeitunseinheit), Menu (GUI) und Applikation.
Datenmodellierung

Die Vorgehensweise bei der Datenmodellierung ist vergleichbar mit dem Verfassen
eines Aufsatzes. Man erarbeitet zunächst ein Konzept und überträgt dieses dann in
"Reinschrift". So wird bei der Datenmodellierung zunächst der für das Unternehmen
relevante Realitätsausschnitt abstrahiert dargestellt und zwar unabhängig von den
Anwendungsprogrammen oder Datenbanksystemen. Gegenstand des Konzepts sind
die Objekte mit ihren Eigenschaften und die Beziehungen zwischen den Objekten.
Wichtig sind dabei die grundlegenden Beziehungen zwischen den Objekten der Realität
und die Stellung bzw. Bedeutung des einzelnen Objektes innerhalb der Gesamtheit aller
Objekte. Die Realität wird simplifiziert, idealisiert, formalisiert und dadurch
systematisiert. Um die Semantik in leicht verständlicher Weise darzustellen, bedient
man sich grafischer Hilfsmittel wie z. B. des Entity-Relation-Modells von CHEN (allg.
Bezeichnung: Semantische Modelle). Charakteristisch für solche Modelle ist, dass sie
nur dann verändert werden müssen, wenn sich der relevante Realitätsausschnitt ändert.
Dieses allgemeine Modell kann dann im nächsten Schritt in jedes beliebige logische
Datenbankmodell umgesetzt werden (hierarchisches, netzwerkförmiges oder
relationales Datenbankmodell). I. d. R. wird heute das relationale Datenbankmodell
verwendet, da dieses die logische und physische Datenunabhängigkeit gewährleistet.
Im dritten und letzten Schritt geht es darum, das logische Datenbankmodell in das
physische / interne Modell umzusetzen. Erst hier wird die physische Organisation der
Datenbank wichtig wie z.B. der Speichermedien, Speicherplätze und Zugriffsformen.
Zusammenfassend lässt sich die Vorgehensweise folgendermassen formulieren:
1. Darstellung des konzeptuellen (semantischen) Datenmodells.
Bevorzugt wird die grafische Darstellung mithilfe des Entity Relationship-Modells
(ERM).
2. Umsetzung des konzeptuellen Datenmodells in ein logisches Datenbankmodell
abhängig von der Art des Datenbank-Modells. Je nach verwendetem
Datenbankverwaltungssystem kommen dafür zur Zeit fast ausschliesslich
o das hierarchische Modell
o das Netzwerkmodell oder
o dasRelationenmodell
in Betracht.
3. Umsetzung des logischen Datenbankmodells in ein physisches / internes Modell

Konzeptionelles Datenmodell
Wenn wir ein Unternehmen der realen Welt betrachten, so müssen wir, je nachdem,
was wir untersuchen wollen, von vielen konkreten Dingen abstrahieren und uns ein
geeignetes Modell von diesem Unternehmen machen.
Das konzeptionelle Datenmodell gibt ein datenorientiertes Abbild der Realität wieder (es
gibt auch ablauf- und funktionenorientierte Abbilder). In diesen werden die
interessierenden Objekte mit ihren Eigenschaften sowie den zwischen ihnen
bestehenden Beziehungen erfasst.

Entities (Objekte)

Die einzelnen realen Objekte werden als Entities bezeichnet. Solche Entities können z.
B. sein: einzelne Personen, Orte, Gegenstände, Begriffe, Ereignisse oder beliebige
andere reale oder abstrakte Dinge, die aus Aufgabensicht von Interesse sind. Ein
Beispiel wären solche Entities: "Projektleiter Häberle", "Mitarbeiter Müller", "Projekt
Copy1" usw.

Klassen/Entity-Typen (Objekttypen)

Um die Komplexität des realen Unternehmens im Modell zu reduzieren, wird nach


strukturellen Ähnlichkeiten gesucht: Aufgrund gewisser Ähnlichkeitskriterien, die den
Entities zukommen, werden Klassen von Entities gebildet, wie z. B., um bei dem
Teilbereich eines Industrieunternehmens zu bleiben:
• alle Projekte (eines Unternehmens): Projekttyp
• alle Projektleiter (eines Unternehmens): Projektleitertyp
• alle Mitarbeiter (eines Unternehmens): Mitarbeitertyp
Ein "Projektleitertyp" ist in dem unten erstellten ERM nicht enthalten. Hieraus wird
ersichtlich, dass es bei der Modellierung in dieser Phase stark auf den Ausschnitt der
jeweilig betrachteten Aufgabe ankommt. Verschiedene Sichtweisen sind in dieser
Phase möglich und auch gewollt.
oder:
• alle Produkte: Produkttyp
• alle Abteilungen: Abteilungstyp
• alle Angestellten: Angestelltertyp
Ein "Angestelltertyp" ist in dem unten erstellten ERM ebenfalls nicht enthalten., man
kann sich den "Angestellten" aber als Spezialisierung von Mitarbeitertyp vorstellen.
Um von einzelnen Entity-Typen zu übergeordneten Entity-Typen zu gelangen, sind vor
allem zwei Vorgehensweisen wichtig:
• Generalisierung
Einzelne Entity-Typen werden zu einem (#1) Typ verallgemeinert, bspw. alle
einzelnen Mitarbeiter zum Mitarbeitertyp
• Spezialisierung
Bereits zusammengefasste Entity-Typen werden wieder detailliert, um
Informationen zu den verschiedenen Typen i.S. der Ziele der Datenorganisation
(s.o) besser zur Verfügung stellen zu können. So könnte bspw. der Entity-Typ
"Mitarbeiter" in "Projektleitertyp" und "Projektmitarbeitertyp" spezialisiert werden.
Der Grad der Spezialisierung bzw. Generalisierung stellt eine wichtige
Modellierungsentscheidung des Analysten dar. Sie richtig zu treffen, erfordert neben
Erfahrung sehr weitgehende Kenntnis des Fachproblems sowie der
Anwendungsprogramme und des Datenbanksystems selbst. Sie sehen, dass die
Vorgehensweise bei der Datenmodellierung keine einfache lineare Abfolge von
Aktivitäten ohne Rückkoppelung darstellt.
In bildlichen Darstellungen werden Entity-Typen durch ein Rechteck dargestellt:
"Projekt", "Mitarbeiter" oder "Produkt" sind beispielsweise solche Entity-Typen.

Attribute (Eigenschaften)

Informationen über Entities bestehen zum einen aus den Ausprägungen (Werte) der
Eigenschaften der Entity. Die Ausprägungen machen Entities unterscheidbar und im
Sinn der betriebswirtschaftlichen Aufgabe verwendbar. Realweltobjekte haben im
Prinzip unendlich viele Eigenschaften. Bei der Datenmodellierung müssen die
betriebswirtschaftlich relevanten herausgefunden werden, dies ist in der Praxis oft sehr
zeitaufwendig und auch nur inkrementell zu bewältigen. Projekte können bspw. durch
ihre Projektnummer, ihren Namen, ihre Beschreibung usw. inhaltlich beschrieben
werden.
In der ERM-Darstellung werden die Attribute mit Kreisen an die zugehörigen Entity-
oder Beziehungs-Typen angehängt:
Beispiel sind die Attribute "Name", "Adresse", "Gehalt" des Entity-Typs Mitarbeiter oder
auch die Attribute "Proj#" und "Beschreibung" des Entity-Typs "Projekt".

Abbildung: Entity-Typ Mitarbeiter mit Attributen

Domäne (Wertebereich)
Jedes Attribut kann Werte aus einem definierten Wertebereich (Domäne) annehmen,
etwa für ein konkretes Produkt:
• Produktnummer = 0027 (z. B. aus 0000 - 9999),
• Name = Copy1 (z. B. genau fünf beliebige Zeichen),
• Beschreibung = Farbkopierer. (z. B. bis zu 255 beliebige Zeichen)
Wir ersehen aus diesen Beispielen bereits eine charakteristische Eigenschaft der
Klassenbildung: Jedem Entity-Typ kann man eine Kombination von Attributen, jedem
Entity dieses Typs eine entsprechende Kombination von Attributwerten zuordnen. Die
Modellbildung muss so geschehen, dass diese Attributkombinationen das zugehörige
Entity eindeutig identifizieren und aufgabengerecht beschreiben.
Als Wertebereich denkbar wären z.B. 0000..9999 für PE#, oder 00..99 für PROJ#.

Beziehungen

Zwischen Entities gibt es bestimmte Beziehungen, z. B. zwischen bestimmten


Projektleitern und Projekten:
• Projektleiter Häberle leitet Projekt 27
• Projektleiter Fischer arbeitet in Abteilung 2

Beziehungstypen (Relationen)

Analog zu den Entities werden gleichartige Beziehungen zu Beziehungstypen


zusammengefasst, zum Beispiel zwischen Produkten und Projekten (allgemein):
LEITEN: Projektleiter leiten bestimmte Projekte. In bildlichen Darstellungen stellen wir
Beziehungen durch eine Raute dar, mit welcher die beteiligten Entity-Typen mit Strichen
verbunden sind.

Abbildung: Beispiel für die Darstellung einer Relation (Beziehung)

Beziehungen können ebenso wie Entity-Typen Attribute besitzen (entsprechende


konkrete Beziehungen zwischen Entities besitzen entsprechende Attributwerte), so
ARBEITET FÜR: Mitarbeiter arbeiten in bestimmten Funktionen in einem Projekt mit.
Abbildung: Beispiel für die Darstellung eines Attributs einer Relation

Beziehungstypen zwischen Mengen

Im Rahmen des ERM können 1:1-, 1:n- sowie m:n- Beziehungen (Komplexitäten)
zwischen je zwei Entity-Typen dargestellt werden:
• Bei einer 1:1-Beziehung wird jedem Element der ersten Menge genau ein
Element der zweiten Menge zugeordnet und umgekehrt.
• Bei einer 1:n-Beziehung werden jedem Element der ersten Menge n Elemente
der zweiten Menge zugeordnet, jedem Element der zweiten Menge aber genau
ein Element der ersten Menge, bspw. ist jeder der (vielen, also n) Mitarbeiter
immer genau einer (also 1) Abteilung zugeordnet.
• Bei einer n:m-Beziehung werden einem Element der ersten Menge mehrere
Elemente der zweiten Menge zugeordnet und umgekehrt, bspw. arbeiten
mehrere Mitarbeiter an einem Produkt, jeder Mitarbeiter arbeitet an mehreren
Produkten.
Die Komplexität des Beziehungstyps wird an die Kanten des ERM eingetragen.

Festlegung der Schlüsselattribute

Ein (#1) Attribut oder eine (#1) Attributkombination dient zur Identifikation jeder Entity.
Diese Attribute werden als Schlüsselattribute des Entity-Typs bezeichnet. Im Beispiel
sind die Personalnummer PE# und die Projektnummer PROJ# Schlüsselattribute. Beide
Attribute sind eigentlich künstlich erzeugt, ihnen entsprechen keine beobachtbaren
Eigenschaften von Entities wie der Name, die Adresse, das Geburtsdatum, der
Projektname oder ähnliche. Sie werden bewusst erzeugt und ausschliesslich zur
Identifikation benötigt. Liegen beobachtbare Merkmale vor, die eine Identifikation
erlauben, können diese als Schlüsselattribute verwandt werden. Schlüsselattribute
werden zur Kennzeichnung unterstrichen.
Beziehungen werden meist durch das Zusammenfügen der Schlüsselwerte der
betreffenden Entity-Typen identifiziert - hier also die LEITEN-Beziehungen durch
Angabe der Personal- und Projektnummer. Sie können auch ein eigenes
Schlüsselattribut bekommen.

Wozu das Ganze?

Entity- und Beziehungstypen dienen dazu, statische Strukturen im Unternehmen zu


beschreiben. Zeitlich veränderlich ist hingegen die Menge der konkret vorhandenen
Entities und Beziehungen zwischen diesen Entities.
Das Unternehmen ist in Wahrheit natürlich viel komplexer als im Beispiel. Zum Beispiel
müsste man noch die Entity-Typen Lager, Kunde, Bestellung, Auftrag usw. und die
damit verbundenen Beziehungen einbeziehen. Aus Gründen der Übersichtlichkeit sind
diese Entities und Beziehungen jedoch in dem Beispiel weggelassen, das geht in der
Praxis natürlich nicht. Es wird eine unternehmensweite konzeptuelle Datenmodellierung
angestrebt, die in einem (#1) Unternehmensdatenmodell ihr Ergebnis findet. Dies ist mit
derart vielen praktischen und theoretischen Schwierigkeiten verbunden, dass vielfach
schon ein abteilungsweites Datenmodell einen echten Fortschritt mit sich bringt.
• Es nützt wenig, allein die Daten einheitlich zu modellieren. Die Prozesse und
Funktionen sind genauso wichtig.
• Der Aufwand zur Erstellung eines Unternehmensdatenmodells ist enorm gross.
Das in dem betriebswirtschaftlich bedeutsamen Produkt R/3 implementierte
Datenmodell hat beispielsweise allein mehrere Millionen Euro gekostet. Eine
Wirtschaftlichkeitsbetrachtung ist immer vorzunehmen. (Faustregel: "Die ersten
80% kosten soviel Geld und Zeit wie die letzten 20%)
• Die Unternehmensdaten sind unterschiedlich zeitstabil. Ein
Unternehmensdatenmodell sollte vor allem diejenigen Entity-Typen und
Beziehungen abbilden, die sich nicht oder nur sehr selten ändern.
Setzen wir nun die einzelnen Ergebnisse des ersten Schrittes der Datenmodellierung
zusammen, erhalten wir ein konzeptionelles Datenmodell. Wir stellen es - da es so
üblich, übersichtlich und leicht verständlich ist - in einem ERM dar. ERM bedeutet:
Entity-Relationship-Modell, also ein (graphisches) Modell der Objekte und ihrer
Beziehungen:
Abbildung: Beispiel für ein Entity-Relationship-Modell (ERM)

Das ERM ist der Input für den nächsten Schritt, die Erstellung des logischen
Datenbankmodells. Da später Modellierungsfehler gar nicht mehr erkannt werden oder
nur noch mit sehr viel Aufwand korrigiert werden können, sollten Sie der ersten Phase
stets die allergrösste Sorgfalt entgegenbringen. Dies gilt analog für alle Aufgaben, die
mit der Erstellung von Informationssystemen zu tun haben.
Evaluation

Im Bereich der in den Unternehmen eingesetzten Applikationen kann generell ein Trend
in Richtung Standardisierung festgestellt werden. Vorbei sind die Zeiten, wo jedes noch
so kleine Unternehmen das Gefühl hatte, es könne sich seine "eigene" Software bauen
und erziele daraus einen Wettbewerbsvorteil. Zuerst wird daher eine Evaluation
durchgeführt, dann eine Applikation entwickelt. Erst wenn diese Evaluation zeigt, dass
kein gängiges Paket einen akzeptablen Nutzen erbringt, sollte eine Eigenentwicklung
ins Auge gefasst werden.

Abbildung: Ablauf einer Evaluation

Projektorganisation

Bei der Evaluation von Standard-Software ist auf eine ausgewogene


Projektorganisation zu achten. Das Projekt wird sinnvollerweise von einem zukünftigen
Benutzer geleitet. Das Projektteam sollte sich aus folgenden Personen
zusammensetzen:
• Projektleiter (Benutzer mit Weisungsbefugnissen z.B. Abteilungsleiter)
• Betriebsorganisator
• Benutzervertreter
• Wirtschaftsinformatiker (Vertreter der internen Informatik)
• Berater (mit genauen Markt- und Produktekenntnissen)
Es muss darauf geachtet werden, dass das Projektteam nicht zu gross ist. Das
Projektteam sollen nicht mehr als 5 Personen umfassen, andernfalls wird der interne
Reibungsverlust zu hoch und behindert das Vorhaben mehr, als es zu fördern.
Die hauseigene Informatik sollte nicht zu stark vertreten sein, weil dann die Software
eher auf ihren informatikmässigen Nutzen hin untersucht als daraufhin, dem Benutzer
die Arbeit zu erleichtern. Bei der Auswahl des Beraters ist darauf zu achten, einen
möglichst "neutralen" Berater zu bestimmen, da sonst Interessenkonflikte unvermeidbar
sind.

Pflichtenheft
Das Pflichtenheft nimmt eine zentrale Rolle in der ganzen Evaluation ein. Oft wird direkt
mit dem Erstellen desselben beonnen, was methodisch betrachtet natürlich nicht zu
vertreten ist. Nach der Vorbereitungsphase besteht nun die wesentliche Aufgabe des
Projektteams in der Erstellung des Pflichtenhefts. Der Inhalt umfasst folgende Punkte:
• Ausgangslage
o Charakteristik des Unternehmens
o Organisation des Unternehmens
o Organisation der Informatik
o Anstoss für die Beschaffung
o Projektorganisation
• IST-Zustand
o Geschäftsfunktionen
o Daten
! Datenmodell (ERD)
! Datenkatalog
! Datenbeschreibung
o Datenflüsse
! Datenfluss nach DIN 66001
! Datenfluss nach De Marco
! Stellenorientierter EDV-Datenfluss
! ...
o Systemplattform
o übrige technische Hilfsmittel
o Wertung
• Ziele
o Kostenreduktion
! Rationalisierung beim Personal
! Abbau von Fix-Kosten, verursacht durch das alte System
! ...
o Effizienzsteigerung
! bessere Auslastung der Ressourcen (Personen, Computer)
! Steigerung der Flexibilität
! ...
o Ertragsverbesserung
o Verbesserung der Qualität
! Erhöhung der Auskunftsbereitschaft
! einfachere, ergonomischere Darstellung der Informationen
! grössere Aktualität der Informationen
! ...
o ...
• Anforderungen
o Software-Qualität
! Ergonomie
! Effizienz
! Zuverlässigkeit
! Wartbarkeit
! Portabilität
! Sicherheit (Datenschutz)
o Funktionsumfang
! Soll-Zustand Geschäftsfunktionen
! Soll-Zustand Datenflüsse, Prozesse, Abläufe, Ereignisse
o Datenumfang (ERD)
o Anforderungen an die Systemplattform
o Schnittstellen
! Beschreibung
! Quelle oder Ziel
! Datenelemente / Attribute
! Medium
! Periodizität
! Anzahl Records, Tupels usw.
! Ereignis (Auslöser)
o anbieterbezogene Anforderungen
• Mengengerüst
o Menge der Daten
o Häufigkeit der Funktionen
! Anzahl Fakturen pro Tag/Monat/Jahr (Durchschnitts und
Spitzenwerte)
! Anzahl Projekteröffnungen pro Tag/Monat/Jahr
! Anzahl Mandatseröffnungen pro Tag/Monat/Jahr
! Anzahl Projektrepporte pro Tag/Monat/Jahr
! ...

Fragen zur Erstellung des Pflichtenheftes

Position des Unternehmens

• Wie lange existiert die Firma bereits ?


• Wie sind die Eigentumsverhältnisse ?
• Mit welchen Partnern arbeitet die Firma zusammen ?
• Welche mittel- bis langfristigen Strategien verfolgt die Firma ?
• Wie stark soll die Firma wachsen / restrukturieren ?
• Welche finanziellen Möglichkeiten hat die Firma ?
• Soll die Anwendung auch dezentralisiert (Filialen) werden können ?
• Wie viele Benutzer sollen heute mit dem System arbeiten ?
• Wie viele Benutzer sollen es morgen sein (Zugriffs- und
Verarbeitungsgeschwindigkeit) ?
• Gibt es verschiedene Lösungen (für Einsteiger, mittlere und grössere
Anwendungen = Upgrade) ?

Informatik

• Wurde bisher überhaupt eine Informatiklösung verwendet ?


• Warum soll sie abgelöst werden ?
• Welches waren die Schwachstellen ?
• Wer betreute die bisherige Lösung ?
• Wie soll sie in die neue Lösung integriert werden ?
• Wer ist zuständig für die Formulierung einer IT-Strategie ?
• Ist ein Strategiepapier vorhanden ?
• Besteht eine Vierjahres-Planung ?
• Existiert ein Informatikkonzept ?
• Wer ist für dessen Durchsetzung zuständig ?
• Welche anderen Applikationen sind betroffen ?
• Wer sind die entsprechenden Verantwortlichen ?
• Welche anderen Applikationen sind von der zu evaluierenden in hohem Masse
abhängig ?
• Welche Plattformmöglichkeiten stehen zur Verfügung ?
• Existieren Standards, die berücksichtigt werden müssen ?
• Welche technischen Restriktionen bestehen ?
• Existiert ein Ergonomie-Standard ?

Anbieter

• Wie lange gibt es den Hersteller schon ?


• Wie lange ist der Händler auf dem Markt ?
• Wie viele Installationen gibt es in der Umgebung / weltweit ?
• Gibt es eine lokale Vertretung ?
• Wird Schulung angeboten ?
• Welche Garantien werden übernommen ?
• Wie ist der Support organisiert (kostenpflichtig / dauer) ?
o Hotline Telefon
o Support via Website
o Support-Vertrag
• Wie gut ist die Beratung und der Support ?
• Gibt es regelmässige Updates (kostenpflichtig) ?
o Fehlerkorrekturen und Änderungen, Anpassungen und Neuerungen
o Service-Vertrag
• Wie wird der Anbieter an der Börse beurteilt (falls kotiert) ?
• Gibt es Referenz-Listen ?
• Wie alt="" ist die Software ? (zu alte wie auch zu neue Produkte können in
gewissen Fällen kritisch sein)
• Welche Technologien werden eingesetzt und unterstützt ?
• Wie sind die Zahlungsbedingungen ?

Bewertung

Die meisten Evaluationen werden mittels Nutzwertanalyse bewertet. Dazu benötigt es


einen Kriterienkatalog der Anforderungen (meist hierarchisch Gegliedert).
Abbildung: Beispiel einer Nutzwertanalyse

Interner Entscheid
Als Unterstützung für den Internen Entscheid sollte zusammenfassend ein solches
Formular den Entscheidungsträgern (z.B. der Geschäftsleitung) vorgelegt werden:
Abbildung: Beispiel eines Variantenvergleichs
Informationssystem-Management ISM

Die Informationstechnologie übt auf die Wettbewerbsfähigkeit von Unternehmen einen


starken Einfluss aus. Viele Unternehmen leben vom 4. Produktionsfaktor, der
Information. In der Volkswirtschaftslehre werden üblicherweise die drei
Produktionsfaktoren Kapital, Boden und Arbeit unterschieden. Die
Betriebswirtschaftslehre bezeichnet alle Elemente, die im betrieblichen
Leistungserstellungsprozess miteinander kombiniert werden, als Produktionsfaktoren.
Der Erfolg solcher Unternehmen hängt weitgehend vom Nutzungs- und
Durchdringungsgrad der gegenwärtigen informationstechnologischen Möglichkeiten ab.
Die rechtzeitige Bereitstellung sowie die Möglichkeit der schnellen und flexiblen
(individuellen) Auswertungen sind zum kritischen Faktor für den Unternehmenserfolg
geworden.
Die Potentiale der Ressource "Information und Informationstechnologie" zu erkennen
und diese in unternehmerische Lösungen umzusetzen, bildet im weitesten Sinne den
Verantwortungsbereich des Informationssystem-Managements.

Ziele des ISM

• Informationen hinsichtlich Ort und Zeitpunkt bereitzustellen und dessen Form in


geeigneter Weise zu gewährleisten.
• Einsatz der Informationsverarbeitung zur Steuerung der Vorgänge in der
Wirtschaft.
• Einbindung der Informationsverarbeitung in die Unternehmensführung.
• Unterstützung der strategischen Erfolgspositionen (SEP) der Unternehmung.

Allgemein gilt:
• die richtige Information (aktuell, vollständig, fehlerfrei, in verständlicher Form)
• zum richtigen Zeitpunkt (kurze Durchlaufzeit, schnelle Reaktionszeit, hohe
Zuverlässigkeit)
• am richtigen Ort (Verfügbarkeit der Information an jedem Ort)
• mit geringen Kosten (Kosten für die Informations- und
Kommunikationsverarbeitung optimieren)
Aufgaben des ISM

• Architekturplanung
Die Architektur legt die grobe Struktur der Organisation, der
Geschäftsfunktionen, der Daten, der Applikationen und der Datenbanken fest.
• Integration
Integration erfordert das Erkennen von Synergiepotentialen zwischen
organisatorisch getrennten Bereichen.
• Einbindung in die Unternehmensführung
Das Informationssystem ist Teil des Unternehmenskonzepts. Es muss die
Bedürfnisse des Geschäfts erfüllen, und das Geschäft muss sich bis zu einem
gewissen Grad nach den Möglichkeiten des Informationssystems richten.
• Einbindung des Fachbereichs
Das Informationssystem-Management muss den Fachbereich dazu bringen, sich
mit den Möglichkeiten der Informationstechnik zu beschäftigen, und ihm helfen,
sein Infromationssystem zu gestalten. Dies erfolgt im ISM durch die Partizipation
in Ausschüssen, Dezentralisierung der IS-Entwicklung und in der Übernahme der
Verantwortung für die Fachlösung/Organisation und für Kosten/Nutzen.
• Dezentralisierung
Die Systementwicklung ist so weit zu dezentralisieren, dass Informationssystem-
Entwicklung und -Anwendung möglichst nahe zusammenrücken, aber dennoch
arbeitsfähige Entwicklungseinheiten bleiben, das heisst, es soll soviel wie
möglich dezentralisiert und soviel wie nötig zentralisiert werden.
• Verbindung von Organisation und Informationssystem
Funktionen, Daten, Organisation (Stellen) sowie Hardware sind vier Seiten
desselben Gegenstands, des Informationssystems, und demzufolge gemeinsam
zu betrachten.
• Projektportfolio-Management
Ein grosses Unternehmen muss ein Projektportfolio führen, das die Projekte
nach unternehmerischen Kriterien ordnet sowie Projekte und Ressourcen
aufeinander abstimmt. Es muss den Entscheidungsprozess, der zum
Projektportfolio führt, allen Beteiligten transparent machen.
• Änderungsmanagement
Das Informationssystem-Management muss den Einsatz der Ressourcen, die für
die Wartung (Maintenance) eingesetzt werden, so steuern, dass eine möglichst
grosse Kosten- / Nutzenoptimalität besteht.
• Umsetzung
Das Informationssystem-Management muss die Umsetzung der Pläne
kontrollieren.
Ebenen des ISM

Ebenen Funktionen Dokumente

IS-Konzept
• Planung des IS-Konzepts • IS-Konzept

• Verabschiedung des IS-Konzepts • Zielsetzung

• Umsetzung des IS-Konzepts • Standards

• Kontrolle des IS-Konzepts • Methoden

IS-Architektur
• Planung von • IS-Integrationsbereich
Integrationsbereichen
• globale Geschäftsfunktionen
• Verabschiedung des
Integrationsbereichs • Abgrenzung des Integrationsbereichs

• Umsetzung des • Statusbericht zum Integrationsbereich


Integrationsbereichs
• IS-Architektur
• Kontrolle von
Integrationsbereichen • Organisation

• Planung der IS-Architektur • Aufbauorganisation

• Verabschiedung der IS- • Ablauforganisation


Architektur
• Geschäftsfunktionen
• Umsetzung der IS-Architektur
• Geschäftsfunktionen-Katalog
• Kontrolle der IS-Architektur
• Applikationen

• Daten/logische Datenbanken

• Geschäftsobjekt-Katalog

• Entitätstypen-Katalog

• konzeptionelles Datenmodell

• logische Datenbanken

• Kommunikation / Verteilung

• Datenfluss

• Zugriff von Applikationen auf DBs

• Statusbericht zur IS-Architektur

IS-
Projektportfolio • Entwicklung von IS-Anträgen • IS-Antrag

• Bewerten der IS-Anträge • Machbarkeitsstudie


• Ausarbeitung der • Unternehmerische Rangfolge der Projekte
Machbarkeitsstudie
• Betriebliche Reihenfolge der Projekte
• IS-Entwicklungsplanung
• IS-Entwicklungsplanung
• IS-Entwicklungskontrolle
• Statusbericht zur Umsetzung des IS-
Entwicklungsplans

IS-Projekt
• Vorstudie / Initialisierung • Projektführungsdokumente

• Konzepte • Dokumente der Systementwicklung

• Realisierung

• Systemtest

• Einführung

IS-Betreuung
• Änderungsmanagement • Änderungsplan

• IS-Schulung • Schulungsangebot

• IS-Monitoring • Applikationsübersicht

• Benutzersupport • Übersicht der Transaktionen einer


Applikation

• Übersicht der Transaktionen pro Benutzer

Komponenten eines Informationssystems

Daten

Die Daten (Informationen) beschreiben die Zustände und Zustandsgrössen von


Vorgängen in einem System. Für ein bestimmtes Unternehmen weisen die Daten
charakteristische Eigenschaften und Strukturen auf. Wenn es gelingt, diese möglichst
exakt in ein Modell (Datenmodell) umzusetzen, dann stellen die Daten die mit Abstand
wichtigste Komponente in bezug auf Qualität und Lebensdauer in einem
Informationssystem dar.
Die Datenstrukturierung ist die Grundlage für eine erfolgreiche Gestaltung betrieblicher
Informationssysteme. Mit zunehmender Zahl von Anwendungen und voneinander
isolierter Datenbanken (keine Vernetzung oder Verbindung) steigt die Anzahl der Daten,
die in den unterschiedlichen Datenbanken-Managementsystremen mehrfach
gespeichert sind. Um die Datenkonsistenz zu gewährleisten, müssen diese Systeme
miteinander abgeglichen werden.
Die Erstellung eines Unternehmens-Datenmodells bildet eine vorrangige Aufgabe bei
der Gestaltung von Informationssystemn. Für die Erstellung eines Datenmodells ist die
fundierte Kenntnis der betrieblichen Funktionen Voraussetzung.
Funktionen

Das primäre Ziel der Funktionsmodellierung ist die Optimierung der


Wertschöpfungsketten. Die zu stellende Frage lautet: "Wie gestalten wir diese
Wertschöpfungskette, um eine bestimmte Leistung mit minimalen Kosten zu erstellen?".
Als sekundäres Ziel kann die Optimierung des Informatikeinsatzes angesehen werden.
Mit Hilfe der Analyse der Wertschöpfungsketten können jene Bereiche der IS-
Architektur ermittelt werden, deren Integration besonders lohnenswert ist. Redundante
Wertschöpfungsketten können lokalisiert und optimiert werden. Die
Wertschöpfungsketten sind die Basis für:
• schnellere, automatische Auslösung von Folgetätigkeiten
• bessere (vollständige, rechtzeitige) Informationsversorgung
• bessere Abstimmung in Planungsphasen (Bedarf, Kapazität usw.)
• direkte Rückkopplung von Ergebnissen
• Parallelisierung von bisher sequentiell angeordneten Arbeiten
• ganzheitliche (unternehmensweite) Betrachtung, Ausbildung
• unternehmensweite Abstimmung, Optimierung

Organisatorische Einheiten

Die Aufbauorganisation legt die relative dauerhafte Beziehungsstruktur fest, indem dem
Aufgabenträger Funktionen in einen formalen Beziehungsgefüge zugewiesen werden.
Die Ablauforganisation legt die relative dauerhafte Prozessstruktur fest, indem die
Aktivitäten der Aufgabenträger in ihrer prozessorientierten Abfolge festgelegt werden.
Die organisatorischen Einheiten sind die Instanzen, die mit EDV-Funktionen Daten
verändern.
Aus einer stren systemtheoretischen Sicht sind die organisatorischen Einheiten sowie
deren Beziehungen untereinander von den Daten und den Funktionen abhängig und
können deshalb noch weniger als die Funktionen unabhängig voneinander modelliert
werden. Die Bildung und die Strukturierung von organisatorischen Einheiten hängt,
neben den systemtheoretischen, sehr stark von betriebswirtschaftlichen und
organisatorischen Überlegungen ab.
• Welche Stellen sind welcher organisatorischen Einheit zugeordnet?
• Welche Personen arbeiten an welchen Stellen?
• Welche Aufgaben werden durch welche Personen wo wahrgenommen?
• Wer benötigt an welchem Ort welche Informationen zu welchem Zeitpunkt?
• Wer hat auf welche Informationen mit welchen Funktionen Zugriff?
Hardware (technische Geräte)

Die sukzessive Integration ist das primäre Ziel der Hardware- und
Kommunikationsarchitektur. Diese angestrebte Integration erhöht die
Zugriffsmöglichkeit auf die unternehmensweit verteilten Informationen sowie
Applikationen.
Werden die technischen Geräte (Grossrechner, Arbeitsplatzrechner, PDA, Drucker
usw.) miteinander gekoppelt, so dass zwischen ihnen Daten ausgetauscht werden
können, wird dies als Rechnernetz oder Kommunikationsnetz bezeichnet. In den
meisten Unternehmen sind heute auf allen Ebenen unterschiedliche Rechnersysteme,
Rechnerarchitekturen sowie Kommunikationsnetze installiert.
Um die geforderte Daten- und Anwendungsintegration zwischen den verschiedenen
Hardwareplattformen zur Unterstützung der Wertschöpfungskette zu erreichen, ist nicht
nur eine Hardware-Integration, sondern auch die Verbindung von Betriebssystemen,
Datenbanksystemen bis zum Ineinandergreifen der Anwendungen erforderlich. Mit der
zunehmenden Vernetzung der Hardware und der Verbreitung komplexer
Kommunikationssysteme rückt ein Problem immer stärker in den Mittelpunkt: das
Management unternehmensweiter Kommunikationssysteme. Ein unternehmensweites
Kommunikationssystem ist heute so komplex, dass dafür eine Architektur (die IS-
Architektur) unabdingbar ist. Sie beschreibt auf konzeptioneller Ebene den Aufbau der
gesamten Kommunikationsinfrastruktur eines Unternehmens.
Konzepte

Was ist aber überhaupt ein Projekt?


Die DIN 69901 definiert es als "ein Vorhaben, das im wesentlichen durch die
Einmaligkeit der Bedingungen in ihrer Gesamtheit gekennzeichnet ist, wie z.B.
Zielvorgabe, zeitliche/finanzielle/personelle Begrenzung, Abgrenzung gegenüber
anderen Vorhaben, projektspezifische Organisation".
Den Begriff Projektmanagement definiert dieselbe Norm als "ein Führungskonzept zur
zielorientierten Durchführung von Vorhaben. Projektmanagement ist die Gesamtheit der
Führungsaufgabe (Zielsetzung, Planung, Steuerung, Überwachung) und des
Führungsaufbaus (Projektorganisation) sowie der Führungstechniken (Führungsstil) und
Führungsmittel (Methoden)".

Führungskonzepte

• Phasenmodelle
o V-Modell (Deutschland)
o Hermes (Schweiz)
o Merise (Frankreich)
o SSADM (England)
o ...

• Iteratives Vorgehen (Wiederholungen)


o Wasserfall Modell
o Schleifen Modell
o ...

• Evolutionäres oder inkrementelles Vorgehen (Stete Weiterentwicklung)


o Sprialen Modell
o Prototyping
o ...

• Objektorientierte Modelle
o actiF
o ...
Warum Vorgehensmodelle?

• Eine definierte und standardisierte Vorgehensweise machen Projekte planbar.


• Die Kommunikation innerhalb des Projektes und zu Aussenstehenden wird
verbessert.
• Die Weitergabe von Wissen über erfolgreiche Projekte erfordern
Vergleichbarkeit.
• Die Werkzeuge können wiederverwendet werden (Automatisierungsmöglichkeit).

Phasenmodelle

Das Phasenmodell drückt den zeitlichen Projektablauf in einzelnen Phasen aus und
beeinflusst damit die Projekteffizient. Projekte der Anwendungsentwicklung können z.B.
wie folgt gegliedert werden:
• Planungsphase
• Definitionsphase
• Enwurfsphase
• Realisationsphase
• Implementierungsphase
• Abnahme- und Einführungsphase
Jede Phase ist durch einen Phasenabschluss gekennzeichnet, der als ein Meilenstein
definiert sein sollte. Das Phasenergebnis ist vom Lenkungsausschuss abzunehmen. Mit
der Abnahme des Ergebnisses erfolgt die Freigabe der nächsten Phase.

Iterative Modelle

Viele iterative Modelle haben das Phasenkonzept als Grundlage. Mit Sicht auf die
Qualität können einzelne Phasen wiederholt werden um ein besseres Ergebnis davon
zu tragen.

Evolutionäre oder inkrementelle Modelle

Evolutionäre Modelle unterscheiden sich gänzlich von den Phasenmodellen. Beim


Prototyping wird ein funktionsfähiger Prototyp welcher aber noch unvollständig und
fehlerbehaftet erstellt. Anschliessend wird dieser Prototyp in einem evolutionären
Prozess verbessert. Bei anderen Modellen wie das Spiralen Konzept werden Kosten
und Zeit in den Projektmanagement-Prozess miteinbezogen. Die verfeinerte
Vorgehensweise und die Sicht auf die Kosten mach diese Methode besonders effizient
bei sehr grossen und risikobehafteten Projekten.

Hermes
HERMES ist ein Projektführungssystem, das auf Informatikprojekte in heterogenen und dezentralen
Umgebungen zugeschnitten ist. Als offener Standard zur Führung und Abwicklung von
Informatikprojekten ist HERMES seit 1975 in- und ausserhalb der Bundesverwaltung im Einsatz. 1995
erschien die letzte überarbeitete Auflage des HERMES-Handbuchs. Eine Neuauflage des Handbuches
wird vorbereitet.
Problemlösung

Das Problem

Unter einem Problem kann man die Differenz zwischen der IST-Situation und der
SOLL-Vorstellung verstehen. Um Probleme einer Lösung zuführen zu können, müssen
eine Reihe von Faktoren wirkungsvoll zusammenspielen. Die untenstehende Abbildung
soll zum Ausdruck bringen, dass die Methodik nur eine von mehreren Komponenten ist
und alleine nicht imstande ist, Probleme wirkungsvoll zu lösen - ebensowenig, wie die
anderen dies alleine für sich beanspruchen dürfen. Mit der Systementwicklung wird
versucht, ihr Zusammenspiel zu organisieren und damit die Voraussetzungen für gute
und kreative Lösungen zu schaffen.

Abbildung: Einflüsse auf den Problemlösungsprozess

Problemlösungszyklus

Die Problemlösungszyklen werden in jeder Lebensphase angewendet. Die


Vorgehensschritte werden jeweils in zwei Teilschritte unterteilt:
• Zielsuche
o Situationsanalyse
o Zielformulierung
• Lösungssuche
o Konzeptsynthese
o Konzeptanalyse
• Auswahl
o Beurteilung
o Entscheidung
Zielsuche

Die Situationsanalyse dient dazu, der Projektgruppe bzw. dem Planer das Problem
verständlicher zu machen. Es werden vier charakteristische Betrachtungsweisen
angewendet:
• Die systemorientierte Betrachtung zur Strukturierung des Problemfeldes.
• Die ursachenorientierte oder diagnostische Betrachtung zur Beschreibung von
unbefriedigenden Situationen.
• Die lösungsorientierte (therapeutische) Betrachtung, die den Blick auf Lösungs-
und Gestaltungsmöglichkeiten richten soll. Sie wird durch den Leitgedanken
"Denken in Varianten" unterstützt.
• Die zukunftsorientierte Betrachtung, die den Blick von der Gegenwart in die
Zukunft richten soll und sich so auch mit Potentiellen Entwicklungsrichtungen
auseinandersetzen soll. Die Leitgedanken "Einbezug der zeitlichen Veränderung"
und "Denken in Varianten" begleiten diesen Planungsschritt.

Lösungssuche

In der Konzeptsynthese werden auf systematische Art alle prinzipiell möglichen


Systemkonzepte und Lösungsideen erarbeitet. Der Detaillierungsgrad muss
ausreichend sein, um die Varianten gegenüberzustellen und später zu bewerten. In der
Konzeptanalyse werden folgende Aspekte überprüft:
• Werden die zwingend vorgeschriebenen Ziele eingehalten?
• Sind die einzelnen Konzeptentwürfe vollständig?
• Fehlen noch wesentliche Teile in den Konzeptentwürfen?
• Entsprechen Wirkungsweise und das Verhalten des Systems den Erwartungen?

Auswahl

Die Bewertungskriterien werden aus den Zielen und aus der Lösungssuche erarbeitet.
Kann keine "beste Lösung" ermittelt werden, muss der Detaillierungsgrad verfeinert
werden. Können die ursprünglich gesteckten Ziele nicht erreicht werden gibt es drei
Möglichkeiten des weiteren Vorgehens:
• Die Ziele für das neue System werden zurückgeschraubt.
• Die Systemgestaltung wird abgebrochen.
• Die Grenzen des Problemfeldes werden so verändert, dass das Problem
bewältigt werden kann.
Relationales Datenbankmodell ERD

Das Wissen im Zusammenhang der Datenmodellierung ist für die Praxis von grosser
Bedeutung. Nach Konstruktion des konzeptionellen Datenmodells wird dieses
Datenmodell in die Schreibweise eines bestimmten logischen Datenmodells überführt.
Auch ein logisches Datenmodell beschreibt die Entity-Typen und ihre Beziehungen
untereinander. Die Beschreibung richtet sich aber bereits an den Eigenschaften
konkreter Datenbanksysteme aus.

Aufbau und Beschreibung

Das relationale Datenbankmodell verwendet zweidimensionale Tabellen (oder alternativ


eine auf der Relationenalgebra beruhende mathematisch-formale Schreibweise) zur
Darstellung des Realitätsausschnittes. Alle Gegenstände der Diskurswelt können durch
zweidimensionale Tabellen anschaulich und vollständig beschrieben werden. Der
theoretisch-mathematische Hintergrund ist sehr anspruchsvoll und begründet die
Leistungsfähigkeit des Modelles.
Beim relationalen Datenbankmodell sind einige Begriffe wichtig, die durch
nachstehende Abbildung erläutert werden:

Abbildung: Beispiel für ein relationales Datenbankmodell in Tabellenform

• Entity
ist ein Objekt im ERM, das im Relationenmodell als Zeile mit all seinen
Eigenschaften umgesetzt wird (entspricht Tupel).
• Tupel
sind die einzelnen Zeilen in der Tabelle, also die konkreten Objekte (entspricht
Entity).
• Entity-Typ
ist die Relation, also die gesamte Tabelle.
• Attribute
sind die Spaltenüberschriften in der Tabelle. Das unterstrichene Attribut ist das
Schlüsselattribut. In der Abbildung oben ist das Schlüsselattribut die Pers-Nr. Es
ist nicht unterstrichen, weil ACCESS eine Unterstreichung der Schlüsselattribute
in der vorgestellten Ansicht nicht vornimmt. Eigentlich ist das nur eine Kleinigkeit,
sie kann dennoch verdeutlichen, dass Software aus betriebswirtschaftlicher Sicht
i.P. immer verbesserungsfähig ist.
• Wertebereich
ist der zulässige Variableninhalt, also die Domänen der einzelnen Attribute.
• Attributwert
ist der Inhalt einer Zelle innerhalb der Tabelle.
Das komplette logische Datenbankmodell (entspricht dem konzeptionellen Schema)
einer relationalen Datenbank lässt sich dann für das einleitende Beispiel vereinfacht
und doch vollständig so angeben:
• Mitarbeiter (Pers-Nr, AbtlNr, Name, Adresse)
• Produkt (Produkt-Nr, Name)
• Projekt (Proj-Nr, Projektbeschreibung)
• Produziert (Pers-Nr, Produkt-Nr, Zeit Pro Stück)
• Arbeitet Für (Pers-Nr, Proj-Nr, Funktion)
• ...
allgemein:
• NameDerRelation (Schlüsselattribut, Attribut, Attribut, ...)
Die Schlüsselattribute sind unterstrichen. Die Fremdschlüssel sind kursiv gesetzt. Die
kursive Notation ist nicht allgemein verbreitet, sie dient Ihnen nur zur Orientierung im
Datenbankmodell.

Abbildung: Grafische Form des logischen Datenbankmodells

Vereinfacht lässt sich sagen, dass beim Relationenmodell


• alle Daten in zweidimensionalen Tabellen (Relationen)
• mit einer festen Anzahl von Spalten (Attributen)
• und einer beliebigen Anzahl von Zeilen (Tupeln)
dargestellt werden.

Benutzung

Die Benutzung von Datenbanken, die im relationalen Datenbankmodell erstellt wurden,


erfolgt mit Sprachen, die speziell für diesen Zweck entwickelt wurden. Diese Sprachen
nennt man deskriptiv, da mit ihrer Hilfe beschrieben werden kann, was getan werden
soll. Das erscheint Ihnen vielleicht selbstverständlich, ist es aber nicht. Die heute nach
wie vor vorherrschenden Sprachen im Bereich der EDV sind prozedural, das heisst, Sie
müssen genau angeben, wie etwas getan werden soll. Das ist natürlich viel
umständlicher.
Die Existenz dieser deskriptiven Sprachen in Verbindung mit der darunterliegenden
mathematischen Fundierung erlauben jede nur denkbare Abfrage relativ einfach zu
formulieren. Im Grundstudium stellen wir Ihnen als Beispiel für eine solche Sprache
SQL (structured query language) vor. SQL ist die wichtigste Sprache für das relationale
Datenbankmodell.
Beispielhafte Abfrage mit SQL:
SELECT * FROM MITARBEITER WHERE ABTLNR = 11
Diese Abfrage versucht, aus der Relation (Tabelle) MITARBEITER diejenigen Tupel
(Entities) herauszulesen, bei denen die Abteilungsnummer "11" ist. Dabei sollen ALLE
Attribute der Relation zurückgegeben werden. Als Ergebnis resultiert:

Pers-Nr Abt-Nr Name Adresse


2 11 Meier Dorfplatz
3 11 Huber Im Gärtli 7

SQL-Abfragen können jedoch schnell komplex werden, wie das nachfolgende Beispiel
Ihnen zeigt.
Ein Sachbearbeiter erhält den Auftrag, ein Organigramm der Unternehmung zu
erstellen. Es soll sämtliche Mitarbeiter (Name, Adresse) mit den zugeordneten
Abteilungen enthalten. Die Informationen sind in der Datenbank in verschiedenen
Relationen enthalten, die daher gemeinsam ausgewertet werden müssen. Die Abfrage
lautet:
SELECT DISTINCTROW
Mitarbeiter.Name, Mitarbeiter.Adresse, Abteilung.Name
FROM Abteilung
INNER JOIN Mitarbeiter ON
Abteilung.[Abt-Nr] = Mitarbeiter.AbtlNr
ORDER BY Mitarbeiter.Name;

Diverse Datenbank-Tools bieten die Möglichkeit, eine solche Abfrage auch interaktiv
zusammenzustellen:
Abbildung: Auswahlabfrage Organigrammdaten, graphische Darstellung mit Access

Diese Abfrage tut nichts anderes, als für jeden Mitarbeiter die Abteilung zu ermitteln,
und Mitarbeitername sortiert mit Adresse und den Abteilungsnamen auszugeben. Als
Ergebnis resultiert:

Name Adresse Abteilung


Amstutz Städtlistrasse 253 Produktion
Christen Seestrasse 104 Finanz
Huber Im Gärtli 7 IT
Meier Dorfplatz IT
Müller Hauptstrasse 5 Verkauf
Zumbühl Gassenweg 11 Finanz

Vielleicht haben Sie bemerkt, dass als Ergebnis der Abfrage bei einem relationalen
Modell immer eine Relation entsteht. Diese Relation kann dann genau wie alle anderen
bereits bestehenden Relationen weiter benutzt werden, etwa als Basis einer neuen
Abfrage. Das relationale Datenbankmodell ist insofern geschlossen: Es entstehen
immer Tabellen.
Mit SQL können Sie bei relationalen Datenbanken alles machen! Sie können:
• Abfragen absetzen (SELECT),
• Tabellen verbinden (JOIN) oder erzeugen (CREATE TABLE),
• Werte in eine Relation einfügen (INSERT INTO) oder löschen (DELETE FROM)
• ...
und alle diese Operationen beliebig schachteln.

Beurteilung

Die wichtigsten Vorteile des relationalen Datenbankmodells:


• keine festen Zugriffspfade
• Zugriff im allgemeinen über jede Tabelle und jedes Attribut möglich
• nur Schlüsselredundanz
• enorme Flexibilität
Als Nachteil muss dabei erkauft werden:
• hohe Anforderungen an die Hardware
• sehr hoher Verwaltungsaufwand für komplexe Operationen, vor allem beim
dynamischen Zusammenfügen von Tabellen
• In der Praxis zum Teil horrende Antwortzeiten im ad-hoc-Betrieb
Wie überall bei der EDV stellt also auch hier eine Technologie nie die Lösung für alle
Anforderungen aus betriebswirtschaftlicher Sicht dar. Es wurden daher erhebliche
Anstrengungen unternommen, leistungsfähigere Datenbankmodelle zu entwickeln und
als Produkte auf den Markt zu bringen.
System Engineering

Systems Engineering (SE) ist eine, auf bestimmten Denkmodellen und Grundprinzipien
beruhende Wegleitung zur zweckmässigen und zielgerichteten Gestaltung, Beschaffung
und Realisierung komplexer Systeme.
SE als methodische Komponente bei der Problemlösung:
SE ist in den Bereich Methodik einzuordnen. Zur Problemlösung braucht es das
Zusammenspiel von Fachwissen, Situationskenntnisse, Methodik, Psychologie und
Planung.

Ein Problem ist die Diskrepanz (Differenz) zwischen der IST-Situation


und der SOLL-Vorstellung.

Systems Engineering basiert auf einer Reihe von Postulaten und Arbeitshypothesen,
die kurz wie folgt umschrieben werden können:
• Das Systemkonzept dient dazu komplexe Sachverhalte zu strukturieren mit
unterschiedlichen Betrachtungsaspekten und Detailierungsgraden
• Die Abgrenzung eines Problemes soll die Überforderung aller Ressourcen
verhindern.
• Der Prozess der Systemgestaltung ist in klar abgegrenzte Arbeitsphasen zu
unterteilen.
• Eine exiplizite Zielformulierung soll alle nachfolgenden Tätigkeiten fokussieren.
• Alle Teile eines Systems müssen auf die Bedürfnisse und Erfordernisse des
Ganzen abgestimmt werden.
• Durch untersuchen möglicher Lösungsvarianten soll die Systemeffizienz
gesteigert werden, wobei das Variantenspektrum laufend auf die
Erfolgversprechenden einzuengen ist.
• Es soll eine bewusste Kompetenztrennung zwischen Lösungssuche und
Lösungsauswahl angestrebt werden.
• Eine angemessene Projektorganisation ist ebenso wichtig, wie die konzeptionelle
Systemgestaltung.
• Die Zuteilung von Teilaufgaben soll aus den Bedürfnissen des zu lösenden
Problems abgeleitet werden.
Komponenten der Systementwicklung:
• Systemdenken
• Vorgehensmodell
• Problemlösungsprozess
• Systemgestaltung
• Projektmanagement

Das System

Unter einem System soll eine Gesamtheit von Elementen verstanden werden, die
miteinander durch Beziehungen verbunden sind.

Abbildung: System mit den Grundbegriffen des Systemdenkens

Im Systemdenken spielen Modelle eine grosse Rolle. Ein Modell dient dazu, die Realität
abzubilden. Man unterscheidet zwischen Erklärungsmodellen (beschreibt einen Ist-
Zustand) und Gestaltungsmodellen (beschreibt einen Soll-Zustand).
Offene Dynamische Systeme stehen in Beziehung mit ihrer Umwelt und die
Beziehungen unterliegen ständigen Veränderungen. Es gibt offene und geschlossene
Systeme, wobei dies eine reine Definitionssache ist.

Hierarchischer Aufbau von Systemen

Es auch möglich ein Element als System aufzufassen, wenn es sich als zweckmässig
und notwendig erweist und wenn es gelingt, dieses wiederum in Elemente zu
unterteilen. Ein solches System wird relativ zum vorher betrachteten System als
Subsystem bezeichnet. Die hierarchische Gliederung in Untersysteme und die
Gliederung in Teilsysteme schliessen sich nicht aus, sondern ergänzen sich.

Abbildung: Stufenweise Auflösung eines Systems in Untersysteme

Umwelt und Systemabgrenzung

Die Nahtstelle zwischen dem System und er Umwelt nennt man Systemgrenze.
Systemgrenzen sind praktisch nie gegeben, sondern müssen festgelegt werden.
Dadurch soll die Komplexität reduziert werden. Man spricht von geschlossenen und
offenen Systemen, das heisst Systeme, die durch Randelemente im Kontakt mit
Umweltelementen aus der Umwelt stehen.

Dynamische Systembetrachtung

• Art und Intensität der Beziehung zwischen System und Umwelt können sich
ändern.
• Art und Intensität der Beziehungen in einem System können sich ändern.
• Die Eigenschaft von Elementen können sich ändern.
• Die Struktur kann sich ändern.
Ablaufdiagramme können bei der Betrachtung von dynamischen Systemen sehr
hilfreich sein.

Die Bedeutung des Systemansatzes für die Planung

• Ganzheitliches Denken
• Der Systemansatz ermöglicht eine Erweiterung des Betrachtungshorizontes, so
dass die Gefahr des Kurierens an Symptomen geringer wird.
• Reduktion der Komplexität
• Durch stufenweises Auflösen des Systems in Unter- und Übersysteme wird die
Komplexität verringert. Untersysteme können vorerst als Black-Box definiert
werden um später strukturiert zu werden.
• Zwang zur Konkretisierung
• Basis zur Quantifizierung
• Basis für Analogieschlüsse
• Basis für eine optimale zwischenmenschliche Kommunikation

Vorgehensmodelle

• Top-Down
• Variantenbildung
• Lebensphasen
• Problemlösungszyklus

Generelles Vorgehensmodell

• Schrittweises Einengen des Betrachtungsfeldes nach dem Top-Down-Prinzip:


Abgrenzen des Systems und definieren der relevanten Umweltelemente und
deren Beziehungen zum System (Randelemente)
• Sich Überblick über mögliche Lösungswege durch Variantenbildung verschaffen.
Durch Wirkungs und strukturbezogene Betrachtungsweisen sollen die Varianten
beurteilt und auch ausgewählt werden; Reduktion der Variantenvielfalt.
• Teiletappen bilden und deren Lebensphasen bestimmen:
Entwicklung : Vorstudie, Hauptstudie, Detailstudie
Realisierung : Systembau und Systemeinführung
Nutzung : Systemnutzung, Anstoss zur Neu- oder Umgestaltung oder
Ausserdienststellung
Vorstudie:

• System als Ganzes betrachten


• Umwelt und Systemgrenzen definieren
• Klärungsprozess bezüglich Zielsetzung und Lösungsmöglichkeiten
(Rahmenkonzept)

Hauptstudie:

• Funktionstüchtigkeit, Zweckmässigkeit und Wirtschaftlichkeit beurteilen.


• Gesamtkonzept für Investitionsentscheidung und zur Definition von Teilprojekte
erstellen.

Detailstudie:

• Das Betrachtungsfeld wird radikal auf Teilprojekte eingeengt.


• Lösungskonzepte für Unter- und Teilsysteme werden konkretisiert.
Bis hierher sollen die Kenntnisse über ein System laufend erweitert werden. Die
Innovations-Phase sollte bis zu diesem Zeitpunkt abgeschlossen werden. Der
Systembau sollte idealerweise auf Lösungselementen basieren, deren Charakteristik
man kennt oder bis zu diesem Zeitpunkt beschafft hat.

Konzeptentscheid

• Entscheid über den einmaligen Investitionsaufwand in bezug auf Entwicklung,


Realisierung und Projektmanagement.
• Definition des Betriebsaufwandes über die Nutzungsdauer in Bezug auf
Personal- und Sach-Aufwand.

Die Nutzenseite enthält folgende zwei Komponenten:


1. Der Betriebsnutzen
2. Der Planungsnutzen im Sinne eines Know-How-Transfers, der auch erwartet
werden kann, wenn auf die Realisierung verzichtet wird.
Systembau

Allgemein ausgedrückt versteht man darunter die Herstellung eines Systems.


Behandelte Objekte sind die Teil- und Untersysteme, die einführungsreif gemacht
werden.

Systemeinführung

Die Übergabe an den/die Benutzer. Es ist denkbar, dass auch Teil- oder Untersysteme
eingeführt werden, währenddessen andere sich noch in der Phase der Detailstudie
befinden.

Systembenützung

Diese Phase kann sehr erkenntnisreich sein in Bezug auf Betriebserfahrung für
Neugestaltung analoger Systeme. Eine Erfolgskontrolle bezüglich Zielerreichung,
effektive Wirkungsweise des Systems usw.

Um- oder Neugestaltung oder Ausserdienststellung

Umgestaltung grösseren Ausmasses muss erneut geplant werden. Kleinere


Änderungen können während der Benützungsphase durchgeführt werden.
Neugestaltung bedingt meistens die Ausserdienststellung eines bestehenden System.
Der Vorgang der Ablösung sollte ebenfalls Gegenstand planerischer Überlegungen
sein.

Dynamik der Gesamtkonzeption

Unvorhergesehene Entwicklungen können eine Anpassung des Gesamtkonzeptes


erzwingen:
• veränderte Ertragslage
• Änderungen in des Absatz- , Beschaffungs oder Personalmärkten,
• verbesserte technologische Möglichkeiten
• unerwartete Schwierigkeiten mit der bestehenden Technologie
• gesetzliche Vorschriften.
Auch eine mittlerweile bessere Einsicht in die Problemzusammenhänge und
Lösungsmöglichkeiten kann eine Anpassung der Gesamtkonzeption herbeiführen.
Problemlösungszyklus

In dieser Mikrostrategie können folgende Subprozesse definiert werden


• Zielsuche
• Lösungssuche
• Auswahl
Die Zielsuche schliesst eine System-, Ursachen-, Lösung- und zeit-orientierte
Situationsanalyse mit ein, nebst der Zielformulierung, die lösungsneutral, vollständig,
präzise und verständlich und realistisch sein sollte.
Die Lösungssuche umfasst die Synthese und die Konzeptanalyse. Die Synthese
versteht sich als kreativ-Phase und die Konzeptanalyse als Kontrolle über die
Vollständigkeit der Muss-Ziele und die Funktionstüchtigkeit der Entwürfe.
Die Auswahl umfasst die Bewertung von Varianten und Entscheidung für eine Variante.
Dieser Problemlösungszyklus wiederholt sich laufend und zwar nicht ausschliesslich
sequentiell sondern zum Teil auch parallel über die Lebensphasen: Vorstudie bis und
mit Detailstudie! Folgender Zusammenhang kann aufgezeigt werden:

Analyse /
Situationsanalyse Zielformulierung Bewertung Entscheidung
Synthese

Vorstudie Sehr wichtig ! Sehr wichtig ! Sehr wichtig ! Wichtig ! Wichtig !

Hauptstudie Weniger wichtig Weniger wichtig Sehr wichtig ! Sehr wichtig ! Sehr wichtig !

Detailstudie eher unwichtig eher unwichtig Sehr wichtig ! Wichtig ! Wichtig !


Hilfsmittel und Methoden

Brainstorming

Brainstorming heisst so viel wie, die Anwendung von "the brain to storm a problem",
oder auf deutsch: "das Gehirn anwenden, um ein Problem zu stürmen". Es ist eine der
bekanntesten Einfallstechniken, zur systematischen, kollektiven Ideenfindung. Die
Brainstorming-Technik wurde 1939 von Alex F. Osborn in Amerika entwickelt und dank
ihrer Erfolge in den fünfziger Jahren auch in Europa bekannt.
Brainstorming ist ein Verfahren, bei dem mit Hilfe einer Gruppe Ideen zur Lösung eines
Problems gesammelt und anschliessend ausgewertet werden. Dabei ist es wichtig,
folgende Regeln einzuhalten:

Regel 1

Keine Kritik! Die Kritik und Auswertung der Ideen muss bis nach der Brainstorming-
Sitzung hinausgezögert werden. Man kann nicht zur gleichen Zeit einfallsreich und
kritisch sein. Jedes Gruppenmitglied sagt, was ihm gerade einfällt. Kritik, Wertung und
Urteil müssen zunächst ausgeschalten bleiben, sie hemmen spontane kreative
Äusserungen.

Regel 2

Einfälle spontan und ohne Hemmungen äussern. Alle Teilnehmer sollen frei und
ungehemmt ihre Gedanken und Kombinationen hervorbringen. Je verrückter die Idee,
desto besser. Jeder geäusserte Gedanke kann die anderen Gruppenmitglieder zu
neuen Ideen anregen.

Regel 3

Quantität vor Qualität. Je grösser die Zahl der Ideen, um so grösser die Chance für
mögliche Kombinationen, um so höher die Wahrscheinlichkeit, dass sich dabei viele
brauchbare, gute Lösungen oder sogar die "Idee des Jahrhunderts" befinden.

Regel 4

Ideen kombinieren. Bestehende Ideen sind zu verbessern, weiter zu entwickeln. Die


Gruppenmitglieder sollen also nicht nur eigene Ideen vortragen, sondern auch die
Einfälle der andern in noch bessere, andere Ideen umwandeln und kombinieren.
Organisation

• Ein Diskussionsleiter bereitet die Sitzung vor, d.h. er formuliert das Problem zu
Beginn der Sitzung genau. Er gibt die vier Grundregeln bekannt und sorgt dafür,
dass sie eingehalten werden. Durch eigene Ideen bringt er den Gedankenfluss in
Fahrt und überbrückt auftretende Flauten.
• Die Gruppe sollte aus ca. 4 bis 10 Teilnehmern bestehen.
• Die Dauer der Brainstorming-Sitzung kann zwischen 15 bis 30 Minuten betragen.
• Die vorgebrachten Ideen werden möglichst für alle gut sichtbar notiert (z.B.
Wandtafel).
• Nach der Brainstorming-Sitzung werden alle vorgebrachten Ideen geordnet (z.B.
nach Ideen, welche sofort verwirklicht werden können, Ideen, die langfristig
verwirklicht werden können und unbrauchbare Ideen). Meistens drängt es sich
auf, die genannten Vorschläge zu modifizieren.
• Eventuell drängt sich ein zweites Brainstorming über ein Detailproblem auf.
• Eine Liste der besten (oder aller) Vorschläge wird der Entscheidungsinstanz
unterbreitet.
Um Vorschläge zu modifizieren können folgende Fragen dienen:
• Anders Verwenden - Wie kann man es anders verwenden? Welchem Gebrauch
wird es zugänglich, wenn es modifiziert ist? ...
• Adaptieren - Was ist so ähnlich? Welche Parallelen lassen sich ziehen? Was
kann ich kopieren? ...
• Modifizieren - Kann man Bedeutung, Farbe, Bewegung, Klang, Geruch, Form,
Grösse verändern bzw. hinzufügen? Was lässt sich noch verändern? ...
• Magnifizieren - Was kann man addieren? Mehr Zeit? Grössere Häufigkeit?
Stärker? Höher? Länger? Dicker? Verdoppeln? Multiplizieren? ...
• Minifizieren - Was kann man wegnehmen? Kleiner? Kondensierter? Tiefer?
Kürzer? Heller? Aufspalten? ...
• Substituieren - Durch was kann man ersetzen? Kann man anderes Material
verwenden? Kann man den Prozess anders gestalten? Andere Kraftquelle?
Anderen Platz, andere Stellung? ...
• Rearrangieren - Kann man Komponenten austauschen? Andere Reihenfolge?
Kann man Ursache und Folge transponieren? ...
• Umkehrung - Lässt sich positiv und negativ transponieren? Wie ist es mit dem
Gegenteil? Kann man es rückwärts bewegen? Kann man die Rollen
vertauschen? ...
• Kombinieren - Kann man Einheiten kombinieren? Kann man Absichten
kombinieren? ...
Hilfsmittel und Methoden

Brainwriting oder Methode 635

Diese Methode kann als schriftliches, individuelles Brainstorming bezeichnet werden.


Die Teilnehmer versuchen, die jeweils auf einem Lösungsblatt bereits formulierte Idee
weiterzuentwickeln und miteinander zu kombinieren. Zu diesem Zweck werden ein oder
mehrere unabhängig voneinander arbeitende 6er-Teams gebildet, die möglichst auch
räumlich getrennt arbeiten.
Zur Durchführung gelten folgende Regeln:
• Es wird zuerst eine klare Problemdefinition erarbeitet.
• Innert drei bis fünf Minuten schreibt jeder drei mögliche Lösungen auf.
• Die Blätter werden dem Partner zur rechten Seit weitergegeben. Innert drei bis
fünf Minuten werden wiederum - ausgehend von den bereits entwickelten
Lösungen - drei Lösungen skizziert.
• Nach fünfmaliger Weitergabe werden die Lösungen analog dem Brainstorming
ausgewertet.
Durch diese Übung stehen uns 6 x 6 x 3 also 108 Ideen zur Verfügung, welche wir
bewerten und diskutieren können.
Hilfsmittel und Methoden

Delphi-Methode

Die von RAND-Corporation und O. Helmer entwickelte Delphi-Methode ist eine


Informationsgewinnungs-Methode durch strukturierte Gruppenbefragung. Die Delphi-
Methode wird wie folgt gestaltet:
Eine Gruppe von Fachleuten wird mittels eines Fragebogens gebeten, zu einem
Problem Stellung zu nehmen und Lösungsansätze aufzuzeigen. (Zeitliche Limite z.B.
zwei bis drei Wochen). Die so erhaltenen Lösungsansätze werden zusammengetragen
zu einer Ideenliste. Diese Liste der gesammelten Ideen wird den Fachleuten wiederum
unterbreitet um daraus innerhalb einer festgesetzten Frist neue Ideen oder Vorschläge,
Ergänzungen oder Erweiterungen zu entwickeln.
Die bestehende Ideenliste wird mit den neuen Ideen ergänzt und wiederum den
Experten zurückgegeben. Dieser Prozess wiederholt sich bis die Ideen oder Lösungen
zufriedenstellend sind.
Hilfsmittel und Methoden

Die morphologische Methode

Die Morphologie geht auf den Schweizer Forscher F. Zwicky zurück. Mit dieser
Methode soll durch das systematische Zusammenstellen aller logisch denkbaren
Möglichkeiten über einen bestimmten Bereich in Form einer Tabelle das unvollständige,
eingefahrene, fixierte Denken vermieden werden.
Hauptinstrument der Morphologie ist der morphologische Kasten.
Regeln für das Arbeiten mit dem morphologischen Kasten
• Genaue Umschreibung und zweckmässige Verallgemeinerung des zu lösenden
Problems.
• Durch Analyse wird es in Teilprobleme (Parameter) zerlegt. Die Teilprobleme
sollten voneinander unabhängig und vollzählig sein.
• Zu den einzelnen Teilproblemen werden nun Lösungsvarianten (Ausprägungen)
gesucht. Je nach Teilproblem kann die Zahl der Varianten unterschiedlich sein.
Die Varianten selber können qualitativer oder quantitativer Natur sein. Zur
Auffindung von Varianten bieten sich die kreativen Methoden an.
• Durch Kombinationen von Lösungsvarianten der Teilprobleme werden nun
Varianten für die Lösung des Gesamtproblems entwickelt.
• Schliesslich werden die entwickelten Varanten bewertet.

Vereinfachtes Beispiel zur Entwicklung einer Zimmerlampe


Hilfsmittel und Methoden

Inverses Brainstorming

Bekanntlich ist der Mensch oft in der negativen Kritik bzw. im "Niederreissen" kreativer
als in der positiven Kritik. Diesen Umstand macht man sich beim inversen Brainstroming
zunutze, indem man die Problemstellung ins Negative umkehrt.
Anstatt beispielsweise zu fragen "Wie gewinnen wir mehr Kunden für den Artikel XY",
fragen wir "Was müssen wir machen, damit der Artikel XY überhaupt nicht mehr gekauft
wird?" Aus den produzierten Antworten lassen sich häufig Ideen bzw. Problemlösungen
gewinnen.
Hilfsmittel und Methoden

Synektik

Synektik ist aus dem Griechischen übernommen und bedeutet soviel wie
Zusammenfügen verschiedener, scheinbar nicht zusammengehörender Elemente. Bei
dieser Merhode geht es darum, den unbewusst ablaufenden schöpferischen Prozess
bewusst zu beeinflussen und zu steuern. Die Mitglieder einer "Synektik-Gruppe" sollen
möglichst aus verschiedenen Disziplinen kommen.
Zunächst muss auch bei dieser Methode das anstehende Problem analysiert und erklärt
werden. Nach anschliessender mündlicher Diskussion folgt der weitere Arbeitsablauf in
zwei wichtigen Phasen:
Die erste Phase besteht in der systematischen Verfremdung des Problems. Diese
sogenannte Analogiebildung erfolgt mehrmals. Die nächste Phase ist dann die
Auswertung der Analogien zur Problemlösung.
Insgesamt handelt es sich bei dieser Methode zweifellos um eine der schwierigsten,
welche grosse Anforderungen an die Teilnehmer stellt. Diese Methode ist dann
empfehlenswert, wenn es um die Suche nach neuen technischen Problemlösungen
geht.
Beispiel
Sicherheit
o Computerviren
o Datenschutz
o Denial of Service
o Firewall
o Kryptographie
o Risikoanalyse
Computerviren

Die Gefahren von Computerviren sind nun schon seit längerem bekannt, haben aber
bisher eher untergeordnete Bedeutung gehabt, da die Verbreitung nur per Datenträger
möglich war. Das Internet stellt jedoch eine ungeahnte Gefahrenquelle dar, in der sich
ein Computervirus innerhalb kürzester Zeit weltweit verbreiten kann.

Was ist ein Computervirus?

Ein Computervirus ist ein Programm, das auf einem Rechner Schabernack, aber auch
Schäden an Soft- und Hardware anrichten kann. Die Bezeichnung "Virus" gibt an, dass
es sich dabei um ein Programm handelt, dass sich in einem infizierten System an
andere Programme hängt oder in Bootsektoren ablegt und auf die Weise sich selbst
weiter verbreitet.
Inzwischen ist es so, dass es auf allen Systemplattformen Computerviren gibt, die mehr
oder weniger schädlich sind. Mit Abstand die meisten Viren und Virenabarten sind für
die Windows-Plattform geschrieben, Ende 1998 waren hier über 20.000 verschiedene
Viren bekannt, Tendenz stark steigend.

Welche Arten von Computerviren gibt es?

Es gibt insgesamt fünf Hauptgruppen von Computerviren, die sich in ihren


Übertragungsarten grundlegend unterscheiden:

Boot-Viren

Boot-Viren nutzen als Übertragungsmedium die Bootsektoren von Datenträgern. Sobald


ein Computer auf einen Datenträger zugreift, wird zunächst der Bootsektor gelesen und
dadurch der Virus in den Speicher geladen.

Programmviren

Programmviren nutzen den "klassischen" Weg über ausführbare Programme, an die sie
sich anhängen. Werden diese Programme gestartet, wird auch der Programmvirus
aktiviert.

Hybridviren

Hybridviren stellen die Mischform zwischen Boot- und Programmviren dar. Meist
kommen Sie als Programmviren daher und installieren sich nach dem Aufruf der
entsprechenden Datei als Boot-Virus in einen Bootsektor, von dort aus können sie bei
jedem Datenträgerzugriff geladen werden.

Makroviren

Makroviren nutzen die teilweise sehr umfangreichen Makrosprachen von


hochentwickelten Anwendungsprogrammen, z.B. einer Textverarbeitung. Im Gegensatz
zu allen anderen Virenarten können Makroviren aber auch andere Betriebssysteme in
Mitleidenschaft ziehen, wenn für diese die Anwendung mit der entsprechenden
Makrosprache ebenfalls implementiert ist.

Trojanische Pferde

Trojanische Pferde sind genau genommen keine Computerviren, da sie sich nicht von
allein reproduzieren und verbreiten. Ihre Aufgabe besteht darin, geheime Funktionen
auf einen Computer zu installieren. Dies wiederum wird mit einem augenscheinlich
harmlosen Programm vorgenommen.

Wie hoch ist die Virengefahr im Netz?

Das Gefahrenpotential in Sachen Computerviren im Internet darf weder unter-, noch


überschätzt werden. Jede ausführbare Datei, die Sie aus dem Internet herunterladen,
kann virenverseucht sein! Insbesondere raubkopierte (sog. Warez) und gehackte
Software (sog. Crackz) bergen eine sehr hohe Gefahr einer Virenverseuchung, zum
anderen auch deshalb, weil meist keiner so recht sagen kann, von wo die Software
kommt und wie sie gehackt wurde.
Eine sehr hohe Gefahr geht durch Trojanische Pferde aus: Bestimmte Programmpakete
(als besonders gefährlich haben sich auf der Windows-Systemplattform die Programme
Back Orifice und NetBus herausgestellt) installieren auf einem Wirtsrechner ein kleines
Serverprogramm, das durch ein Clientprogramm aktiviert werden kann, wenn der Wirt
online ist. Trifft nun ein solcher Client auf einen Rechner, der das Serverprogramm
installiert hat, kann er beliebige Manipulationen an dem Rechner vornehmen, bis hin
zum Ausspähen aller Tastatureingaben und Herunterfahren des Rechners.
Eine andere, hohe Gefahr geht durch Scriptsprachen wie zum Beispiel Visual Basic auf
der Windows-Plattform aus. Scripte in Visual Basic, der "Haussprache" von Microsoft,
werden unter neueren Windows-Versionen wie normal ausführbare Programme
behandelt. Dazu bedient sich Windows dem sogenannten "Windows Scripting Host", ein
Interpreter für Visual Basic. Fatalerweise lassen sich jedoch solche Scripte von älteren
Versionen der Microsoft-Mailprogramme Outlook und Outlook Express ohne Nachfrage
mit einem einfachem Klick aus Mail-Anhängen starten. Dies eröffnet destruktiven
Programmen Tür und Tor, da der Windows Scripting Host vollen Systemzugriff hat,
selbst auf so hochsensiblen Bereiche wie die Registrierungsdatenbank. Dieses krasse
Sicherheitsloch zu Nutze machte das Virus "ILOVEYOU", das sich im April 2000 in
Windeseile weltweit verbreitete.

Wie kann man sich schützen?

Es gibt einige Vorsichtsmassnahmen, die gerade in kleineren Netzwerken oder in


Firmen getroffen werden sollten, um die Virengefahr auszuschalten oder zumindest
kleinzuhalten:

Aktuelles Antiviren-Programm!

Sie sollten sich unbedingt ein aktuelles Antiviren-Programm zulegen, wenn Sie Dateien
aus dem Internet herunterladen möchten und diese dann natürlich nach dem
Herunterladen damit durchchecken. Vertrauen ist zwar gut, Kontrolle ist jedoch besser.

Keine unbekannten Programme starten!

Seien Sie bei unbekannten Programmen, ausführbaren Dateien und fremden


Datenträgern immer misstrauisch! Überprüfen Sie solche unbekannten Dateien
unbedingt mit einem Antiviren-Proramm, bevor Sie sie benutzen.

Keine sensiblen Daten!

Begrenzen Sie von vorneherein, welche Rechner einen Internetzugang haben sollen
und welche nicht. Es ist immer sicherer, wenn ein Rechner, auf dem z.B. eine
Lohnbuchhaltung läuft, keinen Zugang ins Internet hat und damit schon physikalisch vor
Fremdzugriffen geschützt ist.
Datenschutz

Datenschutz und Datensicherheit thematisiert die sich aus den Bedingungen


elektronischer Datenverarbeitung für den Schutz und die Sicherheit von Rechts- und
Wirtschaftsgütern ergebenden Probleme und Lösungen: Des Schutzes und der
Sicherheit bedürfen nicht nur personenbezogene Daten, sondern auch andere
schützenswerte Daten wie beispielsweise Betriebs- und Geschäfts- oder
Amtsgeheimnisse. Sichergestellt sein muss auch die Beweissicherheit von Daten in
Anwendungen, Systemen und Betriebsabläufen.
Schutz und Sicherheit von Daten wird von den unterschiedlichen Interessen der an ihrer
Verarbeitung Beteiligten bzw. der von ihr Betroffenen beeinflusst. Dabei fällt dem
Datenschutz der rechtliche und der Datensicherheit der technische Aspekt der
Problemlösung zu.

Schutz von Kommunikationsdaten

Mit der Entwicklung neuer Informations- und Kommunikationstechniken und


entsprechender Anwendungen für die geschäftliche, amtliche und private
Kommunikation gewinnen der Schutz und die Sicherheit der Kommunikation, ihrer
Umstände und Inhalte an Bedeutung. Darunter fallen beispielsweise neben dem Schutz
der Vertraulichkeit, der Integrität und der Authentizität, Anonymität oder Pseudonymität
auch weitere berechtigte Interessen der Teilnehmer, die durch entsprechende
technische Verfahren zu gewährleisten sind. Themenfelder sind hier beispielsweise die
Integration von Sicherheitsdiensten in Kommunikationsprotokollen und - anwendungen
sowie die Entwicklung datenschutzgerechter und sicherer Anwendungen der
Telekommunikation und neuer elektronischer Medien in geschlossenen ebenso wie in
offenen Netzen.

Recht und Technik, Technik und Recht

Datenschutz und Datensicherheit beschäftigt sich mit dem (Spannungs)Verhältnis von


technischer Entwicklung und normativen Vorgaben aus Recht, Standardisierung und
Ethik. Dabei geht es um die Frage, auf welche Weise die von Anwendern und Nutzern,
Politik und Gesellschaft formulierten Anforderungen, Bedürfnisse und
Erwartungshaltungen in technische Gestaltungen sozial-, menschen- oder
verfassungsverträglich umgesetzt werden können. Gegenstand von Datenschutz und
Datensicherheit sind auch die Auswirkungen technischer Entwicklungen auf das die
Gesellschaftsordnung prägende Recht oder die in ihr herrschenden Wertvorstellungen.

Mensch und Technik

Die Entwicklung und der Einsatz insbesondere sicherheitstechnischer Systeme prägt


immer tiefgreifender unsere Umwelt- und Lebensbedingungen. Daher spielen im
Zusammenhang mit Fragen der Beherrschbarkeit und Kontrollierbarkeit technischer
Systeme die Gestaltung von Benutzerschnittstellen und Akzeptanzprobleme von
Sicherheitstechniken eine immer wichtigere Rolle. Ein weiterer Schwerpunkt sind in
diesem Zusammenhang Risikountersuchungen technischer Systeme nach dem Stand
von Wissenschaft und Technik.

Nationale und internationale Regulierung

Mit der Entwicklung der europäischen Integration (Europäische Gemeinschaft,


Europarat) und der Globalisierung des Welthandels (WHO, OECD) sind Datenschutz
und Datensicherheit nicht mehr nur nationale Fragen. Datenschutz und Datensicherheit
wird die internationale, insbesondere die europäische Entwicklung von Datenschutz und
Datensicherheit darstellen und über ihre Bedeutung für die geschäftliche und private
Datenverarbeitung berichten.

Verfügbarkeit, Integrität, Vertraulichkeit, Authentizität

Die Bedrohung der Verfügbarkeit betrifft Daten, Programme, Hardware und alle
sonstigen für die Verarbeitung notwendigen Mittel. Es ist daher alles Notwendige zu
unternehmen, um zu verhindern, dass
• Daten verschwinden oder nicht zugreifbar sind, wenn sie gebraucht werden,
• Programme nicht funktionsbereit sind, wenn sie aufgerufen werden sollen,
• Hardware und sonstige notwendigen Mittel nicht funktionsfähig oder gar
verschwunden ist, wenn sie für die Verarbeitung benötigt wird.
Generell geht es also darum, dass die gewünschten Funktionen eines Systems zur
Verfügung stehen, wenn man sie braucht.
Die Bedrohung der Integrität (Verlässlichkeit) betrifft ebenfalls Daten, Programme,
Hardware und alle sonstigen für die Verarbeitung notwendigen Mittel. Es ist daher alles
Notwendige zu unternehmen, um zu verhindern, dass
• Daten verfälscht werden und falsche Daten verarbeitet werden,
• Programme verfälscht werden, so dass sie (insbesondere unbemerkt) fehlerhafte
Ergebnisse erzeugen oder Funktionen ausführen, die nicht erwünscht sind,
• Hardware und sonstige notwendigen Mittel verfälscht werden, so dass sie
gewünschte Funktionen unterlassen oder fehlerhaft ausführen oder
unerwünschte Funktionen ausführen.
Die Bedrohung der Vertraulichkeit betrifft vor allem Daten. Es ist daher alles
Notwendige zu unternehmen, um zu verhindern, dass Daten in unbefugte Hände
geraten sollen. Allerdings gibt es Umstände, unter denen auch Programme und
Systemkonfigurationen Unbefugten gegenüber vertraulich zu behandeln sind.
Die Bedrohung der Authentizität (Verbindlichkeit) betrifft vor allem Daten,
insbesondere Dokumente und Urkunden, die elektronisch übertragen werden. Es ist
daher alles Notwendige zu unternehmen, um zu verhindern, dass zu der richtigen
Herkunft solcher Daten Zweifel bestehen können und die Urheber dieser Daten korrekt
authentifiziert werden können. Allerdings kann es in bestimmten
Anwendungszusammenhängen auch wichtig sein, dass die Authentizität von
Programmen und von Hardware und anderen erforderlichen Mittel garantiert werden
muss (z.B. im elektronischen Zahlungsverkehr).

Technisch-organisatorischer Datenschutz

Unter technisch-organisatorischem Datenschutz versteht man alle technischen und


organisatorischen Massnahmen zur Sicherstellung der informationellen
Selbstbestimmung und der Ordnungsmässigkeit bei der Verarbeitung
personenbezogener Daten.
Die informationelle Selbstbestimmung der Betroffenen ist auch verletzt, wenn
Unbefugte sich der Daten der Betroffenen bemächtigen können, denn die Unbefugten
haben weder die Einwilligung der Betroffenen, noch gibt ihnen ein Gesetz das Recht,
die Daten zu verarbeiten.
Es ist daher die gesetzliche Pflicht des Datenverarbeiters, die Daten davor zu schützen,
dass sie Unbefugten in die Hände fallen. Das gilt für die Speicherung in
informationstechnischen Systemen oder auf Papier ebenso wie bei der
Datenfernübertragung oder auf dem Postwege. Es gilt ebenso für den täglichen
Umgang mit den Daten.
Die Anforderungen der sog. 10 Gebote können mit der geeigneten Kombination von
Grundtechniken organisatorischer, baulicher und informationstechnischer Art erfüllt
werden:
Voraussetzung für guten technisch-organisatorischen Datenschutz ist die Schaffung
verbindlicher organisatorischer Regelungen. Arbeitsabläufe sind verbindlich
festzulegen, Zuständigkeiten und Befugnisse sind zuzuordnen, der Umgang mit der
Informationstechnik und vor allem mit den vorhandenen technischen
Sicherheitseinrichtungen ist vorzugeben. Wie sollen Befugte und Unbefugte im
Zweifelsfall unterschieden werden, wie soll fehlerhaftes Handeln oder gar vorsätzliche
Sabotage von korrektem Vorgehen unterschieden werden, wenn es keine verbindlichen
Unterscheidungsmerkmale gibt?
Eine weitere Grundtechnik organisatorischer Art ist die Dokumentation. Eine
Dokumentation beschreibt den Sollzustand eines Systems, d.h. den vorgesehenen
Zustand. Sie erlaubt den Vergleich mit den tatsächlichen Gegebenheiten, ermöglicht
daher erst die Revision - aber nur, wenn sie sorgfältig geführt, vollständig und aktuell ist
und von fachkundigen Dritten in angemessener Zeit verstanden werden kann. Wie soll
ein Verantwortlicher, ein Revisor, ein Rechnungsprüfer, ein Datenschutz- bzw.
Sicherheitsbeauftragter Abweichungen vom Soll feststellen können, wenn er nicht
eindeutig weiss, was denn das Soll ist? Wie kann ein Programmierer ohne
Dokumentation ein (vielleicht sogar ein von ihm geschriebenes) Programm modifizieren,
ohne möglicherweise im Programm Chaos anzurichten?
Viele Massnahmen werden mit simpler, aber wirksamer physischer Abschottung
umgesetzt, durch geeignete bauliche Massnahmen, um den Zutritt Unbefugter zu
verhindern, oder durch wirksam verschlossene Behältnisse für Computer, andere
Hardwarekomponenten, Datenträger oder Listen.
Um festzustellen, ob jemand etwas darf oder nicht, bedarf es seiner Identifikation und
vor allem seiner Authentifikation. Mit der Authentifikation soll festgestellt werden, ob
jemand denn der ist, als der er sich ausgibt. Dies kann bei der Zugangskontrolle ein
Pförtner oder Wachmann auf traditionelle Art machen, bedeutsamer ist jedoch die
maschinelle Authentifikation. Sie findet an der Schnittstelle statt, an ein
informationstechnisches System durch einen menschlichen Benutzer oder ein anderes
informationstechnisches System zur Durchführung einer sicherheitsrelevanten Aufgabe
aufgefordert wird. Das leistungserbringende System versucht mit der
Authentifikationsprozedur festzustellen, wer der menschliche Benutzer oder was das
andere informationstechnische System ist, damit entschieden werden kann, ob es die
angeforderte Leistung erbringen darf oder nicht.
Für die maschinelle Authentifikation an der Mensch-Maschine-Schnittstelle, z.B. zur
Prüfung, ob jemand zur Nutzung eines informationstechnischen Systems berechtigt ist,
ist nach wie vor die Passwortprüfung und/oder der maschinenlesbare Ausweis
verbreitete Methoden. Mit sog. biometrischen Verfahren, die individuelle körperliche
Eigenschaften des Benutzers zur Prüfung heranziehen, z.B. Augenhintergrund, Finger-
oder Handabdruck, Spracherkennung oder Unterschriftsprüfung, wird experimentiert,
praktische Bedeutung haben sie bisher kaum erlangt.
Für die maschinelle Authentifikation an der Maschine-Maschine-Schnittstelle, z.B.
zwischen Chipkarte und Chipkartenlesesystem, sind komplexe kryptographische
Verfahren erforderlich, z.B. Challenge-Response-Verfahren.
Eine weitere wichtige Grundtechnik für den technisch-organisatorischen Datenschutz ist
die Protokollierung. Mit der Aufzeichnung signifikanter Ereignisse in einem
informationstechnischen System lassen sich die Ist-Zustände von Systemkomponenten
und sicherheitsrelevante Prozesse, z.B. Zugriffe auf und Änderungen von
schutzbedürftigen Daten, Aufrufe von Programmen, Datenübermittlungen usw.
rückwirkend nachvollziehen.
Die kryptographische Verschlüsselung von Daten dient in diesem Zusammenhang u.a.
dazu, die Interpretation und damit die missbräuchliche Nutzung der Daten zu
verhindern. Dies ist vor allem dort wichtig, wo man den unbefugten Zugang an die
Daten nicht wirkungsvoll genug verhindern kann, z. B. bei der Übertragung über
ungeschützte Kommunikationssysteme oder der Speicherung von Daten in mobilen
informationstechnischen Systemen.
Der Zielsetzungen des technisch-organisatorischen Datenschutzes beschränken sich
aber nicht nur auf die Sicherstellung der informationstechnischen Sicherheit bei
personenbezogenen Daten: Es sind auch die technischen und organisatorischen
Massnahmen zu treffen, die erforderlich sind, um die Ausführung der übrigen
datenschutzrechtlichen Vorschriften zu gewährleisten.
Beispiele: Massnahmen, um
• die datenschutzgerechte Löschung von Daten zu ermöglichen,
• die datenschutzgerechte Sperrung von Daten zu ermöglichen,
• Daten berichtigen zu können,
• Auskunftsbegehren datenschutzgerecht befriedigen zu können.
Mit anderen Worten: Es müssen die technischen und organisatorischen Massnahmen
ergriffen werden, die erforderlich sind, um die Ansprüche aus den Rechten, die die
Betroffenen nach den Datenschutzgesetzen wahrnehmen können, auch effizient und
korrekt erfüllen zu können.

Datensicherung

Datensicherung ist der Sammelbegriff für alle Massnahmen zur Sicherstellung der
informationstechnischen Sicherheit und damit auch des technisch-organisatorischen
Datenschutzes. Allerdings erstrecken sich Massnahmen der Datensicherung auch auf
nicht personenbezogene Daten.
Im engeren Sinne wird Datensicherung als Sammelbegriff für die Massnahmen
verstanden, die der Absicherung der Verfügbarkeit der Daten und Programme dienen.
Dazu werden Daten und Programme auf andere Datenträger kopiert (Back up) und
meist auch ausgelagert. Falls also Daten oder Programme im Laufe der Verarbeitung
verloren gegangen sind oder fehlerhaft wurden, können sie mit Hilfe der Kopien
rekonstruiert werden.

Datensicherheit

Datensicherheit ist das angestrebte Ergebnis der Massnahmen zur Datensicherung, bei
personenbezogenen Daten also der Massnahmen des technisch-organisatorischen
Datenschutzes.

Weitere Informationen:
• Richtlinie des Europäischen Parlaments zum Schutz natürlicher Personen bei
der Verarbeitung personenbezogener Daten und zum freien Datenverkehr
Denial of Service-Attacks

Eine der grössten Gefahren im Internet stellen sogenannte "Denial of Service-Attacks"


dar: Bei diesen Attacken werden Rechner im Internet zu Absturz gebracht, die dann
vorübergehend anderen Nutzern nicht zur Verfügung stehen (deshalb auch "Denial of
Service", übersetzt soviel etwa wie "Verweigerung des Dienstes"). Eines haben fast alle
Attacken gemein: Sie nutzen die Löcher von schlampig programmierten TCP/IP-
Portierungen und schlecht administrierten Netzwerken aus.

Mail-Bombing

Einer der ältesten Denial of Service-Attacks ist das inzwischen "klassische" Mail-
Bombing. Hierzu wird ein Empfänger mit einer Vielzahl von gleichlautenden eMails
regelrecht bombadiert, so dass das nächste Herunterladen der vorhandenen eMails zur
Qual werden dürfte. Die Ausführung erzeugt aber noch ein anderes Opfer:
Eine Mailbombe besteht im Prinzip aus einer einzigen eMail, die an einen SMTP-
Mailserver zur Ausführung geschickt wird. Diese eMail hat jedoch die Besonderheit,
dass sie die eMail-Adresse des Opfers gleich mehrmals als BCC-Empfänger enthält.
Der ausführende Mailserver hat bei entsprechend hoher Angabe von BCC-Empfängern
ebenfalls entsprechend genug zu tun, diese eMails zu generieren und zu versenden.
Eine sehr unangenehme Variante des Mail-Bombings ist die Anmeldung eines Opfers
bei Unmengen von Mailinglisten. Das Opfer muss sich nämlich nach so einer Attacke
mühsam aus allen angemeldeten Listen manuell wieder austragen.

Broadcast Storms

Broadcast Storms gehören ebenfalls schon zur älteren Generation von Denial of
Service-Attacks. Sie richten besonders viel Schaden in lokalen Netzwerken an, in
denen jeder Rechner als Gateway fungiert und die Netzwerktopologie nur mangelhaft
gewartet wird.
An jeden Rechner wird bei einer Broadcast Storm-Attacke ein Strom an IP-Paketen
geschickt, die allesamt an nichtexistierende Ziele adressiert sind. Wird dieser
Datenstrom für mehrere Rechner innerhalb dieses Netzwerkes aufrechterhalten, ist das
gesamte Netzwerk recht bald ziemlich lahmgelegt, da die Rechner die falsch
adressierten Daten über die Gateways immer wieder in andere Subnetze verschieben.
Um die Problematik von Broadcast Storms zu vermeiden, ist eine ausgeklügelte und
sorgfältige Planung des Netzwerks notwendig, um das "Hängenbleiben" von
umherirrenden IP-Paketen von vorneherein zu verhindern bzw. in kürzester Zeit zu
eliminieren. Heutzutage erleben Broadcast Storms leider wieder eine Renaissance, da
immer mehr lokale Netzwerke an das Internet angebunden werden und dabei immer
weniger auf die Sicherheit geachtet wird.
Smurf

Smurf-Attacken gehören zur Gruppe der Broadcast Storms, arbeiten aber auf eine
etwas andere Weise:
Bei einem Smurf Angriff sendet der Angreifer extrem viele ICMP-Pakete (z.B. Ping-
Anfragen) an die Broadcast-Adresse eines Netzwerks, so dass dieses Paket an jeden
Rechner innerhalb des Netzwerks weitergeleitet wird. Der Angreifer tarnt sich jedoch
nicht mit seiner eigenen oder einer nicht-existenten Adresse, sondern mit der Adresse
des eigentlichen Opfers. Nun passiert folgendes:
Die ICMP-Anfragen werden nun um die Anzahl der Rechner im Netzwerk vervielfacht;
das Netzwerk dient quasi als Sprungbrett. Ist das Netz korrekt konfiguriert, versanden
die ICMP-Antworten am Router des Netzwerks und werden nicht zur Adresse des
Opfers gesendet. Ist das Netz jedoch fehlkonfiguriert, werden die multiplizierten ICMP-
Antworten an das Opfer weitergeleitet.Dadurch koennen Angreifer mit geringer
Leitungskapazitaet (Modem, ISDN) Opfer mit breitbandigen Anschluessen nahezu
lahmlegen. Die ICMP-Antworten belegen die gesamte Leitungskapazität und normale
Datenkommunikation wird unterbunden. Sehr häufig brechen auch die Server unter
diesem Ansturm zusammen und müssen von ihren Administratoren vorübergehend vom
Netz genommen werden.
Die Angreifer selbst sind nur sehr schwer zu identifizieren, da sie sich als das Opfer
tarnen. Die einzige sichere Abwehr ist, die Administratoren der als Sprungbrett
dienenden Netzwerke über ihr Sicherheitsloch zu informieren und zu überzeugen, ihre
Netze korrekt zu konfigurieren, um das Nach-Aussen-Leiten von Broadcastpings
(ICMP) zu unterbinden.

Distributed Denial-of-Service-Attacks (DDoS)

Diese Art von Denial-of-Service-Attacken sind genau genommen keine eigenen


Attackeverfahren, sondern beziehen sich auf den Angriffsweg. Im Gegensatz zu einer
einfachen Denial-of-Service-Attacke werden Distributed Denial-of-Service-Attacken
nicht nur über einen Angriffsrechner gefahren, sondern gleichzeitig im Verbund mit
mehreren Rechnern.
Zu diesem Zweck plaziert ein Angreifer ein sogenanntes Trojanisches Pferd auf
verschiedenen Rechnern im Internet, vornehmlich auf Rechner, die per Standleitung
und besonders breitbandig angebunden sind. Diese Plazierung kann auch schon
Monate vor eigentlichen Angriffen erfolgen. Wird nun ein Angriff auf ein bestimmtes
Opfer gestartet, erfolgen die Angriffe über die Rechner, auf denen das Trojanische
Pferd installiert ist, gleichzeitig und erzeugen in der Gesamtheit ein enormes
Angriffsvolumen.
Die Bekämpfung von Distributed Denial-of-Service-Attacken ist extrem schwierig. Bei
einem akuten Angriff kann der Administrator des angegriffenen Rechners lediglich die
Datenflut von angreifenden Servern filtern, zum Beispiel über eine Firewall, um so
wenigstens die Server zu schützen. Das Netz bleibt jedoch im Regelfalle trotzdem nicht
erreichbar, da die Anbindung selbst überlastet bleibt.
Einzig praktikable Lösung bleibt auch hier nur die nachträgliche Informierung aller
Administratoren, von deren Rechnern ein Angriff im Verbund erfolgte.

Out of Band-Packets ("Nukes")

Nahezu schon legendäre Denial of Service-Attacks sind die sogenannten "Nukes".


Hierzu werden spezielle IP-Pakete, die ein besonderes Merkmal haben, an einen
Rechner geschickt. Entsprechend ungesicherte Betriebssysteme (ungepatchte
Versionen von Windows und Linux) quittieren den Empfang solcher Pakete mit dem
völligen Systemstillstand. Inzwischen existieren für (fast) alle betroffenen
Betriebssysteme geeignete Patches, die diesen Fehler eliminieren.
Out of Band-Packets bestehen aus einem speziellen UDP-Paket, dass gewöhnlich an
den Port 139 (NetBIOS-Port) gesendet wird, da dieser standardmässig bei vielen
Computern geöffnet ist. Prinzipiell funktioniert es aber auch mit allen anderen Ports, die
für Datenempfang standardmässig geöffnet sind. Die Wirkungsweise liegt nun darin,
dass ein entsprechend ungesichertes Betriebssystem mit Out of Band-Informationen
nichts anfangen kann und in einer "panikartigen" Reaktion im ungünstigsten Fall die
aktuelle Sitzung mit einem Systemabsturz beendet.
Eines der populärsten Opfer von Nukes war 1997 die Computersendung "netNite",
damals noch im ZDF. Zur laufenden Sendung bot man einen Chat mit den Redakteuren
über einen IRC-Server an, der allerdings auf einem ungepachten Windows NT-Server
installiert war. Dieser wiederum war Ziel von Nukes einiger Nutzer, so dass im Laufe
der Sendung der Chatserver mehrmals neugestartet und schliesslich gänzlich
abgeschaltet werden musste. Alle Zuschauer waren unfreiwillig Zeugen dieser Aktion,
da ein Screenshot des Chatfensters permanent im Fernsehbild eingeblendet war.

TCP Syn Flooding ("Land Attacks")

Diese Attacke nutzt ein Feature von TCP aus: Bevor eine Verbindung zwischen zwei
Rechnern aufgebaut wird, sendet der Absender spezielle IP-Pakete an den Empfänger,
um eine Verbindung anzukündigen (sogenannte "SYN"-Pakete). Der Empfänger sendet
dann ein Antwort-Paket zurück an den Absender und erwartet von ihm ein sogenanntes
"ACK"-Paket ("ACK" = "Acknowledgement" = Empfangsbestätigung).
Führt nun ein Absender eine TCP Syn Flooding-Attacke aus, sendet er nicht, wie vom
Empfänger erwartet, ein ACK-Paket aus, sondern bombadiert den Empfänger weiterhin
mit SYN-Paketen. Der Empfänger quittiert wacker alle diese SYN-Pakete. Hier tritt nun
der Fehler bei entsprechend fehlerhaften TCP-Implementierungen auf, die bei einem
weiteren SYN-Paket nicht nur für das gerade empfangene SYN-Paket eine ACK-
Anforderung verschicken, sondern auch für alle bisher empfangenen. Auf die Weise
erzeugt der Empfänger-Rechner recht schnell eine hohe Datenflut und ist für die Zeit
komplett ausgelastet.
Large Packet-Attacks ("Ping of Death")

Ein weiterer, besonders hinterhältiger Veteran der Denial of Service-Attacks sind die
"Large Packet-Attacks", unter Insidern "Ping of Death" genannt (obwohl die Attacke
nichts mit dem eigentlichen Ping-Programm zu tun hat).
Die Wirkungsweise von Large Packet-Attacks ist zugleich einfach und fatal: Das IP-
Protokoll verpackt alle Daten beim Absender in 64 kB grosse Päckchen. Diese werden
jedoch protokollintern vor der Übertragung in kleinere Päckchen zerlegt, um sie
einfacher übertragen zu können (fragmentieren). Beim Empfängerrechner werden diese
einzelnen Päckchen wieder zusammengefügt (reassemblieren), allerdings erst, wenn
alle Einzelteile vorliegen. Ist das ankommende Paket am Ende grösser als 64 kB, läuft
ein interner Speicherpuffer über und bringt im ungünstigsten Fall den Rechner zum
Absturz.

Ping Flooding

Das Ping Flooding gehört zu Denial of Service-Attacks, die keine Sicherheitslöcher


ausnutzen. Pings werden benutzt, um die Erreichbarkeit von anderen Hosts im Netz zu
prüfen. Ein "angepingter" Host quittiert hierzu einen Ping mit einer echoartigen Antwort,
einem sogenannten "Pong".
Beim Ping Flooding wird ein Host jedoch mit unzähligen Ping-Anfragen bombadiert, die
der Host dann natürlich alle bearbeitet (falls keine entsprechenden Mechanismen die
Abarbeitung von rasch wiederholenden Ping-Anfragen verhindert) und entsprechend
das eigene System und die Netzverbindung auslastet.
Ping Flooding ist einer der Denial of Service-Attacken, die richtig teuer werden können:
Wird eine Netzverbindung eines Hostes nämlich nach dem erzeugten Datenaufkommen
abgerechnet, können teilweise horrende Summen entstehen.

Ping-AT-Attacks

Eine besonders heimtückische Attacke betrifft eine Vielzahl von Modems. Zum
besseren Verständnis hierzu jedoch kurz etwas Geschichtliches:
Der amerikanische Modemhersteller Hayes [ http://www.hayes.com/ ], Pionier in der
Modemtechnologie, hat Ende der 70er Jahre eine einheitliche, zeilenorientierte und
offene Befehlsprache für Modems entwickelt, die sogenannten AT-Befehle. Anhand
dieser AT-Befehle ist es möglich, jedes Modem anzusprechen, in welches diese
Sprache implementiert ist. Inzwischen ist in allen modernen Modems die AT-
Befehlssprache implementiert, so dass Modems von Betriebssystemen und
Programmen meist universell angesprochen werden können.
Es ist wichtig zu verstehen, dass ein Modem offline prinzipiell im Kommandomodus
läuft, also über AT-Befehle ansprechbar ist. Wird eine Verbindung aufgebaut, geht das
Modem in den Übertragungsmodus über und ist in der Zeit nicht über AT-Befehle
ansprechbar, es sei denn, man übergibt dem Modem drei Escape-Zeichen (im
Fachjargon mit "+++" gekennzeichnet), die das Modem als Befehl zum Umschalten in
den Kommandomodus interpretiert. Aus Sicherheitsgründen muss zwischen diesem
Umschaltkommando in den Kommandomodus und dem ersten AT-Befehl mindestens
eine Pause von 1 Sekunde vorhanden sein.
Leider verzichten einige Modemhersteller aus patentrechtlichen Gründen auf diese
Pause, so dass bei diesen Modellen der Umschaltbefehl in den Kommandomodus und
ein kompletter AT-Befehl direkt hintereinander ohne Zeitverzug eingegeben werden
können. Dadurch ist nun folgendes möglich:
Ein Absender schickt an einen Empfänger über das Internet ein spezielles Ping-Paket,
das z.B. die Sequenz "+++ATH0" (Umschalten in den Kommandomodus und Beenden
der Verbindung) enthält. Laut Ping-Protokoll antwortet der Rechner des Empfängers auf
die Ping-Anfrage mit der Spiegelung des Paketes. Kennt das Modem nun keine Pause
zwischen dem Umschalten in den Kommandomodus und dem ersten AT-Befehl, wird es
den Paketinhalt des Antwort-Pings als abzuarbeitende Sequenz interpretieren und die
Verbindung beenden.
Firewall

Als Firewall wird heute jedes System bezeichnet, welches den Datenverkehr zwischen
zwei Netzwerken kontrolliert. Im einfachsten Fall ist dies ein Router. Ein Firewallsystem
kann auch aus mehreren zusammenarbeitenden Komponenten, z. B. zwei Routern und
einem Rechner, bestehen. Heutige Firewall-Rechner besitzen meistens zwei oder drei
Netzwerkanschlüsse, und lassen sich je nach Anforderung in verschiedene Topologien
einbinden.
Ein Firewall kanalisiert die Kommunikation, indem alle Daten von und nach aussen über
dieses System laufen müssen. Die Kanalisierung erhöht zudem die Chancen, einen
Einbruchversuch anhand ausführlicher Protokoll-Dateien zu erkennen, da der
Eindringling erst den Firewall passieren muss.
Mit einem Firewall lässt sich die Wahrscheinlichkeit erheblich verringern, dass Angreifer
von aussen in inneren Systeme und Netze eindringen können. Zudem kann das System
interne Benutzer davon abhalten, sicherheitsrelevante Informationen, wie
unverschlüsselte Passwörter oder vertrauliche Daten, nach aussen geben.
Ein Firewall kann aus einer einzelnen Maschine oder aus einer mehrstufigen
Anordnung bestehen. Eine mehrstufige Anordnung ist vor allem dann sinnvoll, wenn
man bestimmte Dienste der Öffentlichkeit zur Verfügung stellen will, etwa einen
Internet- oder ftp-Server. Die entsprechenden Hosts können dann in einem
Zwischennetz isoliert werden.
Die Kontrolle des Datenverkehrs kann auf verschiedenen Ebenen erfolgen. Für die
Kontrolle der Ebenen 1 bis 4 des ISO-Modells kann ein Router ausreichend sein, für die
höheren Ebenen ist ein Rechner notwendig. Der Router kann mit Access-Listen
versehen werden. Diese Access-Listen erlauben die Kontrolle des Datentransfers auf
Netzwerkebene, d.h. dass eine Kontrolle des Dateninhalts und auf Applikationsebene
nicht möglich ist. Jedes Datenpaket wird für sich betrachtet, unabhängig von anderen
Paketen. Der Router kann nicht erkennen, ob ein bestimmtes Paket zu einem
Datenpaket gehört, welches schon vorher vermittelt wurde.
Zur Umgehung dieses Problems versucht man, den Firewall-Rechner so auszulegen,
dass der Rechner mitverfolgt, welche Pakete schon geschickt wurden. Jegliche
Kommunikation wird nach sogenannten Protokollen abgewickelt. Sind die Regeln solch
eines Protokolls dem Firewall-Rechner bekannt, kann er verfolgen, ob die Pakete der im
Protokoll vorgegeben Reihenfolge und Richtung entsprechen. Dieses Verfahren wird als
'statefull inspection' bezeichnet. Eine Kontrolle des Dateninhalts kann mit diesem
Verfahren immer noch nicht stattfinden.
Ein 'application-level' Firewall erlaubt die Inhalts-Kontrolle. Bei diesem Firewall-Typ
muss für jedes durch den Firewall vermitteltet Protokoll ein spezielles Programm, ein
sog. Proxy, vorhanden sein. Der Proxy vermittelt zwischen den beiden Seiten des
Firewalls. Das Proxy-Programm verhält sich genau so wie das Originalprogramm des
jeweiligen Protokolls, z.B. wie ein FTP-Server. Mit einem Proxy ist es möglich, auf allen
Ebenen der Kommunikation den Datenstrom zu Filtern und zu Beeinflussen.
Die heutigen Firewall-Produkte sind meist eine Kombination der obigen Techniken. Je
nach nach Produkt sind die einzelnen Funktionen unterschiedlich stark ausgeprägt.
Firewallsysteme sind für einen vollautomatischen Betrieb ausgelegt. Allerdings mag
dies täuschen, da je nach Firewall-Typ u.U. Statistiken, Logdaten, Alarme usw.
generiert werden. Diese Botschaften benötigen einen Adressaten, einen kompetenten
und verantwortlichen Menschen, der die Nachrichten des Firewalls bewertet und
entsprechend handelt. Zur Definition dieser Aktionen ist zusammen mit, oder besser
noch vor der Installation des Firewalls festzulegen, was der Firewall wie schützen soll.
Es ist festzulegen, was in bestimmten Situationen zu tun ist, und wer dies tut. Der
Betrieb eines Firewallsystems kann mehr Personalresourcen fordern als der Betrieb
eines LAN-Servers.

Architektur mit Dualhomed-Host

Eine Architektur mit Dualhomed-Host wird um einen Host herum aufgebaut, der über
mindestens zwei Netzwerkschnittstellen verfügt. Ein solcher Host ist als Router
zwischen den Netzen einsetzbar, die an die Schnittstellen angeschlossen sind. Er kann
dann IP-Pakete von Netz zu Netz routen. Für diese Firewall-Architektur muss diese
Routingfunktion jedoch deaktiviert werden. IP-Pakete werden somit nicht direkt von dem
einen Netz (dem Internet) in das andere Netz (das interne, geschützte Netz) geroutet.
Systeme innerhalb der Firewall und Systeme ausserhalb (im Internet) können jeweils
mit dem Dualhomed-Host, aber nicht direkt miteinander kommunizieren. Der IP-Verkehr
zwischen ihnen wird vollständig blockiert. Die Netzarchitektur für eine Firewall mit
Dualhomed-Host ist denkbar einfach: der Dualhomed-Host sitzt in der Mitte, wobei er
mit dem Internet und dem internen Netz verbunden ist.

Abbildung: Netz mit Dualhomed-Host

Ein Dualhomed-Host kann Dienste nur anbieten, indem er entsprechende Proxies


(Stellvertreter) oder Gateways einsetzt. Es ist jedoch auch möglich, direkte
Nutzerzugriffe zu gestatten (Sicherheitsrisiko).
Architektur mit überwachtem Host

Die "screened host architecture" bietet Dienste von einem Rechner an, der nur an das
interne Netz direkt angeschlossen ist, wobei ein getrennter Router verwendet wird. Der
Bastion-Host befindet sich im inneren Netz. Auf diesem Router verhindern Paketfilter
das Umgehen des Bastion-Host.

Abbildung: Screened host architecture

Die Paketfilterung auf dem Sicherheitsrouter muss so konfiguriert werden, dass der
Bastion-Host das einzige System im internen Netz darstellt, zu dem Rechner aus dem
Internet Verbindungen aufbauen können (das einzige "nach aussen sichtbare" System).
Zusätzlich sind nur gewisse Dienste zugelassen. Alle externen Systeme, die auf interne
Systeme zugreifen wollen, und auch alle internen Systeme, die externe Dienste
wahrnehmen wollen, müssen sich mit diesem Rechner verbinden. Daraus ergibt sich
ein besonderes Schutzbedürfnis für diesen Bastion-Host. Der Vorteil bei dieser
Konstruktion ist die Tatsache, dass ein Router leichter zu verteidigen ist. Dies liegt u. a.
daran, dass auf ihm keine Dienste angeboten werden. Nachteilig wirkt sich aus, dass
bei einer eventuellen Erstürmung des Bastion-Host das interne Netz vollkommen
schutzlos ist.

Architektur mit überwachtem Teilnetz

Die "screened subnet architecture" erweitert die Architektur mit überwachtem Host um
eine Art Pufferzone, die als Grenznetz das interne Netz vom Internet isoliert. Diese
Isolierzone wird auch "Demilitarisierte Zone" (DMZ) genannt.
Abbildung: Netz mit DMZ

Bastion-Hosts sind von ihrer Art her die gefährdetsten Rechner in einer
Firewallkonstruktion. Auch wenn sie in der Regel mit allen Mitteln geschützt sind,
werden sie doch am häufigsten angegriffen. Die Ursache liegt darin, dass ein Bastion-
Host als einziges System Kontakt zur Aussenwelt unterhält.

Firewall-Software

Zur Software-Konfiguration eines Firewall existieren zwei Grundstrategien:


• 'Es ist alles erlaubt, was nicht verboten ist'
Dieser Ansatz schliesst die Nutzung bestimmter Dienste (z. B. tftp, nfs) generell
aus. Er ist benutzerfreundlich, da neue Dienste automatisch erlaubt sind, aber
auch gefährlich, da der Administrator das Verhalten der Nutzer ständig
beobachten und rechtzeitig Gegenmassnahmen treffen muss.
• 'Es ist alles verboten, was nicht erlaubt ist'
Diese Strategie könnte von den Nutzern als hinderlich angesehen werden, da
diese neue Dienste erst umständlich beantragen müssen. Sie schützt aber auch
vor Sicherheitslücken im Betriebssystem und in Anwendungsprogrammen, da sie
den Zugriff auf unbekannte Ports unterbindet.
Es gibt drei Arten von Firewall-Softwareebenen:
• Paketfilter überprüfen die Quell- und Zieladresse (IP-Adresse und TCP/UDP-
Port) eines Pakets und entscheiden, ob es passieren darf oder nicht. Der Vorteil
besteht in der Transparenz für den Anwender. Diese Transparenz ist aber
zugleich von Nachteil: Paketfilter können nicht zwischen Nutzern und deren
Rechten unterscheiden. Paketfilter sind im allgemeinen auf Routern angesiedelt
und werden heute von den meisten Herstellern mitgeliefert. Intelligente
Paketfilter analysieren zusätzlich den Inhalt der Pakete und erkennen auch die
Zulässigkeit von Verbindungen, die einfache Paketfilter nicht erlauben würden (z.
B. Datenverbindung bei ftp).
• Circuit Level Gateways sind mit Paketfiltern vergleichbar, arbeiten jedoch auf
einer anderen Ebene des Protokollstacks. Verbindungen durch solch ein
Gateway erscheinen einer entfernten Maschine, als bestünden sie mit dem
Firewall-Host. Somit lassen sich Infomationen über geschützte Netzwerke
verbergen.
• Application Gateways, auch 'Proxy' (Stellvertreter) genannt, stellen ein anderes
Firewall-Konzept dar. Hierbei wird auf dem Firewall-Host für jede zulässige
Anwendung ein eigenes Gateway-Programm installiert. Der Client muss sich
dabei oftmals gegenüber dem Proxy-Programm authentifizieren. Dieser Proxy
führt dann alle Aktionen im LAN stellvertretend für den Client aus. Damit lassen
sich zum einen benutzerspezifische Zugangsprofile (welche Zeiten, welche
Dienste, welche Rechner) erstellen, zum anderen kann man die Festlegung der
zulässigen Verbindungen anwendungsbezogen vornehmen. Die daraus
resultierenden separaten kleinen Regelsätze bleiben besser überschaubar als
der komplexe Regelsatz eines Paketfilters. Application Gateways sind typische
Vertreter der 'Verboten-was-nicht-erlaubt'-Strategie und als die sicherste, aber
auch aufwendigste Lösung einzuschätzen.
Da beim Proxy alle Zugriffe nach aussen über eine Instanz laufen, kann man den Proxy
gleichzeitig als Cache (Pufferspeicher) benutzen. Der Proxy speichert alle erhaltenen
Internet-Seiten zwischen, so dass er bei einem erneuten Zugriff darauf - egal, ob vom
selben oder einem anderen Anwender - keine Verbindung nach aussen aufbauen muss.
Der Einsatz von Firewalls bietet sich auch innerhalb einer Organisation an, um Bereiche
unterschiedlicher Sensitivität von einander abzugrenzen. Firewalls bieten jedoch
niemals hundertprozentige Sicherheit! Sie schützen nicht vor dem Fehlverhalten eines
authorisierten Anwenders und können, etwa durch eine zusätzliche Modem-
Verbindung, umgangen werden.
Ein Firewall nach dem heutigen Stand der Technik kann nur gegen bereits bekannte
Angriffs-Methoden schützen. Er kann möglichst viele Ereignisse protokollieren, um im
Fall des Falles den Vorgang möglichst lückenlos rekonstruieren zu können. Nur, was
soll man protokollieren? Die Datenmengen können pro Tag auf hunderte von
Megabytes anwachsen. Wer wertet dies aus, und sucht darin die Nadel im Heuhaufen?
Neueste Ansätze beruhen darauf, dass man ein Firewallsystem durch ein zusätzliches
System ergänzt, welches den Verkehr auf dem Netzwerk überwacht. Dieses System ist
vom Firewall völlig unabhängig, und es greift nicht aktiv in den Datenverkehr des
Netzes ein. Dieses System hat die Aufgabe eines unparteiischen 'Flugschreibers' (der
Name 'Network Flight Recorder' wurde von Marcus Ranum, dem Entwickler des TIS
Firewall Toolkit, geprägt). Dieses System kann den Bedürfnissen entsprechend
programmiert werden. Mit Hilfe dieses Systems kann man zwar einen Einbruch in das
Netz nicht aktiv unterbinden, man kann ihn aber leichter erkennen und verfolgen. Das
System kann, genauso wie ein Firewall, Alarme bei suspekten Ereignissen auslösen, z.
B. wenn plötzlich DNS-Anfragen von einem System beantwortet werden, welches kein
DNS-Server ist (DNS-Spoofing).

Firewall-Management

Werden in einem Unternehmen mehrere Firewalls betrieben, so ergeben sich


zusätzliche Komplikationen beim Management der Systeme. Mehrere Firewalls sind
notwendig bei räumlicher Trennung mehrerer Niederlassungen mit eigenen
Internetzugängen oder bei geschäftsprozessbedingte Kopplung zu den Netzen
verschiedener Partnerfirmen (Extranet). Die Konfiguration eines Firewallsystem ist
immer einmalig auf den jeweiligen Standort und die Netzwerktopologie zugeschnitten.
Es gibt keine Firewall-Konfiguration 'von der Stange'.
In den wenigsten Fällen ist es möglich, einen Firewall direkt an der Konsole des
Rechners zu managen. Selten wird der Firewallrechner am Schreibtisch des
Administrators stehen. Manche Firewalls erlauben ein remote Management nur über
dedizierte Leitungen (seriell, eigenes LAN). Die Kenntnis der internen Konfiguration
oder das Mithören der Passwörter beim remote login über das interne LAN erleichtern
einen Einbruch-Versuch. Daher muss beim direkten Login in den Firewall-Rechner
immer eine verschlüsselte Verbindungen benutzt werden. Liefert der Hersteller keine
ausreichenden Tools zum Remote-Management von Firewallsystemen, so kann man
durch den den Einsatz von frei verfügbaren Tools die Situation wesentlich verbessern.
Programme wie Secure Shell (ssh, fü remote login), PGP (zum Signieren von
Konfigurationsdateien) und rsync (zum Datentransfer und Datei-Synchronisation über
ssh) bilden schon eine sehr gute Basis. Hat man viele Systeme zu betreuen, mag die
Installation eines eigenen Firewall-Management-Rechners vorteilhaft sein. Dieser
zentrale Management-Rechner kann dann die Meldungen aller Firewalls auswerten und
archivieren, und kann seinerseits einen abgesicherten Internet-Server bereitstellen
(Apache-SSL), über den Management-Funktionen zentral für mehrere Firewallsysteme
und Statusabfragen abgewickelt werden können.

Internet-Server Sicherheit

Grundsätzlich kann ein Internet-Server vor oder hinter (extern oder intern) einem
Firewall angeordnet werden. In beiden Fällen ist der Rechner des Internet-Servers so
gut wie möglich abzusichern. Auch die Position hinter dem Firewall (aus der Sicht des
Internet) schützt nicht gegen Angriffe über das HTTP-Protokoll, z.B. CGI-Attacken.
Die Position des Internet-Servers wird von mehreren Faktoren bestimmt. Dies sind zum
einen funktionelle Faktoren, wie z.B. der Zugriff auf firmeninterne Datenbanken oder
Platformabhängikeiten der Web-Anwendung. Andere Faktoren sind die erwartete
Serverlast (bestimmt die Belastung des Firewalls bei interner Serverposition) und die
Schutzwürdigkeit der auf dem Server zugänglichen Daten. Ebenso wichtig ist der leichte
aber sichere Zugriff des Webmaster zu seinen Daten auf dem Server.
Eine mögliche Konfiguration eines Internet-Server besteht darin, dass der Haupt-Server
mit den statischen Daten ausserhalb des Firewalls steht, also aus dem Internet voll
zugänglich ist. Über einen vorgeschalteten Router kann man den Zugriff für bestimmte
Ports frei schalten. Der Internet-Server wird so konfiguriert, dass Anfragen an
bestimmte URLs von diesem über den Firewall an einen internen Internet-Server
weitergeleitet werden (Proxy-Funktion). Dieser interne Server generiert hauptsächlich
dynamische HTML-Seiten, z. B. aus Abfragen einer internen Datenbank.
Eine andere Variante besteht darin, ausserhalb des Firewalls einen Cache-Server
aufzustellen, der die HTML-Anfragen an den eigentlichen, innerhalb des Firewalls
stehenden, Internet-Server weiterleitet. Diese Konfiguration hat den Vorteil, dass sich
der ausserhalb stehende Cache dem Internet als Internet-Server präsentiert. Auf dem
Firewall muss nur die Verbindung zwischen dem Cache und dem internen Internet-
Server freigeschaltet werden, der interne Server tritt niemals direkt mit einem der
Clients am Internet in Kontakt.
Kryptographie

Fragen der Sicherheit

In elektronischen Medien wird "Sicherheit" anhand von vier Kriterien bewertet:


• Authentizität
Sicherstellung, dass eine Information auch wirklich von dem Absender stammt,
der ausgibt, der Absender zu sein.
• Vertraulichkeit
Sicherstellung, dass eine Information nur von demjenigen gelesen werden kann,
für den sie bestimmt ist.
• Integrität
Sicherstellung, dass eine Information auf ihrem Transportweg nicht verändert
wird.
• Verbindlichkeit
Sicherstellung, dass eine Information vertrauenswürdig ist. Diese vier Kriterien
müssen erfüllt sein, wenn eine optimale Datensicherheit gewährleistet sein soll.
Für jedes Kriterium gibt es eigene Lösungsmöglichkeiten, die Kunst liegt aber
darin, mit einem Verschlüsselungssystem möglichst alle vier Kriterien gleichzeitig
zu erfüllen.
Moderne Verschlüsselungssysteme basieren auf dem Key-Verfahren, d.h. es wird ein
einheitliches Programm zur Ver- und Entschlüsselung verwendet, das zum Ver- und
Entschlüsseln einen Schlüssel benötigt. Dieser Schlüssel beeinflusst aktiv den
Verschlüsselungsalgorithmus des Programms und erzeugt eine verschlüsselte Datei.
Ein Schlüssel besteht aus einer Abfolge von Bits. Während die ersten Generationen von
Verschlüsselungsmechanismen mit Schlüsselgrössen von 40 bis 56 Bits arbeiteten,
arbeiten heutige Mechanismen in der Regel mit 128 Bits, PGP beispielsweise sogar mit
Schlüssel von bis zu 2.048 Bits. Zum Vergleich: In Frankreich benötigten 1997 120
zusammengeschaltete Computer einen Monat, um einen Schlüssel zu knacken, der
eine Länge von lediglich 40 Bit aufwies.
Bei den Verschlüsselungsverfahren gibt es zwei Grundverfahren: Symmetrische und
Asymmetrische Verschlüsselungsverfahren

Symmetrische Verschlüsselungsverfahren

In symmetrischen Verschlüsselungsverfahren existiert ein Schlüssel, der gleichzeitig


beim Absender zum Ver- und beim Empfänger zum Entschlüsseln einer Nachricht
verwendet wird.
Symmetrische Verschlüsselungsalgorithmen sind sehr schnell und auch sehr sicher,
wenn z.B. ein Schlüssel nur für den Datenaustausch zwischen zwei Personen erfolgen
soll und der Schlüssel über Medien weitergegeben wird, die frei von mitlesenden Dritten
sind (z.B. direkte Schlüsselübergabe per Diskettenaustausch).
Schwierigkeiten beginnen, wenn der Schlüssel nicht so ohne weiteres persönlich an
den Empfänger übergeben werden kann. Kommt ein Unbefugter in den Besitz des
Schlüssels, kann er zum einen alle Nachrichten entschlüsseln, die mit diesem Schlüssel
codiert wurden und zum anderen auch eigene Nachrichten mit diesem Schlüssel
codieren und sich selbst als Absender herausgeben.
Das bekannteste symmetrische Verschlüsselungsverfahren ist der DES ("Data
Encryption Standard"), der in den 70er Jahren von IBM entwickelt wurde und mit einer
Schlüssellänge von 56 Bit arbeitet.

Asymmetrische Verschlüsselungsverfahren

In asymmetrischen Verschlüsselungsverfahren existieren zwei verschiedene,


gleichlange Schlüssel, die mathematisch miteinander zusammenhängen, der Private-
Key und der Public-Key:
Der Private-Key verbleibt grundsätzlich beim Eigentümer des Schlüssels und wird
ausschliesslich zum Entschlüsseln von verschlüsselten Nachrichten verwendet, die mit
dem zusammengehörenden Public-Key verschlüsselt wurden.
Der Public-Key ist der öffentliche Schlüssel des Schlüsselpaares, den der Eigentümer
des Schlüssels zunächst an einen Absender übergeben muss, damit dieser seine
Nachrichten an den Eigentümer mit ihm verschlüsseln kann.
Asymmetrische Verschlüsselungsverfahren arbeiten deutlich langsamer als
symmetrische, sind jedoch auch in Mehrnutzerumgebungen (z.B. Netzwerke oder das
Internet) sicher, da der Schlüssel zur Entschlüsselung immer beim Eigentümer
verbleiben kann und er niemandem bekannt sein muss, um an den Eigentümer
verschlüsselte Nachrichten zu senden.
Allerdings sind auch asymmetrische Verschlüsselungsverfahren verwundbar.
Ronald Rivest, Adi Shamir und Leonard Adleman entwickelten 1978 das RSA-
Verfahren, das eines der bekanntesten Public-Key-Verfahren ist. Die Schlüssel werden
nach einem definierten Verfahren selber hergestellt. Danach werden die Schlüssel zum
Chiffrieren veröffentlicht, diejenigen zum Dechiffrieren aber von jedem Teilnehmer
geheimgehalten.
Beispiel des RSA-Verfahrens:
Man wählt zwei Primzahlen p=47 und q=59. Das Produkt ist n=2773.
Man bestimmt eine Zahl e, die zum Produkt x = (p-1) * (q-1) = 2668 teilerfremd ist. Dies
könnte in unserem Beispiel e=17 sein.
Nun ist eine Zahl d so zu bestimmen, dass e * d ein Vielfaches von x vermindert um 1
ergibt. Mathematiker schreiben: (e * d) mod x = 1. In unserem Beispiel ist z.B. d=157.
Die Verschlüsselung geschieht durch die Formel Z' = Z hoch e mod n.
Die Entschlüsselung geschieht durch die Formel Z = Z' hoch d mod n.

Der öffentliche Schlüssel besteht also aus den Zahlen n und e, der geheime Schlüssel
ist d.
Hybride Verschlüsselungsverfahren

Aufgrund der Langsamkeit des asymmetrischen und die Verwundbarkeit des


symmetrischen Verfahrens, ist man dazu übergegangen, in Verschlüsselungssysteme
beide Verfahren zu kombinieren.
Prinzipiell wird in hybriden Verschlüsselungsverfahren die zu verschlüsselnde Datei
zunächst mit einem symmetrischen Verschlüsselungsverfahren bearbeitet und der dazu
verwendete Schlüssel mit einem asymmetrischen Verschlüsselungsverfahren
nachbearbeitet. Auf die Weise ist die verschlüsselte Datei genauso sicher, wie bei
einem herkömmlichen symmetrischen oder asymmetrischen Verfahren.
Das berühmteste und gängigste Produkt dieser Kategorie ist PGP von Philip
Zimmermann. PGP steht für "Pretty Good Privacy" ("Recht gute Privatsphäre") und
bietet Schlüssellängen von bis zu 3.072 Bit. eMails, die mit solchen Schlüsseln PGP-
verschlüsselt werden, sind auch auf absehbare Zeit selbst für Grossrechner nicht
unbefugt entschlüsselbar.

"Vertrauenswürdige" Zertifikate

Auch mit modernen Verschlüsselungsverfahren ist ein Punkt ohne zusätzliche


Massnahmen nicht kontrollierbar, die Verbindlichkeit. Deshalb muss ein Zertifikat zuerst
als "vertrauenswürdig" gelten, wenn damit wirklich sicher kommuniziert werden soll.
Am sichersten ist diese Vertrauenswürdigkeit zu bewerkstelligen, wenn der Empfänger
dem Absender seinen Public-Key persönlich überreicht. Dies ist jedoch z.B. bei Online-
Shops so nicht realisierbar. Deshalb gibt es sogenannte Certificate Authorities, kurz CA
genannt, die genau so eine Zertifizierung vornehmen. Sie überprüfen in mehreren
Abstufungen die Identität des Absenders und unterschreiben als Nachweis den Public-
Key des Besitzers mit ihrem eigenen Private-Key und garantieren die Identität auf der
Basis der bestellten Vertrauenswürdigkeit in Form von verschiedenen
Zertifikatsklassen.
Wichtig hierbei ist: Der Unterschied von Zertifikatsklassen liegt nicht in der eigentlichen,
technischen Sicherheit der Zertifikate, sondern in der Vertrauenswürdigkeit.
Vergleichbar ist das am besten mit einem Büchereiausweis, einem Führerschein und
einem Personalausweis:
Der Büchereiausweis genügt, um sich in einer Bücherei soweit zu identifizieren, um
Bücher auszuleihen. Der Büchereiausweis wird aber bei einer Verkehrskontrolle nicht
ausreichen, um sich dort zu identifizieren, genauso wie der Führerschein in einer
Zollstelle nicht reicht, sich dort zu identifizieren. Der Personalausweis geniesst also hier
die höchste Vertrauenswürdigkeit, auch wenn alle drei Ausweise genauso personalisiert
und fälschungssicher sein sollten.
Genauso ist es auch mit den Zertifikatsklassen: In der untersten Zertifikatsklasse wird
der Absender nur anhand der eMail-Adresse identifiziert, d.h. der Absender schickt
seinen Public-Key an eine CA. Diese verschlüsselt eine nach dem Zufallsprinzip
erzeugte Zahl mit dem Public-Key und schickt sie an die eMail-Adresse des Absenders.
Ist der angegebene Absender auch wirklich der Besitzer des Schlüsselrings, kann er
(und nur er) die verschlüsselte Zahl anhand seines Private-Keys entschlüsseln und
diese Zahl digital unterschrieben wieder an die CA schicken.
Die höheren Zertifikatsklassen sehen persönliche Identifizierungen vor. Das einfachste
Verfahren ist hier die Identifikation per Einschreiben, bei dem die CA nach Empfang des
Public-Keys dem Absender einen Brief per Einschreiben-Rückschein zuschickt und er
diesen annehmen und beim Postboten quittieren muss.
Ein anderes, noch vertrauenswürdigeres Verfahren ist das sogenannte Post-Ident-
Verfahren, bei dem der Absender seine Identität persönlich von einem Postbeamten auf
einem vorgedruckten Formular der CA feststellen lassen und der Postbeamte dieses
Formular an die CA zurückschicken muss.
Wird ein Zertifikat von einer CA als vertrauenswürdig eingestuft, wird es mit dem
Private-Key der CA unterschrieben. Jede CA hat hier für jede ihrer Zertifikatsklassen
eigene Schlüsselringe, so dass schon anhand der Signatur die Zertifikatsklasse, und
damit die Vertrauenswürdigkeit, ersichtlich ist. Der Absender kann dann seinen so
zertifizierten Public-Key in seinen Schlüsselring aufnehmen. Jeder, der nun mit dem
Besitzer eines solch zertifizierten Schlüssels kommunizieren möchte, kann anhand der
CA-Zertifizierung und der entsprechend vergebenen Zertifikatsklasse die
Vertrauenswürdigkeit nachprüfen.
Zur weiteren Sicherheit sind alle Zertifizierungen zeitlich befristet und müssen
regelmässig wiederholt werden. Zusätzlich werden alle unterschriebenen Zertifikate auf
den Seiten der CA veröffentlicht und im Internet bereitgehalten. Die
Vertrauenswürdigkeit einer CA wird anhand von gesetzlichen Grundlagen und
stichprobenartigen Überprüfungen gesichert.

Crypt-Verfahren für Websites

Besitzer einer Website können sich bei einer Zertifizierungsstelle ein Site-Zertifikat
ausstellen lassen, das in die Serversoftware integriert wird und geschützte
Verbindungen für auswählbare Webseiten innerhalb der Site (also innerhalb eines
Hostnames, z.B. "www.itmanager.info") ermöglicht. Entsprechend ausgerüstete
Browser können dann diese gesicherten Seiten genauso nutzen wie normale
Webseiten. Diese Technologie namens SSL ("Secure Sockets Layer") wurde von
Netscape entwickelt.
Das Verschlüsselungsprinzip ist dabei ebenfalls eine Mischung aus symmetrischer und
asymmetrischer Verschlüsselung: Beim Zugriff auf eine geschützte Seite wird zunächst
der Public-Key der Website zum Client übertragen. Der Client erzeugt dann eine Zahl
nach dem Zufallsprinzip, die als Schlüssel für eine symmetrische Verschlüsselung
genutzt wird. Dieser Schlüssel wird dann vom Client mit dem Public-Key der Website
verschlüsselt und an den Server übertragen, so dass beide Seiten für die Sitzung den
gleichen symmetrischen Schlüssel haben und sicher kommunizieren können.
Darüberhinaus gibt es im SSL-Verfahren noch eine zusätzliche Möglichkeit der Client-
seitigen Authentifizierung, zum Beispiel anwendbar für Server, zu denen nur bestimmte
Rechner einen Zugang haben sollen: Hier muss auch der Client ein Zertifikat besitzen
und dieses mit dem Server austauschen. Der Server hat dabei die Möglichkeit, eine
sichere Verbindung zu verweigern, wenn das Zertifikat des Clients nicht akzeptiert wird.
Ein Problem mit SSL ist ein grundsätzliches, politisches Problem mit allen
Verschlüsselungsprogrammen, die in den USA geschrieben werden: Die USA
definieren Verschlüsselungssoftware als "Munition", so dass sie besonders strengen
Ausfuhrbestimmungen unterliegen. Dies bedeutet in vielen Bereichen eine deutliche
Einschränkung der Sicherheit von verschlüsseltem Material. Z.B. ist bei SSL aufgrund
der Ausfuhrbeschränkungen bei amerikanischen Browsern nur eine Verschlüsselung
mit 40 Bit langen Schlüsseln möglich; eine Schlüssellänge, die bei entsprechender
Rechenleistung durchaus als knackbar gilt.

Rechtliche Situation für Verschlüsselungssysteme

Ohne Zweifel sind verschlüsselte Dateien nicht ohne weiteres von Unbefugten zu
entschlüsseln. So kann zwar mit grösstmöglicher Sicherheit sensible Information über
öffentlich zugängliche Medien übertragen werden, allerdings kann (und wird) dies auch
von kriminellen Subjekten genutzt werden, um, für Aussenstehende unerkannt,
Information verschlüsselt zu übertragen und zu verbreiten.
In diese Gesetzeslücke wollen viele Regierungen mehr oder weniger stark regulierende
Systeme einsetzen. Dies reicht von völligem Verbot von Verschlüsselungssystemen
(z.B. in Russland oder Frankreich) bis hin zu geforderten Hinterlegungen von Private-
Keys bei staatlichen Behörden, um bei Verdachtsmomenten anhand der hinterlegten
Schlüssel verdächtige Informationen entschlüsseln zu können.
Der Kreativität in Sachen Eingrenzung freier Verschlüsselung durch staatliche
Organisationen sind anscheinend keine (vernüftigen) Grenzen gesetzt. Beispielsweise
verbietet die US-amerikanische Regierung die Ausfuhr von
Verschlüsselungsprogrammen ab einem bestimmten Verschlüsselungsgrad. Dieses
Ausfuhrverbot bezieht sich jedoch nur auf Ausfuhren in digitaler Form; PGP ist ein
solches Programm, das in digitaler Form nicht aus den USA exportiert werden darf,
weshalb die Programmierer den Programmcode kurzerhand ausgedruckt und legal in
Buchform exportiert haben. Im Ausland wurden die Quellcodes wieder eingescannt und
in digitale Form zurückgespielt, weshalb es von PGP jetzt zwei identische Versionen
gibt: PGP (US-Version) und PGPi (identische, internationale Version).
Ebenfalls mehr oder weniger ungeklärt sind die anzuwendenden Massnahmen, wenn
Verschlüsselungssoftware zwangsläufig ausser Landes gerät, z.B. auf dem Laptop
eines US-Amerikaners, der beispielsweise auf Dienstreise in Russland ist, wo eigentlich
das Anwenden von Verschlüsselungssoftware jeglicher Art verboten ist.
Risikoanalyse

Die Sicherheit der Informations- und Kommunikationssysteme hat in der letzten Zeit
zunehmend Schlagzeilen gemacht. Spektakuläre Fälle der Computerkriminalität mit
bedrohlichem Schadenausmass tauchen auf; die Zahl der betroffenen Organisationen
und Privatpersonen ist kaum zu schätzen.
Die Anzahl der Risiken durch den Einsatz von IT-Systemen hat drastisch zugenommen.
Einige der Gründe dafür sind
• die Einführung von IT-Systemen in allen wichtigen Tätigkeitsbereichen
• stark ansteigende Zahl der Datenverbindungen
• die Übertragung der Daten über das Internet
Inzwischen ist die Verletzlichkeit der heutigen Informationsgesellschaft zu einem immer
wichtigeren Problem geworden. Die steigende Abhängigkeit aller gesellschaftlichen
Bereiche von Informationssystemen kann zu immer grösseren Schäden führen. Dazu
zählen R isiken durch neugierige Hacker, Einbrüche durch Kriminelle, Hardwareausfälle
und Programm- sowie Bedienungsfehler. Viele vitale Funktionen des täglichen Lebens,
wie z.B. der Zahlungsverkehr, die Speicherung und Verwaltung von medizinischen
Daten und die Logistik des Handels, bauen auf die IT-Technologie. Störungen und
Angriffe können sich in vielen Anwendungssystemen und in sehr vielen Bereichen
zugleich auswirken. Hinzu kommt, dass manuelle Reservesysteme meist als veraltet
ausrangiert worden sind.
Folgeschäden bei Störungen und Ausfällen beschränken sich nicht unbedingt nur auf
die betroffene Einzelorganisation und deren Produktionssysteme, sondern können auch
die Kooperation mit Geschäfts- und Kommunikationspartnern beeinflussen. Für das
Top-Management sind die zukünftigen Aussichten besonders problematisch: der
Leitungsebene fehlen nach wie vor wirkungsvolle Mittel zur Bewältigung der Risiken
durch die wachsende Abhängigkeit der Geschäftsaktivitäten von IT-Systemen.
Abbildung: Der Informationskrieg

Gefahrenanalyse - Ziele und Auswirkungen

Bei der Gefahrenanalyse versucht man unter anderem folgende Fragen zu


beantworten:
• Was oder wer stellt potentielle Gefahren dar?
• die Menschen oder die Umgebung?
• Brandfälle, Unfälle?
• Kriminelle, Nachrichtendienste?
• Wie können sich die potentiellen Risiken verwirklichen?
• Was ist die einfachste Methode, Schäden zu verursachen?
• Warum?
• Was macht uns zu einem attraktiven Ziel für Eindringlinge?
• Mit welchen Ressourcen?
• Wieviel Geld, Zeit und Know-How steht dem potentiellen Angreifer zur
Verfügung?
• Welche Konsequenzen kann ein erfolgreicher Angriff haben?
• wirtschaftliche Schäden, Imageverlust, Kundenabwanderung
• Wie gross ist die Eintrittswahrscheinlichkeit eines Angriffs?
Das Ziel der Gefahrenanalyse ist, die einzelnen Risiken möglichst umfassend zu
quantifizieren und ihre Eintrittswahrscheinlichkeit sowie ihr Schadenspotential zu
ermitteln. Anhand dieser Einstufung kann dann die Realisierung des Sicherheitsplans
zur Beseitigung der Risiken, die untragbar sind und mit einer hohen Wahrscheinlichkeit
auftreten, angestrebt werden. Als Ergebnis der Gefahrenanalyse können Massnahmen
eingeleitet werden, die zu einer verbesserten Sicherheit führen und auch wirtschaftlich
sinnvoll sind.
Gefahrenanalysen bieten dem Management ein wichtiges Instrument der
Entscheidungsfindung, denn sie
• bieten Methoden zur Vermittlung eines umfassenden Überblicks über die IT-
Sicherheit im System
• stellen eine systematische Methode zur extensiven Erfassung potentieller
Bedrohungen dar
• liefern Resultate als Entscheidungsbasis für IT-Risikobewertung und
Investitionsplanung
• ermöglichen Analysen, wo einerseits die vom Top-Management gestellten
Anforderungen an IT-Sicherheit und andererseits die Einschätzung der
bestehenden Sicherheitsmechanismen bzw. Anfälligkeiten vom IT-Management
kombiniert werden können
Ist eine Gefahrenanalyse erfolgreich, so ergibt diese als Resultat
• ausreichende Informationen zur technischen Realisierung der Sicherheitspläne
sowie eine Basis für die Auswahl von geeigneten Schutzmassnahmen
• detaillierte Begründungen für die Akzeptierung bzw. Ablehnung einzelner
Sicherheitsmechanismen

Methodik

Für die Durchführung einer IT-Risikobewertung bietet sich eine Vielzahl von Verfahren
an. Im folgenden werden das Konzept und die wichtigsten Elemente der
Risikobewertung im Überblick dargestellt.
Unter IT-Risikobewertung versteht man hier ein methodisches Vorgehen zur
Risikobewältigung mittels folgender Einzelschritte:
• Erkennung der einzelnen Gefahren
• Abschätzung der Folgeschäden
• Definierung der Sicherheitsziele
• Auswahl der Schutz- und Abwehrmassnahmen

Risikobewältigung
• Erfassung der Art und des Umfangs von unerwünschten Ereignissen
• Ableitung des akzeptablen Risikogrades
• Reduzierung der bestehenden Risiken auf ein akzeptables Niveau
• Risikobewertung
• Abschätzung der Folgeschäden durch unerwünschte Ereignisse
• Lieferung der Resultate der Risikoabschätzung und Risikoanalyse
• Risikoanalyse
• Methodische und systematische Erforschung zur Gesamtdarstellung der
unerwünschten Ereignisse
• Verfahren
• Systematisches Vorgehen zur Erreichung eines bestimmten Zieles
• Instrument
• Mittel oder Geräte zur Ausführung bestimmter Arbeiten oder Aufgaben

Allgemein

Die Bewertung der IT-bezogenen Risiken wird in zwei grundsätzliche Methoden


unterteilt: in die qualitativen und quantitativen Methoden.
Bei qualitativen Methoden werden unerwünschte Ereignisse und deren Folgen
anhand diskreter (voneinander getrennter) Parameter abgeschätzt. Bei dieser Methode
werden die Parameter verbal definiert.
Bei quantitativen Methoden werden genaue numerische Werte für die Analyse der
Ereignisse und Entitäten eingesetzt. Das Rechenverfahren beruht auf der
mathematischen Statistik bzw. der Wahrscheinlichkeitsberechnungen. Die einzelnen
Risiken werden anhand numerischer Werte, wie z.B. verschiedener
Wahrscheinlichkeitsmasse oder Prozentzahlen, bewertet.
Ein grosser Vorteil der quantitativen Bewertung liegt in der Genauigkeit der ermittelten
Resultate, was eine Quantifizierung der Risiken zur Kenntnis der Risikostruktur
ermöglicht. Als problematisch bei quantitativen Methoden hat sich die Überprüfung der
Richtigkeit der Ausgangsdaten erwiesen. Zuverlässige statistische Daten sind kaum
vorhanden, und die Gewinnung bewährter Statistikdaten ist mit hohem Arbeits- und
Zeitaufwand verbunden. Aus diesem Grund basieren die Ausgangsdaten häufig auf den
eigenen Einschätzungen des Analysierenden. Beispiel für quantitative Methoden: die
Courtney-Risikoanalyse.

Checklisten

Am einfachsten ist wahrscheinlich die Abschätzung der potentiellen IT-Risiken durch


Verwendung der sog. Checklisten. Bei diesem Verfahren wird auf bestimmte, unter
mehrere Themen gruppierte Fragen geantwortet, die sich auf die IT-Sicherheit des
Evaluierungsgegenstandes beziehen. Die Fragen sind meist nach vorgegebenen
Antwortmöglichkeiten wie 'ja' oder 'nein' zu beantworten.
Die Checklisten dienen zwar der Entdeckung der Fehler sowie der der mangelnden
Sicherungen, erweisen sich aber als verhältnismässig unwirksam für die Erkennung
neuer Bedrohungen. Mangelhafte oder für den jeweiligen Evaluierungsgegenstand
ungeeignete Listen können zu der falschen Vermutung führen, das System sei jetzt
gründlich auf seine Sicherheit analysiert und dazu noch ausreichend vor Bedrohungen
geschützt.

Szenarienanalyse

In der Szenarienanalyse wird die zukünftige Entwicklung der Bedrohungen anhand von
Szenarien untersucht. Szenarien sind sprachlich ausgedrückte, angenommene
Kombinationen von unerwünschten Gegebenheiten, Ereignissen und Vorgängen,
welche das IT-System in seiner Entwicklung beeinflussen.
Durch die Auswahl einzelner Szenarien soll ein Überblick über die möglichen
Bedrohungen, Angriffsmethoden und verursachten Schäden erarbeitet werden.
Anschliessend werden die entdeckten IT-Sicherheitslücken ermittelt.
Als Nachteil des Verfahrens ist der hohe Arbeits- und Zeitaufwand für den Entwurf der
unterschiedlichen Szenarien zu nennen. Dieses Verfahren ist nicht flächendeckend in
allen Systemen einzusetzen, in Einzelfällen liefert diese Methode jedoch detaillierte
Informationen über den Sicherheitszustand des Systems.

Baseline-Methode

Die Baseline-Methode ist eine von der Forschungsanstalt SRI International entwickelte
Methode zur Abschätzung der Risiken und Gefährdungen von Informationssystemen.
Das Baseline-Konzept stützt sich auf die Einhaltung des Grundsatzes 'standard of due
care'. Dieses Konzept fördert die Sicherung der kritischen IT-Systeme mit denselben
Sicherheitsmassnahmen, die auch die anderen vergleichbaren Organisationen in einer
ähnlichen Situation einleiten würden. Die in dieser Methode verwendeten, allgemein
anerkannten Grundsätze werden "Baseline Controls" genannt.
Das Baseline-Konzept besteht aus folgenden Teilen:
• Erkennung des Schutzgegenstandes
• Erkennung der existierenden Sicherungen
• Auswahl der Basiskontrollen zur Beseitigung der üblichsten Bedrohungen
• Realisierung der Kontrollen
• Erkennung besonderer Bedrohungen
• Analyse und Bewertung der Bedrohungen und Risiken
• Auswahl der Zusatzkontrollen
• Realisierung der Zusatzkontrollen
• Follow-Ups zur regelmässigen Überprüfung der IT-Sicherheit

Courtney-Methode

Die Courtney-Methode zur Analyse und Bewertung der Risiken wurde von dem IBM-
Mitarbeiter Robert Courtney Jr. in den 70er Jahren entwickelt. Diese Methode ist
inzwischen von den amerikanischen Bundesbehörden als offizieller Standard für
Risikoanalysen übernommen worden. Ausserdem liegt sie fast jeder Risikoanalyse-
Software zugrunde.
Bei dieser Methode werden bezüglich der unerwünschten Ereignisse zwei Faktoren
gemessen: die zu erwartende Häufigkeit des Eintritts und das beim Ereigniseintritt zu
erwartende finanzielle Schadenausmass. Das Risiko kann als Produkt der beiden Werte
angegeben werden; es entspricht dann dem statistischen Erwartungswert des
Schadens.
Sind die Faktoren quantifizierbar, so ergibt die Multiplikation einen genauen
numerischen Wert (das finanzielle Ausmass des zu erwarteten Schadens). Auf der
Basis dieser Zahlen können Prioritätssetzungen sowie Nutzen/Kosten-Berechnungen
bei der Planung der Sicherheitsmassnahmen vorgenommen werden.
Einer der Nachteile der Courtney-Analyse ist die Mangel an zuverlässigen statistischen
Ausgangsdaten. Die Ausgangsdaten sind daher meistens reine Eigenschätzungen
durch die Analysierenden.

Gefahrenquellen

• Höhere Gewalt
o Personalausfall
o Blitz
o Feuer
o Wasser
o Kabelbrand
o Temperatur und Luftfeuchtigkeit
o Staub, Verschmutzung
o Starke Magnetfelder
• Organisatorische Mängel
o Unzureichendes Sicherheitsmanagement (z.B. Rechteverwaltung,
Mitarbeiterwechsel)
o Fehlende oder unzureichende Regelungen
o Unzureichende Kenntnis über Regelungen
o Unzureichende Kontrolle der IT-Sicherheitsmassnahmen (z.B.
Zutrittskontrolle, Zugriffskontrolle)
o Fehlende oder unzureichende Wartung
• Menschliche Fehlhandlungen
o Fehlverhalten (z.B. Ausführen unsicherer Anwendungen)
o Fahrlässigkeit (z.B. Nennung von Passwörtern an Unbefugte)
o Nichtbeachtung von IT-Sicherheitsmassnahmen
• Technisches Versagen
o Stromausfall
o Spannungsschwankungen
o Defekte Systeme (z.B. Datenträger)
o Unsichere kryptographische Algorithmen
• Vorsätzliche Handlungen
o Manipulation/Zerstörung von Hardware
o Manipulation an Daten oder Software
o Diebstahl
o Abhören
o Unbefugtes Eindringen in ein System (Hacking)
o Computer-Viren
o Unberechtigtes Kopieren von Daten
o Missbrauch von Rechten
Software
o Betriebssysteme
o Datenbanken
o Programmierung
o Software Eigenschaft
Betriebssysteme
Betriebssysteme sind Programme eines digitalen Rechensystems, die zusammen mit
den Eigenschaften der Rechenanlage die Grundlage der möglichen Betriebsarten des
digitalen Rechensystems bilden und insbesondere die Abwicklung von Programmen
steuern und überwachen.
Das Betriebssystem eines Rechners hängt eng mit der Hardware zusammen, das
heisst es ist auf die konkrete Rechnerstruktur beziehungsweise Rechnerarchitektur
abgestimmt. Das Betriebssystem wird in der Regel mit der Hardware des Computers
mitgeliefert. Dies gilt vor allem für die Grossrechner, bei denen die Hersteller auch das
Betriebssystem entwickeln und anbieten. Bekannte Grossrechner-Betriebssysteme sind
ausschliesslich proprietäre Systeme, das heisst sie werden speziell für die eigene
Hardware entwickelt. Beispiele dafür sind die Systeme der DV-Unternehmen IBM mit
VSE, MVS und VM; Siemens Nixdorf mit BS2000 usw. Im mittleren Bereich, Mini- und
Abteilungsrechnersysteme, steht das offene Betriebssystem UNIX mit seinen Varianten
im Mittelpunkt.

Prozessverwaltung

Ein Prozess kann im Laufe seiner Abarbeitung 3 Zustände annehmen:


• aktiv (running)- der Prozess wird vom Prozessor bearbeitet
• blockiert (suspended) - der Prozess wartet auf ein Betriebsmittel
• bereit (ready) - der Prozess ist bereit, vom Prozessor ausgeführt zu werden
(rechenwillig), er wartet nur noch auf das Betriebsmittel "Prozessor"
Beim Zeitscheibenbetrieb kann ein Prozess vom Zustand "aktiv" direkt in den Zustand
"bereit" wechseln. Jeder Prozess ist in der Prozesstabelle aufgeführt. Hier finden sich
sämtliche Informationen, die zur Abarbeitung notwendig sind (Befehlszähler,
Registerinhalte, usw.).
Die Aufgaben der Prozessverwaltung sind:
• Aufbau und Verwaltung einer Warteschlange (Queue) der bereiten Prozesse
• Zuteilung der Betriebsmittel (wie z.B. Speicherplatz, Peripheriegeräte,
Dienstprogramme) an den aktiven Prozess
• Unterbrechungsbehandlung (interrupt handling).
Die Bestimmung der Prozessreihenfolge durch die Einordnung in die Warteschlange
der bereiten Prozesse und die Zuteilung und Freigabe der Betriebsmittel übernimmt der
Scheduler. Anlässe zu einer Neubestimmung der Prozessreihenfolge sind
Unterbrechungen, die aus dem Prozess selber resultieren können oder von aussen
verursacht werden, wie der Ablauf einer Zeitscheibe.
Es werden drei Strategien beschrieben, die Prozessreihenfolge
festzulegen:
• sequentiell (FIFO, round robin-Methode)
Man belässt einen aktiven Prozess aktiv, wenn der Anlass für die Unterbrechung
nicht von ihm herrührt, oder er seinen aktiven Zustand nicht aufgeben muss. Das
heisst der aktive Prozess entscheidet, ob er die Kontrolle abgibt (MS-Windows
3.1 verfährt nach dieser Strategie). Ist es notwendig, einen neuen Prozess
auszuwählen, so wird der am längsten wartende Prozess aufgegriffen, dessen
Betriebsmittelanforderungen erfüllt werden können. Der Vorteil des geringen
Verwaltungsaufwandes wird mit einer schlechten Ausnutzung und Verteilung der
Betriebsmittel bezahlt.
• prioritätengesteuert
Die Abarbeitungsreihenfolge wird durch die Priorität festgelegt. Sie kann vom
Auftraggeber vorgegeben werden, sich aus den angeforderten Betriebsmitteln
ergeben (z.B. niedrige Priorität bei hohem Rechenzeitbedarf) oder sich mit der
Verweildauer im System ändern. Ein aktiver Prozess bleibt nur dann aktiv, wenn
kein bereiter Prozess mit höherer Priorität wartet. Dies könnte zum Beispiel ein
Prozess sein, dessen Ein/Ausgabe-Anforderung inzwischen erfüllt worden ist.
Der von einem Prozess mit höherer Priorität verdrängte und in den Zustand
"bereit" versetzte Prozess benötigt als Betriebsmittel nur noch den Prozessor
(verdrängendes Multitasking).
• shortest job first
Wenn ein Prozess beendet ist, kommt der Prozess als nächstes an die Reihe,
der die wenigste Rechenzeit benötigt. Dieses Verfahren ist natürlich nur sinnvoll,
wenn man die benötigte CPU-Zeit vorher kennt. Es minimiert die
durchschnittliche Verweilzeit der Tasks im System.

Speicherverwaltung

Die Speicherverwaltung verwaltet den zur Verfügung stehenden Hauptspeicher und


ordnet ihn den zu verarbeitenden Tasks zu. Grundsätzlich sind 2 verschiedene
Techniken zu unterscheiden:
Bei der realen Speicherverwaltung wird nur der physikalisch vorhandene Hauptspeicher
benutzt. Eventuell werden komplette Programme vom Hintergrundspeicher ein-
beziehungsweise auf diesen ausgelagert, um die Anzahl der bereiten Prozesse zu
erhöhen. Dieser Vorgang wird als Swapping bezeichnet. Die Programme können jedoch
nicht grösser als der zur Verfügung stehende Hauptspeicher sein. Die virtuelle
Speicherverwaltung dehnt den Adressraum über den realen Speicher hinaus aus,
indem zusätzlicher Speicherraum auf Hintergrundspeicher zur Verfügung gestellt wird.
Unter Ausnutzung der Lokalitätseigenschaft von Programmen wird nur der momentan
benötigte Anteil an Code und Daten, die sogenannte Arbeitsmenge (working set), im
Speicher gehalten. Der Transfer zwischen Haupt- und Hintergrundspeicher (Paging)
geschieht unsichtbar für den Benutzer durch das Betriebssystem.
Reale Speicherverwaltung bei MS-DOS

Die virtuelle Speicherverwaltung bietet eine bessere Ausnutzung von Hauptspeicher


und Prozessor. Weiterhin können die Programme sehr viel grösser sein als der
physikalische Speicher. Ihre Grösse ist nur durch den logischen Adressraum begrenzt.
In Kauf genommen werden diese Vorteile durch einen höheren Verwaltungsaufwand
(overhead) und eine etwas längere Verweilzeit der Programme. Es muss bedacht
werden, dass der direkte Zugriff auf den Hauptspeicher etwa 1000 bis 10000 mal
schneller erfolgt als der Zugriff auf den Hintergrundspeicher; in der Regel ist dies ein
Magnetplattenspeicher (Festplatte).

Dateiverwaltung

Letztlich sind alle in einem Datenverarbeitungssystem zu verarbeitenden Informationen,


auch die Programme, Daten. Die Verwaltung der Daten und ihre Abbildung auf
Hintergrundspeicher ist Aufgabe des Betriebssystems. Hierzu werden Daten zu
grösseren Einheiten, Dateien, zusammengefasst. Es erleichtert die Arbeit erheblich,
wenn der Begriff der Datei so gefasst ist, dass er die Behandlung aller Daten
unabhängig vom Speichermedium ermöglicht. Dies ist zum Beispiel unter dem
Betriebssystem UNIX der Fall. Hier ist eine Datei eine Sequenz von Bytes, unabhängig
vom Medium und ohne eine vorgegebene logische Struktur. Selbst Peripheriegeräte
werden als Dateien angesprochen. Zum Beispiel ist der Drucker innerhalb des
Betriebssystems die Datei "/dev/lp". Man gibt dann auf dem Drucker aus, indem man in
die Datei /dev/lp schreibt.
Eine für den Benutzer wesentliche Vereinfachung stellt eine hierarchische
Dateiorganisation dar. Dateien lassen sich als Blätter eines umgedrehten Baumes
ansehen. Sie lassen sich ausgehend von der Wurzel über die einzelnen Knoten des
Baumes (Verzeichnisse, Directories) erreichen. Durch Angabe eines Knotens lassen
sich ganze Gruppen von Dateien als Teilbäume manipulieren (kopieren, löschen).
Spooling

Spool ist die Abkürzung für "simultaneous peripheral operations online". Aufträge für
das Datenverarbeitungssystem, sowie Ein/Ausgaben von bzw. für Peripheriegeräte
werden auf schnellen Systemkomponenten zwischengepuffert und von dort aus
eingelesen bzw. ausgegeben. Auch wenn ein Prozess schon beendet ist, wird die von
ihm erzeugte Ausgabe erst später von dem entsprechenden Systemprogramm auf das
langsamere Peripheriegerät übertragen
Das Betriebssystem unterstützt Spooling, weil im allgemeinen nicht genügend
Peripheriegeräte wie beispielsweise Schnelldrucker zur Verfügung stehen, um die von
den aktiven Prozessen angeforderten Ein/Ausgaben zu befriedigen. Weiterhin darf die
erhebliche Diskrepanz zwischen der Geschwindigkeit des Prozessors und der der
Peripheriegeräte nicht zu einer schlechten Betriebsmittelauslastung führen.
Das Betriebssystem legt auf Hintergrundspeichern sogenannte Spool-Bereiche an, in
denen die Eingaben und Ausgaben zwischengespeichert werden. Die dadurch
simulierten Geräte werden als virtuelle Geräte bezeichnet (z.B. virtueller Drucker). Das
Betriebssystem sorgt für die Abbildung der virtuellen Geräte auf die physikalisch
vorhandenen.
Vielfach ist es sinnvoll, vor der endgültigen Ein/Ausgabe Manipulationen an den
gespoolten Objekten zuzulassen, um beispielsweise nicht benötigte Druckausgaben zu
löschen oder Änderungen an der Abarbeitungsreihenfolge vorzunehmen. Neben
Operatoreingaben kann das Betriebssystem hierbei sogar generelle Strategien
verfolgen, wie die Bevorzugung kleinerer Ausdrucke vor grösseren.

Betriebsmittelabrechnung

Das Betriebssystem muss über seine eigenen und die Aktivitäten der Benutzer Buch
führen. Die Informationen werden in einem Logfile (Account-File) gesammelt. Dieser
Funktionsbereich des Betriebssystems wird auch als Accounting bezeichnet.
Messzeitpunkte sind zumindest Prozessanfang und -ende. Bei manchen
Betriebssystemen erstrecken sie sich auch auf Auftrags(Job)anfang und -ende, sowie
auf den Beginn und das Ende eines Dialogs. Gemessen wird die Inanspruchnahme
bestimmter Betriebsmittel, insbesondere des Prozessors (CPU-Zeit), aber auch des
Haupt und Hintergrundspeichers oder des Busses. Es gibt 3 Anwendungen, die auf den
Abrechnungsinformationen basieren:
• Tuning
Unter Tuning versteht man die Abstimmung der Leistung einzelner
Systemkomponenten im Hinblick auf einen optimalen Durchsatz des
Gesamtsystems. Um Engpässe aufzudecken, werden Informationen über die
Auslastung der Betriebsmittel (z.B. Plattenkanäle) über bestimmte Zeiträume
hinweg benötigt. Hierzu werden die Daten des Account-Files ausgewertet. Stellt
man bei einzelnen Komponenten sehr hohe Auslastungen fest, während andere
nichts zu tun haben (man sagt, dass sie sich im Zustand "idle" befinden), kann
eine Vergrösserung der kritischen Komponenten (z.B. des Hauptspeichers) oder
die Installation weiterer Bauteile (z.B. Kanäle) zu einer besseren
Gesamtauslastung führen.
Tuning ist auch möglich, wenn die Belastung einzelner Betriebsmittel
zeitpunktbezogen direkt an der Konsole angezeigt wird. Durch die Einstellung
von Systemparametern (z.B. Grösse der minimalen Arbeitsmenge eines
Prozesses, die im realen Hauptspeicher vorhanden sein muss, oder die
maximale Anzahl bereiter Prozesse) können vielfach auf der Softwareebene
schon Engpässe behoben werden.
• Kontingentierung
Die Beschränkung der Nutzung einzelner Betriebsmittel kann aus 2 Gründen
notwendig sein. Entweder ist der Bedarf nach einem Betriebsmittel höher als die
verfügbare Kapazität (z.B. Prozessorzeit) oder die Nutzung eines Betriebsmittels
zieht den Verbrauch von Materialien nach sich (z.B. Drucker). In beiden Fällen
muss über den Verbrauch der einzelnen Benutzer Buch geführt werden. Für eine
auftragsbezogene Kontingentierung (z.B. maximale Hauptspeicherbelegung)
sind die Informationen im Logfile ausreichend. Dagegen sind für eine
zeitraumbezogene Kontingentierung die entsprechenden Werte aufzuaddieren
(z.B. permanente Hintergrundspeicherbelegung).
Die Kontingentüberprüfung kann offline, das heisst zu bestimmten Zeitpunkten,
oder online während der Lebensdauer des Prozesses erfolgen. Bei einer
Überschreitung können sanfte (soft) Massnahmen, beispielsweise Nachrichten
und Hinweise, gegeben oder harte Konsequenzen, beispielsweise Sperrung des
Betriebsmittels oder Sperrung der Benutzerkennung, eingeleitet werden.
Kontingente können benutzer- oder gruppenweise vergeben werden.
• Abrechnung
Eine Abrechnung über die Inanspruchnahme der Betriebsmittel kann benutzer- oder
kostenstellenorientiert erfolgen, wobei die Loginformationen für einzelne
Benutzerkennungen oder -gruppen durch Auswerteprogramme über bestimmte
Zeiträume hinweg zusammengefasst werden müssen. Durch Gewichtungsfaktoren
lassen sich die Betriebsmittelverbräuche für Benutzer oder Kostenstellen in einer
Formel zusammenfassen und in Geldeinheiten ausdrücken.

Kommandosprache

Die Kommandosprache ermöglicht dem Benutzer und dem Betreiber des DV-Systems
die Kommunikation mit dem Betriebssystem. Durch sie wird der Ablauf eines Auftrags
festgelegt oder ein Dialog gesteuert.
Über die Kommandosprache teilt der Benutzer dem Betriebssystem mit, welche
Betriebsmittel er benötigt (z.B. Prozessorzeit, Peripheriegeräte, Übersetzer, Dateien,
Sytemfunktionen, etc.), wie und wofür er sie einzusetzen gedenkt.
Es gibt Kommandos für Jobbeginn, Jobende, Dialogbeginn (login), Dialogende (logout),
Programm-Startkommandos, mit denen ablauffähige Programme, wie z.B. Übersetzer,
Benutzer- oder Dienstprogramme gestartet werden, Kommandos zur Dateiverwaltung,
Kommandos für die Kommunikation mit anderen Benutzern, Kommandos, mit denen
man sich über die Systemnutzung und vieles andere mehr informieren kann,
Kommandos für die Nutzung von Peripheriegeräten und Kommandos, um auf
Fehlersituationen zu reagieren, um nur eine Auswahl zu nennen. Die
Kommandoausführung kann vielfach mittels Parameter, die als Argumente beim Aufruf
übergeben werden, gesteuert werden.
Neben der Kommandosprache für den Benutzer ist eine Sprache für den
Systemadministrator (Systemgenerierung, Benutzerverwaltung usw.) und die
Maschinenbedienung (Verwalten der Auftragswarteschlangen, Peripheriebedienung,
Anpassen der Systemparameter, Datensicherung usw.) erforderlich. Wünschenswert ist
eine für alle Anwendungsbereiche einheitliche Sprache.

Ein kleiner Überblick von Betriebssystemen:


• Windows
o Windows 95/98/Me
o Windows NT
o Windows 2000
o Windows XP (Whistler)
• Unix
o Caldera OpenLinux
o Corel Linux
o Debian
o eIT Easy Linux
o Icepack Linux
o Lanthan Linux
o Mandrake
o Red Hat Linux Deluxe
o Suse Linux
o Turbo Linux Workstation
• MacOS
• BeOS
• OS/2
• MS-DOS
• AIX
• IRIX
• UXP/V
Datenbanken

Eine Datenbank umfasst eine thematisch abgegrenzte Menge von Daten.


• Texte
• Zahlen
• Tabellen
• Bilder
• ...

DBS = DB + DBMS

Ein Datenbanksystem (data base system, DBS) ist ein System zur Beschreibung,
Speicherung und Wiedergewinnung von Datenmengen, die von mehreren
Anwendungsprogrammen genutzt werden können.
Es setzt sich zusammen aus der Datenbank (oft data base genannt), also der Menge
der Daten und einer Software, dem Datenbankverwaltungssystem (data base
management system, DBMS), das die Schnittstelle zum Benutzer darstellt.
Die Datenbank enthält sowohl die reinen Nutzdaten als auch Meta-Daten (meta-data),
die zur Verwaltung des gesamten Systems nötig sind.

Abbildung: Aufbau eines Datenbanksystems

Aus den Notwendigkeiten der Datenhaltung ergeben sich allgemeine Anforderungen an


ein Datenbank Management System (DBMS):
• Grosse Datenbestände ( > 107 Datensätze) verwalten
• Beliebige Verknüpfung nach inhaltlichen Gesichtspunkten
• Redundanzfreiheit
• Datenkonsistenz
• Zentrale Datenhaltung
• Gleichzeitige Benutzung durch viele Anwender (z. B. Flugbuchung)
• Trennung von DB-Anwender und DB-Administratoren
Die Realisation solcher Anforderungen hat ein Ergebnis mit völlig neuer Qualität zur
Folge. Es gibt zu Datenbanken kein materielles Äquivalent (z. B. Sammlung von vielen
Karteikästen); das heisst das Modell selbst wird zu einem Objektsystem. Der
Datenbestand hat eine potentiell unendliche Lebensdauer. Daraus folgt, dass
Techniken erforderlich sind, die vor Verlust und Verfälschung der Daten schützen.

Sicht auf das Datenmodell

Im Gegensatz zu prozeduralen Dateiverwaltungsprogrammen, die im allgemeinen


Daten nur einem Anwenderprogramm zugänglich machen und deren Algorithmen
beschreiben, wie ein Datensatz zu finden ist, stehen bei einem DBS im Vordergrund:
• Datenobjekte
- welche Objekte gibt es?
• Beschreibung von Daten
- welche Eigenschaften haben sie?
- in welcher Beziehung stehen sie zu einander?
• Operationen auf Daten
- mit einer deskriptiven DB-Sprache (was will ich haben?)
Insgesamt ergeben sich damit hervorragende Möglichkeiten zur Abbildung realer
Objekte, aber dennoch sind Datenmodelle - streng betrachtet - kein Ausschnitt der
Realwelt, sondern die Menge der definierten Strukturmerkmale und der darauf
möglichen Operationen.
Die Nähe zur objektorientierten Modellierung ist unverkennbar. Die Modellierung mit
dem Entity Relationship Model (ERM) kann als ein geistiger Wegbereiter zu OOM
angesehen werden.

3-Ebenen Architektur

Die allgemein beschriebenen Aufgaben und Anforderungen lassen sich besser


verdeutlichen, wenn man ein geeignetes Architekturmodell für Datenbanken hat. Die
Grundidee ist die Unterteilung der DBMS in Schichten aus den verschiedenen
Benutzersichten und damit verbunden klare Schnittstellen zwischen den Schichten.
Gängig ist das 3-Ebenen-Modell, das seinen Ursprung in der ANSI/SPARC-Architektur
hat.
• Externe Ebene
o Benutzer
o Anwendungen
o Views, Datenschutz, Sicherheit
• Konzeptuelle Ebene
o DB-Administrator
o Logischer Entwurf
o Datenmodell
• Interne Ebene
o Physische Speicherung
o Zugriffe
o Indexe
o Optimierung

Datenbanktypen

Im Laufe der Zeit wurden von Softwarefirmen und wissenschaftlichen Instituten eine
Vielzahl von Datenbanksystemen entwickelt, denen unterschiedliche Anforderungen
und Konzepte zugrunde liegen. In diesem Kurs sollen nach ihrem Betriebskonzept
sogenannte Stand-alone-Datenbanken, File-Share-Datenbanken und Client/Sever-
Datenbanken unterschieden werden. Dabei liegt der Schwerpunkt des Kurses auf dem
relationalen Strukturierungskonzept das als Konzept zur Datenstrukturierung eine
überragende Bedeutung erlangt hat.

Stand-alone-Datenbank

Sie stellt die simpelste Form einer Datenbank dar. In der Regel handelt es sich um eine
lokale Datenbank, die sich weder um Mehrfachzugriffsprobleme, wie das, dass zwei
Benutzer gleichzeitig versuchen denselben Datensatz zu ändern, noch um ausgefeilte
Zugangsberechtigungen für unterschiedliche Programme kümmert. Sie ist lediglich
dazu da von einem Benutzer über das immer gleiche Programm angesteuert zu
werden. Typische Beispiele dafür sind Adresskarteien, elektronische Telefonbücher,
Buchhaltungsprogramme usw. die mit dBase, Access, Filemaker, FoxPro, Paradox oder
ähnlichen Programmen erstellt wurden und ihrem Benutzer auf einfache Weise einen
mehr oder weniger guten elektronischen Karteikasten zur Verfügung stellen.

File-Share-Datenbank

Im Gegensatz zu einer Stand-alone-Datenbank können auf eine File-Share-Datenbank


innerhalb eines Netzwerkes mehreren Benutzer gleichzeitig auf denselben
Datenbestand zugreifen. Innerhalb eines Netzwerkes wird der jeweilige Datenbestand
"quasi als Datei" an einer Stelle allen berechtigten Nutzern zur Verfügung gestellt, die
von ihren jeweiligen Workstations aus, auf diese Datenbank zugreifen können. Der
Zugriff auf die Datenbank erfolgt dabei über ein spezielles "database engine" genanntes
Programm-Modul, das auf der jeweiligen Workstation ausgeführt werden muss. (Die
Datenbank liegt wohl auf dem Server, jedoch hat dieser bezüglich der Verwaltung
dieser Datenbank keine eigene Intelligenz. Die gesamte Intelligenz liegt separat auf
jeder einzelnen Workstation.)
Der Hauptvorteil solcher Datenbanken ist, dass damit die redundante Datenhaltung
überwunden wird und Datenänderungen redundanzfrei sofort allen Benutzern zur
Verfügung stehen.
Probleme gibt es allerdings dann, wenn viele simultane und vor allem ändernde Zugriffe
auf dem Datenbestand erfolgen (z.B. Auftragserfassung) oder häufig umfangreiche
Auswertungen erstellt werden müssen. Da bei diesem Konzept jede Anwendung die
Datenbank letztlich in seinem lokalen Arbeitsspeicher ggf. Satz für Satz betrachten und
auswerten muss, führt dies zu einem umfangreichen Datenverkehr. Bei konkurrierenden
Zugriffen lassen sich dabei nur sehr ineffiziente Mechanismen zur Wahrung der
operationalen Integrität realisieren, so dass letztlich immer recht grosse Datenbereiche
solange gesperrt werden müssen, bis der lokale Client endlich zur Ruhe gekommen ist.

Client/Server-Datenbank

Der Kern einer solchen Datenbank ist ein Datenbankserver (Softwaresystem), der auf
einer dedizierten Maschine innerhalb eines Netzwerkes läuft. Dieser Server kapselt die
gesamte Datenbank und bietet im gesamten Netzwerk seine Dienste an. Programme,
für welche der Server etwas tun soll, (diese werden Clients genannt,) greifen nicht wie
bei einer File-Share-Datenbank selbst auf die Daten zu, sondern wenden sich mit Ihren
Wünschen lediglich an den Server, der alles für die Clients erledigt.
Die Datenverwaltung ist hier vom Zugriff konsequent getrennt. Die Clients wenden sich
lediglich an die standardisierte Schnittstelle des Servers. Wo und wie der Server seine
Daten verwaltet ist für die Clients transparent.
Client/Server-Datenbanken bieten viele Sicherheits-, Leistungs- und Flexibilitätsvorteile,
erfordern allerdings auch die Betreuung durch einen Datenbankadministrator. Die
Produkte aus diesem Bereich haben Namen wie Informix, Oracle, DB2, MS-SQL-
Server, InterBase.
Programmierung

Geschichte

Seit es Computer gibt müssen diese auch programmiert werden. Bei den ersten
Computern war dies nur durch Hardwareverbindungen möglich. Dazu wurden die
Computer programmiert, in dem zwischen den einzelnen Verbindungen Leitungen
geschlossen wurden. So bei dem allerersten Computern ENIAC und MANIAC.
Aus dieser Zeit stammt auch der erste Bug: es war eine Motte, die zwischen die Röhren
eines Rechners geriet, und dadurch einen Kurschluss verursachte. Seitdem bezeichnet
man Programmfehler als "Bug" : englisch für Käfer.
Natürlich war die Hardwareverdrahtung von Rechnern auf Dauer nicht nur um mühsam
sondern beschränkte die Möglichkeiten der Programmierung doch sehr. nachdem man
aber entdeckt hatte das man über einen Speicher Programme ablegen konnte, und
damit die Rechner steuern begann das erste Richtige Programmieren von Rechnern.
Zuallererst wurden die Daten in binär eingegeben. Das heisst man legte Schalter für
eine Eins um, oder liess sie in Ausgang Stellung für eine 0. Natürlich war dies keine
sehr elegante Methode. Auch der allein erste PC- der Altair 8800 hatte zuerst nur die
Möglichkeit über mit solche Kippschalter Daten eingegebenen.

Das Hexadezimalsystem und Maschinensprache

Der nächste Schritt war diesen Vorgang zu vereinfachen. Obgleich damals es noch
nicht Rechners mit standardisierten Bitbreiten wie 8, 16, 32, 48 oder 64 Bit gab sondern
man jeweils die Bitbreite und nach den technischen Möglichkeiten wählte bürgerte sich
bald das Byte als grundlegende Einheit ein. Ein Byte kann man aber in zwei " Nibbels "
à 4 Bit mit zerlegen. Damit man ein solches Nibbel in einem einzigen Wort ausdrücken
konnte besann man sich auf das Hexadezimalsystem. Bei dem Hexadezimalsystem
kommen zu den Grundzahlen des Zehnersystems 0 bis 9 auch noch die Buchstaben A
bis F. Sie stehen für die Werte 10 bis 15. Damit kann man mit einer Stelle Werte von 0
bis 15 ausdrücken. Mit zwei Stellen ist der Wert eines Bytes anzugeben. Jede weitere
vordere Stelle ist ein Multiplikator von 16. der vorherigen. So hat der Wert " 3A5F "
folgenden dezimalen Wert: (3 x 4096) + (10 x 256) + (5 x 16) + 15 = 14943 im
Dezimalsystem.
Mit diesem System war es nun möglich die Eingabearbeit erheblich zu vereinfachen.
Denn anstatt acht Schaltern mussten nur noch zwei Zahlen eingegeben werden.
Trotzdem sehr benutzerfreundlich war dies nicht, wer wusste denn schon was hinter
den einzelnen Werten stand?

Assembler

Die allererste Programmiersprache im heutigen Sinn war daher Assembler: ein


Assembler ist nichts anderes als ein Programm welches für die Befehle, die ein
Computer versteht - und deren Befehlsworte jeweils einen bestimmten Code haben -
Worte vorsieht, die sich ein Mensch merkten kann. Assembler ist daher für jeden
Prozessor spezifisch. Dies ist heute vielleicht nicht mehr so von Bedeutung, da es nur
noch wenige Prozessoren gibt, die weit verbreitet sind, doch in der Frühzeit des PC's
gab es sehr viele Rechner mit unterschiedlichen Prozessoren. Jeder hatte eine eigene
Programmiersprache. Manchmal waren diese sogar unterschiedlich, obwohl die
Prozessoren zueinander kompatibel waren.
Ein Beispiel : Die folgenden Bytes (alles in Hexadezimal)
21 00 10 11 00 20 19 22 00 30
sagen wohl niemanden etwas. Sie stehen für die folgenden Befehle des Prozessors
Z80 :
21 00 10 LD HL,1000H
11 00 20 LD DE,2000H
19 ADD HL,DE
22 00 30 LD (3000H),HL
Das ist schon besser verständlich, in Normalsprache heisst es folgendes :
• Lade den Wert 1000 in das Prozessorregister HL
• Lade den Wert 2000 in das Prozessorregister DE
• Addiere die beiden Register HL und DE, das Ergebnis ist danach in HL
• Speichere das Ergebnis in der Speicherstelle 3000 im Speicher ab.
Das ganze ist also eine einfach Ganzzahladdition. Sie hätten wahrscheinlich
geschrieben "Ergebnis = &1000+&2000". So benötigt schon eine Addition 4
Rechenschritte, zum Trost ist aber schon ein Z80 Prozessor (obgleich schon veraltet)
so schnell, das er 250.000 dieser Rechenschritte pro Sekunde ausführen kann. (H und
& stehen für die Notation der hexadezimalen Zahlen in Assembler und Basic). Weiterhin
bietet der Assembler an für Speicherzellen Namen zu vergeben und Adressen für
Sprünge zu berechnen, so das er auch hier eine Erleichterung brachte.
Assembler hielt sich relativ lange. Denn mit Assembler konnte man das Maximum aus
dem Rechner herausholen. In Zeiten, wo Speicherkapazität und Rechenleistung noch
begrenzt waren war dies ein wichtiges Kriterium. Allerdings ist auch bei Assembler ein
grundlegendes Problem noch nicht gelöst: das testen der Programme. Zum Testen
musste man mit einem speziellen Programm das zu untersuchende Programm laden
und an der Stelle wo man den Fehler vermutete Haltepunkte setzen oder schrittweise
den Programmablauf verfolgen. Besonders komfortabel war dies nicht. Zudem konnten
selbst dann noch Befehle den ganzen Rechner zum Absturz bringen. Ein Nachteil war
weiterhin, das es nicht den Assembler gab - und auch heute noch gibt. Er ist spezifisch
für jeden Prozessor. So hat ein Pentium einen anderen Befehlssatz als ein Power PC
Prozessor oder ein Alpha Chip. Ja es gibt sogar kleine - aber in bestimmten Gebieten
wichtige - Unterschiede in einer Familie z.b. zwischen den Prozessoren Pentium 4,
Pentium III und Athlon was die Fliesskommabefehle angeht.
Höhere Programmiersprachen

Sehr bald gab es daher die ersten höheren Programmiersprachen. Höhere


Programmiersprache daher, weil es eine künstliche Sprache war, die sich nicht mehr an
den Eigenheiten des verwendeten Rechners orientierte. Mitte der ab fünfziger Jahre
kamen die ersten beiden höheren Programmiersprachen FORTRAN und COBOL auf
den Markt. Noch waren die Computer in ihrer Leistung sehr beschränkt, so dass man
diese Programmiersprache als spezialisierte Programmiersprachen bezeichnen kann.
Spezialisiert daher weil man bestimmte Probleme sehr gut in FORTRAN lösen konnte,
während für andere Probleme COBOL eher geeignet ist. FORTRAN eignet sich
hervorragend für Berechnungen, wie sie im naturwissenschaftlichen Bereich
vorkommen und wurde daher auf Computern eingesetzt die in der Forschung genutzt
wurden. Bis heute hat es sich bei Supercomputern gehalten den zahlreiche Algorithmen
für technische und naturwissenschaftliche Simulationen wurden zuerst in FORTRAN
entwickelt. Auch heute werden Rechner wie die Cray vor allem in FORTRAN
programmiert.
COBOL dagegen hatte den Schwerpunkt auf die Verarbeitung von Daten gesetzt. Damit
eignete sich diese Sprache für geschäftliche Aufgaben wie die Buchhaltung oder die
Verwaltungen von Bankkonten. COBOL setzte sich dank der Marktmacht von IBM's
Rechnern durch, denn IBM schuf COBOL für die Lösung wirtschaftlicher Probleme auf
IBM Rechnern wie dem populären System 360. Dank der Verbreitung der IBM
Grossrechner ist auch heute noch 60 % aller Software in COBOL geschrieben - denn
Software wird nur verbessert selten neu erfunden.
Mit den höheren Programmiersprachen kamen auch zwei unterschiedliche Konzepte
zum Einsatz, die wesentlich für den Komfort beim Programmieren waren. Das allererste
Konzepts war das des Compilers. Ein Compiler ist ein Programm welches einen
Quelltext (eine Textdatei mit den Befehle die man ausführen lassen möchte) in einen
ausführbares Maschinenprogramm übersetzt. Der Compiler untersucht das ganze
Programm und erzeugt daraus den Maschinencode. Entdeckt er auch Fehler so meldet
er diese den Benutzer. das Programm wird dann ausgeführt und wenn es einfachere
Fehler gibt, so erhält man eine Fehlermeldung, bei grösseren Fehlern kann wiederum
der ganze Computer abstürzen ohne Meldung. Das Schreiben der Programme erfolgte
in einem Editor, das übersetzen dagegen durch den Compiler. Damit hantierte man
immer mit mindestens zwei Programmen, es konnten durch das Hinzufügen anderer
Programmteile oder das Debuggen leicht 3 oder 4 sein.
Um das Programmieren einfacher und komfortabler zu machen und die Fehlersuche zu
erleichtern hatte man daher den Interpreter in den sechziger Jahren entwickelt. Man
verzichtete dabei auf Geschwindigkeit und gewann Komfort. Bei einem Interpreter ist
das Programm welches den Quelltext übersetzt mit dem Editor integriert. Der Quelltext
wird nicht auf einmal übersetzt und ein ausführbares Programm erzeugt, sondern dies
geschieht erst zur Laufzeit. Treten Fehler auf, so kann der Benutzer das Programm
anhalten und diese Stelle im Editor untersuchen, wo der Fehler lag und ihn sofort
beheben. Der Interpreter hat immer die volle Kontrolle über das Programm. Daher ist
diese Methode bequemer. Der Nachteil ist das man wesentlich mehr Speicher benötigt
(Interpreter und Programm teilen sich den Speicher) und zum zweiten, dass man einen
Programmteil der 1000 mal durchlaufen wird auch 1000 mal übersetzt, während die
Compiler diesen nur einmal übersetzen müssen.
Eine zweite Anwendung des Interpreters ist war auch die Programmiersprachen
maschinenunabhängig zu gestalten und nur geringe Anpassungen an unterschiedliche
Computer vornehmen zu müssen. Dieses Konzept findet man bei Basic, Pascal (der
ursprünglichen Version) und Java. Dazu übersetzt ein Compiler den Quelltext in einem
sogenannten Zwischencode oder Pseudocode. Dieser ist einfacher als der Quelltext
und enthält grundlegendere einfachere Instruktionen. Dieser Zwischencode wird dann
von einem Interpreter interpretiert. Der springende Punkt ist, dass der Compiler
unabhängig von dem Rechner sein kann auf welchem das Programm laufen soll. Nur
der Interpreter - er hat einen einfacheren Code ausführen - muss jeweils an den
Computer angepasst werden.

Abbildung: Entstehungszeit und Verwantschaft wichtiger Programmiersprachen

Die Universalsprachen

Den ersten höheren Programmiersprachen folgten bald weitere : LISP zur Bearbeitung
von Listen und KI Programmierung, APL als Umsetzung der Mathematischen
Operationen in eine Programmiersprache oder BASIC als Lernsprache. Sehr bald gab
es richtige Stammbäume wie "xx" stammt von "yy" ab. Oftmals aber gab es nur eine
Programmiersprache die Anleihen an anderen machte.
Die vielen Programmiersprachen bedeuteten aber auch : Das Problem für Aufgabe x
einen Spezialisten zu finden der Programmiersprache y beherrscht und auf dem
Rechner z einen Compiler für y zu haben... Kurzum : Mitte der 60 er Jahre gingen an
verschiedenen Fronten die Suche nach einer universellen Programmiersprache los.
Universell heisst, das sie geeignet war jedes Problem zu lösen, das bedeutete eine
breite Basis von Befehlen und Datentypen. Der erste Versuch kam von IBM - PL/1
sollte die erste Universalsprache werden. IBM war damals schon marktbeherrschend
und wahrscheinlich wäre das auch gelungen, wäre PL/1 für die damaligen Rechner
nicht einfach zu gross und umfangreich gewesen.
Für die meisten heutigen prozeduralen Programmiersprachen spielt aber ALGOL eine
wichtige Rolle. Algol setzte sich nie breit durch, ist aber der Ahne aller heutigen
prozeduralen Programmiersprachen. Der Unterschied zu FORTRAN und COBOL war
der Gedanke der strukturierten Programmierung. Man sollte die Probleme lösen ohne
wild im Code herumzuspringen durch die GO TO's von FORTAN BASIC und COBOL.
Dies wurde gelöst durch elementare Schleifentypen und das Blockkonzept. Dieses
haben alle Sprachen die nach Algol kamen übernommen.
Später kam Pascal. Pascal war eigentlich keine Sprache die als Programmiersprache
für grosse Anwendungen gedacht war sondern eine Lehrsprache, aber durch die gute
Lesbarkeit, die strenge Syntax die wenig Freiheiten und Fehler erlaubte wurde Sie zu
einer wichtigen Sprache. Leider gab es Pascal lange Zeit nur interpretiert. Bedenkt man
welchen Erfolg Pascal durch den Turbo Pascal Compiler auf dem PC hatte, so kann
man sich ungefähr vorstellen wo wir heute wären wenn es einen solchen Compiler von
Anfang an gegeben hätte. Pascal setzte den Gedanken der strukturierten
Programmierung bei Daten fort. Es war nun möglich eigene Datentypen zu erschaffen
und zusammengehörende Daten zu einem Record zusammenzufassen. Dadurch wurde
das Programm erheblich besser lesbar und wartbar.
Später kam C. C hat einige Vorteile gegenüber den damals etablierten Sprachen
gehabt : Der Sprachkern war klein, alles was rechnerspezifisch war wurde in
Bibliotheken ausgelagert und C war schnell durch seine Maschinennähe. C war gedacht
als "Superassembler" : Maschinennah, schnell und mit vielen Freiheiten (aber auch
Verantwortung) für den Programmierer. Der eigentliche Siegeszug von C war aber die
Verknüpfung mit Unix. In dem Masse wie Unix sich verbreitete verbreitete sich auch C.
Modula entstand aus Pascal und setzte die Strukturierung von Daten und Code weiter
fort : Basis war das Modul : Eine Einheit aus Daten und Code das man als
Programmierer als Black Box nutzen konnte und sich nicht um die Implementierung im
Detail kümmern konnte. Modula hat sich kaum durchgesetzt denn inzwischen war die
Konkurrenz schon gross. Im PC Bereich übernahm Turbo-Pascal das Konzept als Units
und so gab es keinen Grund auf Modula umzusteigen und bei grösseren Rechnern
dominierten schon C, FORTRAN und COBOL.
Zuletzt sollte man noch ADA erwähnen. Wenn es eine Supersprache gibt dann ist es
ADA. Die Sprache ist ausserordentlich umfangreich und komplex, sie hat heute nur
einen Einsatzort, den aber in fester Hand : Als Standardsprache des US Militärs und
auch für Entwicklungen die auf militärischen Ursprüngen fussen (Die Flugsoftware von
Ariane 5, die den Fehlstart beim ersten Flug verursachte, war in ADA geschrieben). Sie
wird daher an Unis gelehrt, leider teilt die Wirtschaft diese Vorliebe für ADA nicht...

Objektorientiertes Programmieren

Das objektorientierte Programmieren hebt die klassische Trennung zwischen Daten und
Code auf. Ein klassisches Programm verarbeitet Daten. Wenn sich diese ändern muss
man auch den Code anpassen. das macht es sehr schwierig Code von einem
Programm in einem anderen wiederzuverwenden. Beim Objektorientierten
Programmieren gibt es dies nicht. auf die Daten wird mit Prozeduren und Funktionen
zugegriffen und Daten und Code bilden eine Einheit. Ändern sich die Daten so kann
man dieselben Prozeduren aufrufen, muss jeweils nur die interne Verarbeitung ändern.
Die immer gleichen Dialoge und Elemente von Windows wären ohne dies nicht möglich.
Im Prinzip finden wir einen solchen Ansatz schon bei Modula, nur hat man dort
versäumt festzulegen, das jeder Datentyp nur mit eigenen Methoden ansprechbar ist.
Als erste Programmiersprache beherrschte dies Ende der 70 er Jahre Smalltalk, die wie
andere revolutionäre Erfindungen (Netzwerk, grafische Benutzeroberfläche) im XEROX
Park entwickelt wurden. Ende der 80 er Jahre tauchten Objekte dann auch bei Turbo
Pascal auf und C wurde zu C++ - der objektorientierten Variante. Heute ist
objektorientiertes Programmieren weit verbreitet, Windows ist z.B. in C++ geschrieben.

Visuelles Programmieren

Das entscheidende Grundproblem beim Programmieren ist meistens die Bedienung


durch den Benutzer. Einfach gesagt : Je benutzerfreundlicher das ganze sein soll desto
schwieriger wird das ganze. Viele Programme unter DOS waren sehr
benutzerfreundlich, weil je mehr Freiheiten der Benutzer hatte desto mehr Fehler
musste man abfangen, auf desto mehr Arbeit hatte man mit der Auswertung der
Eingaben. Die ersten Windows Programmierumgebungen setzten dem die Krone auf,
einige zig Befehle um alles festzulegen bevor überhaupt etwas auf dem Bildschirm
erschien. Nun kamen Komponenten auf, die direkt die objektorientierte Programmierung
nutzten. Eine Komponente ist ein Stück Programmcode mit Eigenintelligenz über die
implementierten Funktionen kann ich auf ihn zugreifen und Daten übergeben. So kann
ich mit einem Befehl einen "Öffnen" Dialog aufrufen. Sie können dann mit diesem durch
die Festplatte navigieren, die Dateien nach verschiedenen Kriterien sich ansehen und
zuletzt eine Datei anwählen - alles das macht diese Komponente - erst nach dem Click
auf "OK" bekommt mein Code wieder eine Meldung ob sie eine Datei ausgesucht
haben und wie diese heisst. Kurzum Komponenten machen das Leben sehr viel
einfacher.

Regelorientierte Sprachen

Eigentlich könnte das Leben doch so einfach sein. Heute programmieren die meisten
Programmierer die Lösung eines Problemes bis auf Befehlsebene herunter. Das nennt
man prozedurale Sprachen. Doch es gibt auch Sprachen die anders funktionieren :
Regelbasierende Sprachen. Hier wird einer Sprache die Regel gegeben die dem
Problem zugrunde liegt, d.h. die Abhängigkeiten die aufzulösen sind. Dies macht dann
die Programmiersprache selber. Für einige Probleme - Insbesonders im Bereich der KI
war dies ideal. Sprachen wie Prolog, LISP oder Natural finden sich auch in diesem
Umfeld. aber es gibt keine Alternative wenn man nur mal einfache Berechnungen oder
Daten verarbeiten will - das löst man mit prozeduralen Sprachen immer noch einfacher.
Als weiteres waren die regelbasierenden Sprachen lange Zeit nur interpretiert, was die
Geschwindigkeit stark herabsetzte.

Datenbank und Anwendungssprachen

Schon immer eine Bedeutung hatten Datenbanksprachen. Mit dem Aufkommen von
Datenbanksystemen brauchte man bei diesen zuerst Programmiersprachen um sie
abzufragen, derartige Sprachen lehnten sich an bekannte Vorbilder an und hatten oft
mächtige Befehle um Daten zu bearbeiten, für diesen Zweck waren sie
massgeschneidert. Ein bekanntes Beispiel dafür ist die Sprache von DBase, da dieses
PC Programm sehr populär war und andere auf ihm aufbauten. Aus dem
Grossrechnerbereich kommt SQL das auch auf dem PC Einzug gehalten hat.
Auch andere Anwendungen haben nach und nach Sprachen implementiert, zuerst nur
als Makrosprachen um Befehle wieder abspielen zu können oder die Flexibilität zu
erhöhen, dann durch integrierte Pakete auch zum Datenaustausch zwischen
Anwendungen. Den bisherigen Höhepunkt hat VBA erreicht Visual Basic for
Applications verbindet Microsoftanwendungen untereinander - MS Office mit Outlook
und Windows. So kann ein E-Mail Attachment sich auch selbstständig über Outlook
weiterverbreiten, bevor es ihre Daten auf dem Rechner löscht.

Generationen von Programmiersprachen

1. Generation (1GL)
• Maschinensprache
• Binäre Ziffernfolge auf Niveau des reinen Maschinencodes
• Hardwarearchitektur für die Programmierung entscheidend
• absolute Adressierung

2. Generation (2GL)
• Assemblersprache
• Symbolische Namen für Operanden und Operationen
• Makroprozessoren erlauben Programmierer aus mehreren Befehlen eine
Funktion zu erstellen
• Ermöglichen optimale Ausnutzung der Hardware

3. Generation (3GL)
• Höhere, problemorientierte Sprache
• Portabilität zu anderen Systemen
• Strukturierte Programmstrukturen
• Programm besteht aus 2 Teilen:
• Deklaration von Daten
• Aktionen zur Manipulation der Daten
• Maschinenunabhängig
• Sourcecodereduktion gegenüber Assembler um bis zu 85%
• Wichtiger Grundstock für die 3. Generation war die Entwicklung von Pascal.

4. Generation (4GL)
• Deklarative Programmiersprachen
• Deskriptive Programmierung
• Softwareunterstütze Entwicklungsumgebung
• Transaktionsorientierte Datenelemente

5. Generation (5GL)
• Objektorientierte Sprachen
• Entwicklung eigener Sprachelemente durch den Entwickler
• Programmierer entwickelt Objekte, Methoden und abgeleitete Objekte
• Funktionale und
• Logische Sprachen
Software Eigenschaften

• Benutzerfreundlichkeit
• Flexibilität
• Funktionalität
• Kompatibilität
• Performance
• Sicherheit
• Zuverlässigkeit

Benutzerfreundlichkeit

Der Benutzer erkennt intuitiv, wie er mit dem System arbeiten kann. Der Benutzer weiss
immer wo er sich in seiner Aufgabe befindet, was er hier tun kann, woher er gekommen
ist und wohin er weiter navigieren kann. Der Visualisierungsgrad spielt eine wichtige
Rolle. Informationen und Funktionen sollten möglichst direkt ersichtlich sein. Der
Benutzer soll in seiner Arbeit von der Applikation ideal unterstützt werden. Dies
geschieht durch ein kontextsensitives Hilfesystem, eine klare und einheitliche
Benutzerführung und selbstsprechende Fehler- und Warnmeldungen. Die
Benutzerfreundlichkeit ist sehr wichtig für die Akzeptanz der Software bei den
Benutzern. Die beste Applikation nützt letztendlich nichts wenn sie nicht durch ihre
Anwender bedient werden kann.

Flexibilität

Die Applikation sollte leicht verändert werden können. Damit wird auch die Wartbarkeit
eines Produktes gewährleistet. Die Applikation sollte eine ausführliche und vollständige
Dokumentation aufweisen. Die Komponenten sollten einfach gestaltet werden und
strukturiert und übersichtlich gegliedert sein. Die Schnittstellen sollten klar definiert und
gut dokumentiert sein.

Funktionalität

Dieses Kriterum beschreibt, wieviele Funktionen, die für den Verwendungszweck


vorgesehen waren, realisiert wurden. Bei der Funktionalität ist es wichtig die richtigen
Funktionen umzusetzen. Riesige Systeme mit einem grossen Funktionsumfang sind oft
unwirtschaftlich und an den Bedürfnissen der Benützer vorbei entwickelt worden.
Zusätzliche Funktionen, die der Benutzer nicht benötigt verursachen lediglich
zusätzliche Kosten und verlangsamen die Benützung des Systems. Qualität vor
Quantität.
Kompatibilität

Die Software sollte kompatibel mit anderen System agieren können. Mit Hilfe von
standardisierten und offenen Schnittstellen sollte dies möglich gemacht werden.
Ebenfalls sollte die Anwendung kompatibel auf verschiedenen Plattformen und
Betriebssystemen übertragen werden können (Portabilität).

Performance

Der Benutzer erwartet auf eine Aktion eine sofortige Reaktion des Systems. Die
Performance sollte in erster Linie auf den Benutzer ausgerichtet werden. Die
Schnelligkeit des Systems sollte effizient sein. Dank den neuen Entwicklungen im
Hardwarebereich wird die Performance stets verbessert. Die Performance sollte also
nicht unnötig optimiert werden.

Sicherheit

Es sollten keine Systemdaten an unberechtigte Personen oder Fremdsysteme


übermittelt werden. Die Daten müssen geschützt werden (Datensicherung). Mit einer
Risikoanalyse können Gefahrenquellen gefunden und mit effektiven
Schutzmassnahmen ausgeschalten werden.

Zuverlässigkeit

Wenn das System zuverlässig arbeitet, ist auch das Vertrauen der Benutzer in die
Applikation vorhanden. Die Funktionalität des Systems sollte bei korrektem Input den
erwarteten und vereinbarten Output liefern. Auch die Stabilität (Absturzgefahr) des
Systems spielt eine wichtige Rolle für die Zuverlässigkeit des Systems.

Kosten

Die Kosten sind kein direkter Faktor für die Qualität der Software, sie sind aber ein
wichtiger Faktor bei der Evaluation einer neuen Anwendung. Bei Software ist wichtig zu
beachten, dass die Entwicklungs- oder Initialkosten sowie die Wartungs- und
Lizenzkosten gerechnet werden. Ebenfalls sollte unbedingt berücksichtigt werden,
wieviele Personen und Ressourcen eingesetzt werden müssen. Die Gegenüberstellung
der Kosten und dem Nutzen (in Zahlen ausgedrückt) ist ein wichtiges Element für den
Entscheid über den Einsatz neuer Software.
Systeme Hardware
o Datenträger
o Der Rechner
o Eingabe
o Mobile Devices
o Prozessor
Datenträger

Zentrale Grundlage für das sinnvolle und zweckgerichtete Speichern in jeglicher Form
sind drei Prozesse, die durch die Formen der Speicherung realisiert werden müssen:
• der Aufzeichnungsvorgang (aus Daten oder Signalen wird durch Einwirken von
Energie der Speicherzustand erzeugt, das Trägermaterial verändert)
• der Speicherzustand (Festhalten der Veränderung des Trägermaterials , also des
Aufzeichnungsvorgangs möglichst unverändert und dauerhaft stabil)
• der Wiedergabevorgang (aus den Speicherzuständen werden die ursprünglichen
Daten/Signale möglichst originalgetreu wiedergewonnen)
Aufzeichnen, Bewahren und Weitergeben sind also Kernfunktionen jedes Speicherns.
Einen weiteren Aspekt stellt noch die die Übertragung des Gespeicherten dar.
Wie diese Kernfunktionen realisiert werden können, kann man wiederum aus drei
verschiedenen Blickwinkeln betrachten, bei denen für diese Prozesse eingesetzten
Träger der Speicherung, die Form der Speicherung und die Methoden des
Wiederfindens des Gespeicherten im Mittelpunkt stehen:
• das chemisch-physikalische Prinzip (Träger der Speicherung)
• das Speicherungsverfahren (Form der Speicherung)
• das Suchverfahren (Wiederfinden des Gespeicherten)

Speicherverfahren

• mechanisch
o Papierblatt, Katalogkarte
o gedrucktes Medium
o Lochstreifen
o Lochkarte
• elektro-mechanisch
o Relais
• magnetisch
o Magnetkern
o Magnetband [für Zeichen, Bilder, Töne]
o Spulen
o Kassetten
o Magnettrommel
o Magnetplatten (-folien)
o Festplatten
o Wechselplatten
o Disketten
o Magnetkarten
o Magnetdraht
o Magnetblasen
• elektronisch
o Halbleiter
o Nur-Lesespeicher (nicht-flüchtig)
o ROM [Read Only Memory, herstellerprogrammiert]
o PROM [Programmable ROM, durch Anwender einmal programmierbar]
o EPROM [Erasable Programmable ROM, durch Anwender mehrfach lösch-
und programmiebar]
o Schreib-/Lesespeicher (RAM) [Random Access Memory]
o SRAM [ Static RAM ; laufend Ruhestrom erforderlich, flüchtig]
o DRAM [ Dynamic RAM ; zyklisches Erneuern durch
o refreshing, flüchtig]
o FLASH [Beschreibbar, nicht-flüchtig]
o Supraleiter
• optisch
o CD-DA [Digital Audio-CD]
o CD-ROM [Read Only Memory]
o CD-ROM/XA [Extended Architecture, hohe Speicherdichte, max. 19 Std.
Audio]
o CD-ROM mixed mode [1 Track Daten, Rest kann Audio sein]
o CD-I [Interactive, z.B. mit Filmsequenzen]
o CD-R [Recordable, einmal beschreibbar in CD-Brenner, WORM]
o Photo-CD [Entwicklung von Kodak]
o Video CD [Komprimiertes Video bis zu 74 Min.]
o CD-RW [Rewritable, bis zu 1000 x beschreibbar, ähnlich CD-R]
o CD Extra [Multisession von Audio- und komprimierten Bilddaten]
o DVD [Digital Versatile Disk, mit hoher Datendichte]
o DVD-ROM [entspricht CD-ROM
o DVD-R [entspricht CD-R]
o DVD-RAM [entspricht CD-RW]
o Transphasor ["optischer Transistor"]
• magneto-optisch
o Aufzeichnungsvorgang: (elektromagnetischer) Curie-Effekt
o Wiedergabevorgang: (optischer) Kerr-Effekt
• biochemisch -elektrisch -organisch
o Biotechnik-Speicher
o Protein-Speicher

Speicherungsformen

Sequentielle Speicherung

• Sätze sind in lückenloser Reihenfolge hintereinander auf dem Datenträger


abgelegt
• Kein Zusammenhang (funktionale Vorschrift) zwischen Ordnungsbegriff
(Schlüssel) und physischer Satzadresse (Beginn-Adresse des Satzes), daher
kein wahlfreier Zugriff möglich
• Bei der Suche eines Satzes muss jeder Satz angesprungen und ein
Schlüsselwert-Vergleich zwischen momentanem Satzschlüssel und gesuchtem
Schlüssel durchgeführt werden.
• Beim Einfügen von Sätzen ist eine Zwischendatei (scratch file) erforderlich (etwa
ein zweites Magnetband)

Index-sequentielle Speicherung

• Zusätzlich zur Datendatei wird eine Indexdatei mit einer Indextabelle


abgespeichert
• Indextabelle: Zu jedem Primärschlüsselwert wird die zugehörige physische
Satzadresse vermerkt;
• Die Speicherplätze der einzelnen Sätze brauchen nicht zusammenhängend sein
• Bei der Suche nach einem Datensatz wird nicht im originären Datenbestand
gesucht, sondern der Index wird in den Hauptspeicher geladen und durchsucht.
• Bei unsortierter Reihenfolge der Schlüsselwerte ist im Durchschnitt die halbe
Index-Datei zu durchsuchen
• Sortierung nach den Primärschlüsselwerten ermöglicht binäres Suchen

Index-verkettete Speicherung
In der Indextabelle werden bei diesem Speicherverfahren zusätzlich zu jedem
Schlüsselwert vom nachfolgenden / vorhergehenden Satz entweder der Schlüsselwert
oder die Position in der Indextabelle oder die physische Speicheradresse als drittes
Feld (Spalte) festgehalten.
• Der 'Einstiegspunkt' (Anker) ist die Speicheradresse des ersten Indexeintrags
• Offene Kette: Letzter Eintrag ohne einen Verweis auf den Nachfolger
• Geschlossene Kette: Rückverweis vom letzten Eintrag auf den Anker
(kreisförmige Verkettung)
• Analog zur Vorwärtsverkettung wäre auch eine Rückwärtsverkettung möglich,
ebenso eine doppelte oder zweifache Verkettung.

Vorteile:

• Verteilung des Datenbestands über den gesamten Speicherbereich


• Neu hinzukommende Datensätze werden mit dem Verweis auf den
Nachfolgersatz jeweils am Ende der Indextabelle angefügt, das heisst keine
Sortierung und entsprechende Einordnung erforderlich)
• Einfache Änderung beim Einfügen und Löschen

Nachteil:

• Aufwand für den Änderungsdienst

Wiederfinden des Gespeicherten

Von der Form der Datenspeicherung hängt dann auch die Möglichkeit ab, wie auf die
gespeicherten Daten wieder zugegriffen werden kann:
• seriell (starr fortlaufend) in der Reihenfolge, wie die Daten für die Speicherung
angefallen sind
• sequentiell (fortlaufend gemäss einer gegebenen Reihenfolge)
• direkt (wahlfrei, Random Access) über die Nutzung des Index
Der Rechner

Ein beliebtes Erklärungsmodell für den Aufbau einer Datenverarbeitungsanlage


(Rechner) ist die prinzipielle Darstellung des Von-Neumann-Rechners, den John von
Neumann bereits kurz nach dem 2. Weltkrieg beschrieben hat.
Der von Neumann-Rechner arbeitet sequentiell, Befehl für Befehl wird abgeholt,
interpretiert ausgeführt und das Resultat abgespeichert. Der von Neumann-Rechner
besteht im wesentlichen aus:
• Speicherwerk - zur Abspeicherung der Programme und Daten. Der Speicher ist
in Zellen eingeteilt, jede Zelle hat eine Breite von n Bit. Dabei entspricht n der
Wortbreite des Computers.
• ALU (Arithmetic Logic Unit) - einem Akkumulator und mindestens einem
Zusatzregister. Die ALU führt arithmetische, logische und shifting-Operationen
durch
• Leitwerk (Control Unit, CU) - beinhaltet den Programmzähler (Program
Counter) und einer Einheit für die Decodierung der Befehle
• I/O-Werk - für die Kommunikation mit externen Speichereinheiten

Abbildung: Prinzip des Von-Neumann-Rechners

Rechner

Nach DIN-Definition ist ein Rechner eine Einheit zur Verarbeitung von Daten, nämlich
zur Durchführung mathematischer, umformender, übertragender und speichernder
Operationen. Als Synonyme werden in der DIN-Norm die Benennungen Rechensystem,
Rechenanlage, Datenverarbeitungssystem und Datenverarbeitungsanlage sowie
Computer und Data Processing System genannt.
Damit die Einheit "Rechner" funktionieren kann, bedarf er bestimmter
Funktionseinheiten.

Abbildung: Hardwareaufbau eines Rechners

Funktionseinheiten eines Rechners

Ein Rechner besteht aus Funktionseinheiten durch die Information von aussen
aufgenommen werden kann (Eingabewerk), durch die diese Information verarbeitet,
also interpretiert, verändert und aufbewahrt werden kann (Processor, Leitwerk,
Rechenwerk und den internen Arbeitsspeicher) steuert durch die die verarbeitete
Information wieder nach aussen abgegeben werden kann (Ausgabewerk).
Hier kann das bekannte "EVA" = Eingabe, Verarbeitung, Ausgabe als Eselsbrücke
dienen. Jeder der genannten Funktionseinheiten können in der Realität eine oder
mehrere Baueinheiten entsprechen.

Eingabewerk

Eine Eingabeeinheit ist eine Funktionseinheit eines Rechners, durch die Information von
aussen aufgenommen werden kann. Die Funktionseinheit verbindet den Rechner mit
verschiedenen Eingabeeinheiten wie Tastatur, Maus, Lichtgriffel, Digitalisiertablett, Pen-
based Computer, Schriftenleser, Scanner, Speicher...

Ausgabewerk

Eine Ausgabeeinheit ist eine Funktionseinheit eines Rechners, durch die die
verarbeitete Information wieder nach aussen abgegeben werden kann. Auch sie ist das
Bindeglied zwischen verschiedenen Ausgabegeräten wie Monitor, Kathodenstrahlröhre,
Flüssigkristallbildschirm, Plasmabildschirm, Elektrolumineszenzbildschirm,
Elektronenstrahlbildschirm, Drucker, Zeichendrucker, Zeilendrucker, Seitendrucker,
Plotter, Speicher

Prozessor

Ein Prozessor ist eine Funktionseinheit, die Leitwerk, Rechenwerk und


Verbindungskomponenten umfasst.

Speicher

Ein Speicher ist eine Funktionseinheit eines Rechners, Information einbringt, aufnimmt,
aufbewahrt und abgibt. Dabei ist zu unterscheiden
• Interner Speicher (Zentralspeicher)
• Zentralspeicher
ist ein Speicher innerhalb der Zentraleinheit. Typische Merkmale sind der
unmittelbare Zugang durch den Prozessor, die vorübergehende Speicherung und
der schnelle Zugriff. Weitere gängige Benennungen für Zentralspeicher sind:
Speicherwerk und interner Speicher. Der grösste interne Speicher ist der
Arbeitsspeicher, der auch vielfach Hauptspeicher genannt wird. Der
Arbeitsspeicher und die anderen internen Speicher arbeiten mit einem
ausserordentlich schnellen Zugriff. Ihr Fassungsvermögen ist jedoch aus
technischen und Kostengründen begrenzt. Sie dienen während der
Programmausführung zur Speicherung und werden im allgemeinen nicht für eine
dauerhafte Aufbewahrung von Information herangezogen. Diese Funktion
übernehmen die externen Speicher.
• Externer Speicher
Jeder Speicher, der nicht Zentralspeicher ist, wird als externer beziehungsweise
peripherer Speicher bezeichnet. Externe Speicher sind langsamer (geringere
Zugriffsgeschwindigkeit), aber dafür billiger als Zentralspeicher, und sie verfügen
über sehr grosse Speicherkapazitäten. Nicht unmittelbar benötigte Daten und
Programme, die aus Platzgründen nicht ständig im Zentralspeicher stehen,
werden extern gespeichert und können bei Bedarf mit grosser Geschwindigkeit in
den internen Speicher übertragen werden. Wegen ihrer hohen Kapazität
bezeichnet man sie auch als Massenspeicher (Magnetische Datenträger,
Optische Datenträger, Elektronische Datenträger )

Peripherie

Eine Funktionseinheit eines Rechners, die nicht zur Zentraleinheit gehört, wird
periphere Einheit genannt. Dementsprechend werden externe Speicher auch als
periphere Speicher bezeichnet. Der Verkehr mit den peripheren Geräten zur Eingabe
(input) und Ausgabe (output) von Programmen und Daten wird in Rechnern meist durch
selbständige Funktionseinheiten gesteuert, die als Ein-Ausgabe-Prozessoren
bezeichnet werden.
Intelligente Peripherie

Durch eingebaute Prozessorchips (und Speicherchips) werden die Peripheriegeräte


"intelligent". Das heisst im IT-Jargon, dass sie über Eigensteuerungsvermögen verfügen
und damit im Betrieb nicht auf die ständige Fremdsteuerung durch eine Zentraleinheit
angewiesen sind. Bei Bedarf werden sie vom Prozessor der Zentraleinheit
"angestossen" und wickeln dann die gerätespezifischen Aufgaben weitgehend
selbständig ab. Die Zentraleinheit wird damit wesentlich entlastet, und die Parallelarbeit
erhöht die Gesamtleistung des Rechners.
Die Zusammenschaltung von mindestens einer Zentraleinheit mit den an diese
angeschlossenen peripheren Geräten wird Konfiguration genannt.
Eingabe- und Ausgabegeräte

Eingabegeräte

Tastatur

Eine Tastatur (engl.: keyboard) ist ein Eingabegerät mit einer Vielzahl von Tasten, die
auf bestimmte Weise angeordnet und mit bestimmter Bedeutung (Zeichen, Funktionen)
belegt sind. Die Dateneingabe erfolgt durch die aufeinanderfolgende Betätigung der
Tasten mit den Fingern.

Maus

Eine Maus (engl.: mouse) ist eine etwa mausgrosse Zusatzeinrichtung zu einem
Bildschirm, deren Bewegung auf einer ebenen Fläche von der Positionsmarke auf dem
Bildschirm in Richtung und Geschwindigkeit unmittelbar nachvollzogen wird. Sie verfügt
über einen Auslösemechanismus (Funktionstasten), mit dem die vom Cursor
gekennzeichneten Felder aktiviert werden können (durch Anklicken).

Lichtgriffel

Ein Lichtgriffel (Lichtstift; engl.: light pen) ist ein als Zusatzeinrichtung zu einer
Datensichtstation dienender lichtempfindlicher Stift, mit dem von Hand auf dem
Bildschirm bestimmte Punkte oder Flächen markiert und Kurven durch ihren Verlauf
oder ihre Endpunkte dargestellt werden können.

Touch Screen

Ein Sensorbildschirm (engl.: touch screen), Kontaktbildschirm oder


berührungsempfindlicher Bildschirm (= Synonyme) erlaubt die Auswahl von
Kommandos beziehungsweise die Eingabe von sonstigen angezeigten Daten (aus
einem Menü) durch Markierung der auszulösenden Aktion mit dem Finger oder einem
beliebigen Stift (Zeigen auf ein Eingabefeld).

Digitalisiertablett

Ein Digitalisiertablett (Grafiktablett; Digitalisierer; Kurvenverfolger; engl.: digitizer;


graphic data table) besteht aus einem elektronischen "Tablett" (Zeichenbrett) und einem
daran gekoppelten frei beweglichen Markierer (Stift oder signalablesende Lupe),
dessen Positionen auf der Zeichenfläche punktweise durch Eingabe der Koordinaten
abgespeichert werden.

Notepad

Ein Notepad (engl.: note = Notiz, Aufzeichnung; pad = Unterlage, Schreibblock) oder
Pen-based Computer (deutsch: stiftunterstützter Rechner) ist ein tragbarer PC
(Notebook oder PDA), mit einem integrierten, berührungsempfindlichen LCD-
Bildschirm. Man zeichnet oder schreibt mit einem Spezialstift auf dem Bildschirm wie
auf einem gewöhnlichen Schreibblock. Die eingegebenen Daten werden in einem
Bildspeicher punktweise abgelegt und unmittelbar am Bildschirm wiedergegeben, wo
sie vom Benutzer korrigiert und im Dialog weiterverarbeitet werden können. Ein
Handschrifterkennungsprogramm interpretiert mit dem Stift geschriebene Zahlen und
Druckbuchstaben in Gross- und Kleinschreibung und setzt diese in ASCII-Zeichen auf
dem Bildschirm um.

Schriftenleser

Die Schriftenleser (engl.: character reader) erkennen optisch oder magnetisch die
Bedeutung einzelner, auf den Datenträgern gespeicherter Zeichen und geben diese in
maschinell weiterverarbeitbarer Codierung (zum Beispiel ASCII, EBCDIC) aus. Hierzu
werden vorher definierte Bereiche der Datenträger ausgewertet, in denen die Zeichen in
maschinell lesbarer Form aufgezeichnet sind. Das Layout der Datenträger wird nicht
miterfasst.

Scanner

Ein Scanner (engl.: scanner; Synonym: image scanner, Bildabtaster) tastet eine Vorlage
zeilenweise ab und setzt selbsttätig für jeden Bildpunkt (Pixel) den entsprechenden
Helligkeits- oder Farbwert sowie die Lageinformation in digitale elektrische Signale um.
Die erfassten Dokumente (= Rasterbilder) lassen sich zum blossen Ansehen
abspeichern (Archivierung) oder mit Zeichenerkennungs- und Bildverarbeitungssoftware
im Rechner weiterverarbeiten.
Ausgabegeräte

Monitor

Ein Monitor (engl.: monitor) ist ein Ausgabegerät, das die vom Videoadapter eines
Rechners (zum Beispiel einer PC-Grafikkarte) übermittelte Information anzeigt. Er
besteht aus dem Bildschirm (engl.: screen; display), dem zugehörigen Gehäuse und
eventuell darin eingebauten Zusatzeinrichtungen, wie beispielsweise Mikrofon und
Lautsprecher. Der Monitor wird über ein Kabel an die Grafikkarte (Videoadapter) des
Rechners angeschlossen.

Kathodenstrahlröhre

Die meisten Monitore verwenden als Bildschirm eine Kathodenstrahlröhre. Dabei


handelt es sich um die gleiche grossvolumige, schwere Anzeigeeinheit wie bei
Fernsehapparaten. Eine Kathodenstrahlröhre (engl.: cathode ray tube; abgekürzt: CRT)
besteht aus einem luftleeren Glaskolben, in dessen Hals eine Kathode - ein auf Rotglut
erhitzter Draht mit dünner Oxidbeschichtung - einen scharf gebündelten
Elektronenstrahl auf die gegenüberliegende Anodenfläche, der Stirnfläche des Kolbens,
richtet. Beim Auftreffen des Kathodenstrahls leuchtet die Phosphorbeschichtung der
Anodenfläche auf, und die Bildpunkte werden durch die Glasfläche hindurch sichtbar.
Bei einem Farbschirm ist der Belag aus Farbtripletts in den Grundfarben Rot, Grün und
Blau aufgebaut, die von drei Elektronenstrahlen punktgenau angesteuert werden. Die
Bewegung der Elektronenstrahlen verläuft zeilenweise von links nach rechts, von oben
nach unten. Die Steuerung (Ablenkung) erfolgt nach einem genau festgelegten
Zeitschema über die am Hals des Kolbens angebrachten Elektromagneten
(Ablenkspulen). Damit der Bildschirm nicht flimmert, muss er mindestens 75 mal pro
Sekunde aufgefrischt werden.

Flüssigkristallbildschirm

Ein Flüssigkristallbildschirm (engl.: liquid cristal display; LCD) verwendet zur Anzeige in
Glasflächen eingeschlossene organische Substanzen, sogenannte Flüssigkristalle,
deren molekulare Eigenschaften denen fester Kristalle ähneln. Bei Anlegen einer
Spannung richten sich die Flüssigkristalle in Richtung des elektrischen Feldes aus und
bekommen dadurch andere optische Eigenschaften (Wechsel zwischen
Lichtdurchlässigkeit und Lichtundurchlässigkeit, wodurch ein angesteuerter Bildpunkt
dem Betrachter hell oder dunkel/farbig erscheint).

Plasmabildschirm

Ein Plasmabildschirm (engl.: plasma display) besteht aus zwei Glasplatten, zwischen
denen sich ein Mosaik aus 0,2 Millimeter kleinen gasgefüllten Zellen befindet. Ein
elektrisches Leitungsgitter (Elektrodenarray) hält die gesamte Fläche unter Spannung,
knapp unter dem Grenzwert, bei dem das Edelgasgemisch (= Plasma) zu leuchten
beginnt. Durch elektrische Entladungen in den einzeln adressierbaren Zellen emittiert
das Gas ultraviolette Strahlen, die die Phosphorbeschichtung der Zellen zum Leuchten
anregen.

Elektrolumineszenzbildschirm

Ein Elektrolumineszenzbildschirm (engl.: electroluminescent display; abgekürzt: ELD)


verwendet für die Anzeige ein Substrat (festes Material oder flexible Kunststoffolie), auf
das mit fotolithografischen Methoden ganzflächig eine Folge von dünnsten Schichten
mit Halbleiterschaltungen aufgebracht wurde. Die Beschichtung besteht aus
Substanzen, die bei Anlegen einer ausreichenden elektrischen Spannung Licht
abgeben. Die Bildpunkte werden durch Transistorschaltungen erzeugt, die in Matrixform
über die aufgedampften Leiterbahnen (Elektroden) angesteuert werden.

Elektronenstrahlbildschirm

Ein Elektronenstrahlbildschirm (engl.: flat CRT display) arbeitet wie die herkömmliche
Kathodenstrahlröhre mit der Vakuumfluoreszenztechnik, wobei anstelle des
voluminösen Glaskolbens eine flache Glaswanne oder ein Miniröhrenfeld verwendet
wird.

Zeichendrucker

Ein Zeichendrucker (engl.: character printer) druckt - wie eine Schreibmaschine -


Zeichen für Zeichen und wird deshalb auch als serieller Drucker (engl.: serial printer)
bezeichnet. Er arbeitet relativ langsam und eignet sich deshalb vor allem als
Anschlussgerät für Arbeitsplatzrechner und unintelligente Datensichtstationen (Hard-
Copy-Drucker). Durch einen Tastendruck lassen sich dann Bildschirminhalte, deren
Dokumentation gewünscht wird, in Minutenschnelle auflisten.

Mechanische Drucker

Typenhebel-, Kugelkopf-, Typenrad- und Nadeldrucker sind mechanische Drucker


(engl.: impact printer), bei denen die Druckfarbe durch einen Aufschlagmechanismus
auf das Papier aufgebracht wird (üblicherweise Hammer, der ein Farbband gegen das
Papier drückt).
Nichtmechanische Drucker

Nichtmechanische Drucker (engl.: non-impact printer) verwenden entweder


beschichtetes oder lichtempfindliches Spezialpapier, das auf elektrische, magnetische
oder wärmetechnische Reize reagiert, oder es wird mit elektrostatischen,
magnetografischen, Thermotransfer- oder Tintenstrahlverfahren auf Normalpapier
gedruckt.

Zeilendrucker

Zeilendrucker (engl.: line printer), die auch sehr häufig als Schnelldrucker bezeichnet
werden, drucken jeweils Zeile für Zeile als Ganzes und erreichen dadurch hohe
Druckgeschwindigkeiten. Der Leistungsbereich dieser fast immer mechanisch
arbeitenden Geräte reicht von etwa 150 bis 4.000 Zeilen pro Minute.

Seitendrucker

Seitendrucker (engl.: page printer) sind nichtmechanische Drucker (engl.: non-impact


printer), die jeweils eine ganze, komplett elektronisch aufbereitete Seite nach der
anderen drucken. Die meisten Seitendrucker arbeiten mit Lasertechnik und
elektrofotografischem (xerografischem) Druckprinzip (Varianten: LED-Drucker,
Ionendrucker).

Federplotter

Die sog. Federplotter oder Stiftplotter (engl.: pen plotter) arbeiten mechanisch mit
Zeichenstiften. Entsprechend der Bauart des Bewegungssystems, mit dem der Stift auf
der Zeichenfläche geführt wird, unterscheidet man im wesentlichen zwei Gruppen: Die
Flachbettplotter und die Trommelplotter. Beide Gruppen haben gemeinsam, dass das
Bild strichweise (entsprechend den vorgegebenen Positionen in dem x-y-
Koordinatensystem der Zeichenfläche) aufgezeichnet wird; sie heissen deshalb auch
Vektorplotter.

Druckerplotter

Die sogenannten Druckerplotter (engl.: printerplotter) zeichnen die Ausgabedaten mit


nichtmechanischen Aufzeichnungsverfahren mit hoher Geschwindigkeit nach dem
Punktrasterprinzip auf. Der Anwender hat dabei die Wahl zwischen Monochrom- und
Farbelektrostaten, Thermotransfer-, Tintenstrahl- und Laserplottern.
Mobile Devices

• Handy
• Notebook
• PDA / Handheld
• Flatpad
• Pocket PC
• Communicator

Abbildung: Flatpad

Abbildung: Pocket PC
Prozessor

Prozessorchips (engl.: processor chip) realisieren logische Funktionen, die von


untergeordneten Einheiten bis hin zu kompletten Prozessoren für Zentraleinheiten und
zur Steuerung peripherer Geräte reichen.
Mikroprozessor ist ein vollständiger Prozessor, der auf einem Chip untergebracht ist,
heisst Mikroprozessor. Mikroprozessoren (engl.: microprocessor) werden gewöhnlich
anhand der Verarbeitungsbreite in 8-Bit-, 16-Bit-, 32-Bit- und 64-Bit-Prozessoren
eingeteilt.

Ein-Chip-Computer

Bei einem Ein-Chip-Computer (MCU; Abkürzung für engl.: micro computer unit) ist eine
vollständige Zentraleinheit auf einem einzigen Chip integriert. Solche
"Miniaturcomputer" kommen in allen möglichen Geräten, wie zum Beispiel Kameras,
Stereoanlagen, Waschmaschinen, Autos, usw. zum Einsatz.

Leistungskriterien

Verarbeitungsbreite

Ein 8-Bit-Prozessor hat einen acht Bits breiten Datenbus (engl.: data bus), das heisst
auf acht parallelen Datenleitungen können während einer (Takt-)Zeiteinheit acht Bits (=
ein Byte) übertragen werden. Und ein 64-Bit-Prozessor kann bei Bedarf 64 Bits pro Takt
übermitteln; das heisst der Datentransfer kann achtmal so schnell erfolgen wie bei
einem 8-Bit-Prozessor. Auch die sonstigen Funktionseinheiten innerhalb des
Prozessors, zum Beispiel die Einheiten zur Zwischenspeicherung der transferierten
Daten, sogenannte Register (engl.: register), sind auf diese Informationsbreite
abgestimmt. Die Verarbeitungsbreite ist also ein wesentliches Kriterium für das
Leistungsvermögen eines Mikroprozessors.

Taktzeit

Eine weitere Leistungsdeterminante eines Prozessors, neben der Verarbeitungsbreite,


ist die Taktzeit (= Zykluszeit,Taktzyklus; engl.: cycle time), das heisst die immer gleich
lange, zyklisch aufeinanderfolgende Zeitspanne, die für die Abarbeitung der Befehle zur
Verfügung steht. Der Taktzyklus ist der Kehrwert der Taktrate und wird
dementsprechend vorwiegend in Nanosekunden (ns) angegeben.
• 1 Sekunde = 1000 Millisekunden (ms)
• 1 Sekunde = 1 Million Mikrosekunden
• 1 Sekunde = 1 Milliarde Nanosekunden (ns)
Taktfrequenz

Die Taktfrequenz (=Taktrate; engl.: clock pulse) ist eine Massgrösse für die
Verarbeitungsgeschwindigkeit eines Prozessors und wird in Megahertz gemessen.
Durch die Verwendung einfacher, kurzer Maschinenbefehle und parallele
Verarbeitungseinheiten können die leistungsfähigsten 64-Bit-Mikroprozessoren heute
drei bis vier Befehle pro Takt ausführen. Bei einer Taktrate von 200 Megahertz sind dies
theoretisch 600 bis 800 Millionen Prozessorbefehle pro Sekunde (Ein-/Ausgabebefehle
dauern um ein Vielfaches länger).
Die Taktfrequenz wird in Megahertz (abgekürzt: MHz; 1 MHz = 1 Million Zyklen pro
Sekunde) gemessen.
Den zeitlichen Ablauf der Maschinenoperationen steuert ein Taktgeber (engl.: clock);
das ist ein Pulsgenerator (mit einer bestimmten Taktfrequenz) zur Synchronisierung von
Operationen.
Tele- /
Kommunikation
o Client
o Das OSI
o Middleware
o Netzwerk
o Netzwerkprotokolle
o Telekommunikation Hardware
Client/Server-Architektur

Unter der Client/Server-Architektur versteht man eine kooperative


Informationsverarbeitung, bei der die Aufgaben zwischen Programmen auf
verbundenen Rechnern aufgeteilt werden. In einem solchen Verbundsystem können
Rechner aller Art zusammenarbeiten. Server bieten über das Netz Dienstleistungen an,
Clients fordern diese bei Bedarf an.
Die Kommunikation zwischen einem Client-Programm und dem Server-Programm
basiert auf Transaktionen, die vom Client generiert und dem Server zur Verarbeitung
überstellt werden. Eine Transaktion ist eine Folge logisch zusammengehöriger
Aktionen, beispielsweise zur Verarbeitung eines Geschäftsvorfalls. Client und Server
können über ein lokales Netz verbunden sein oder sie können über grosse
Entfernungen hinweg, zum Beispiel über eine Satellitenverbindung, miteinander
kommunizieren. Dabei kann es sich um Systeme jeglicher Grössenordnung handeln;
das Leistungsvermögen des Clients kann das des Servers also durchaus übersteigen.
Grundidee der Client/Server-Architektur ist eine optimale Ausnutzung der Ressourcen
der beteiligten Systeme.
Abbildung: Zweistufige Client-Server-Architekturen

Der Server ist ein System, das für andere (Clients) Dienstleistungen erbringt. Solche
Dienstleistungen können zum Beispiel Datenverwaltung, Rechnen, Drucken,
Kommunikation und vieles andere sein.
Der Client nimmt die Dienstleistungen, die ein Server erbringt, in Anspruch. Solche
Dienstleistungen können zum Beispiel Datenverwaltung, Rechnen, Drucken,
Kommunikation und vieles andere sein.
Man spricht von einem aktiven Server, wenn von diesem sowohl die
Anwendungsfunktionen als auch die Datenhaltung übernommen werden. Der Client
übernimmt nur die Aufgabe der Repräsentation bzw. der Oberfläche.
Man spricht von einem passiven Server mit zentraler Datenhaltung, wenn von diesem
die Datenhaltung alleine übernommen wird, und der Client nur die Aufgaben der
Repräsentation bzw. der Oberfläche und der Anwendungsfunktionen übernimmt.
Kümmert sich hingegegn der Client auch um einen Teil der Datenhaltung, spricht man
von einem passiven Server mit dezentraler Datenhaltung.
In manchen Client/Server-Systemen können die Rollen zwischen Server und Klienten
austauschbar sein, so dass man hier von einem Peer-to-Peer-System spricht (engl.:
peer heisst "Gleichrangiger").
Downsizing bedeutet, dass Informationssysteme vom Grossrechner auf
kostengünstigere beziehungsweise effizientere Abteilungsrechner (Minirechner) und
Arbeitsplatzrechner (Personalcomputer und Workstations) ausgelagert werden. Da aber
nach wie vor betriebs- oder abteilungsübergreifende Datenbestände und Anwendungen
zentral gehalten werden müssen, setzt man bei grösseren Informationssystemen die
sogenannte Client-Server-Architektur ein.
Das OSI-Modell

Bei der Kommunikation zwischen zwei Rechnern müssen sich beide Rechner an ein
gemeinsames Protokoll halten. Das OSI-Modell wurde als Referenzmodell für solche
Netzwerkprotokolle im Jahre 1979 entwickelt. Die OSI ist ein Teil der ISO, weshalb das
Modell auch ISO/OSI-Modell genannt wird.
Das OSI-Modell ist kein verbindlicher Standard, sondern eher ein Grund- bzw.
Referenzmodell, das die Entwicklung und Beschreibung von Netzwerkprotokollen
vereinfachen soll. Daher ist das Modell auch sehr offen formuliert. Es geht bei diesem
Modell eher um die logischen Zusammenhänge als um eine konkrete Implementierung.
Die einzige zur Zeit bedeutende Implementation des OSI-Standards ist IBMs SNA, das
zur Vernetzung von Grossrechenanlagen benutzt wird.

Warum brauchen wir ein solches Modell ?

Damit zwei Rechner kommunizierren können sind eben nicht nur zwei Rechner und ein
paar Meter Kabel notwendig. Sondern es bedarf einer genauen Spezifikation, wie die
Software die Daten verpacken muss, damit die Hardware sie übertragen kann. Vor allen
Dingen aber damit sie auch beim richtigen Empfänger ankommen und dort auch richtig
interpretiert werden können.
Diese Spezifikation nennt man Protokoll. Das OSI-Modell beschreibt diese Protokolle
auf verschiedenen Ebenen. Durch die Einteilung in verschiedene Ebenen oder auch
Schichten ist es Möglich verschiedene Systeme anzupassen. So wird ein Datenpaket
von einem Rechner zum anderen mehrmals verändert oder sogar geteilt, ohne das der
Empfänger davon Kenntnis hat, ja er merkt es normalerweise noch nicht mal.

Was ist ein Schichtenmodell ?

Ein Modell hat die Aufgabe die Wirklichkeit abstrakt und möglichst allgemeingültig
abzubilden. Ein Schichtenmodell zerlegt den zu beschreibenden Gegenstand in
mehrere Schichten. Es besitzt einen hirarchischen Aufbau.
Die Schichtenbildung folgt dabei folgenden Prinzipien :
• Eine Schicht sollte dann definiert werden wenn ein neues Abstarktionsniveau
erreicht wird.
• Jede Schicht sollte eine wohldefinierte Funktionalität aufweisen.
• Jede Schicht sollte im Hinblick auf die Definition internationaler Standards für
Protokolle gewählt werden.
• Die Schichtgrenzen sollten im Hinblick auf die Definition internationaler
Standards für Protokolle gewählt werden.
• Die Schichtgrenzen sollten im Hinblick auf minimalen Informationsfluss über die
Schnittstellen erfolgen.
• Die Anzahl der Schichten sollte so gross wie nötig und so klein wie möglich sein.
• Die einzelnen Schichten eines solchen Modells bauen hirarchisch auf einander
auf. Jede Schicht besitzt eine Sammlung von Funktionen, zu denen
Schnittstellen existieren, die den angrenzenden Schichten bekannt sind.
Schicht Sn+1 nutzt den Dienst Dn der Schicht Sn über die definierte Schnittstelle. Die
Schicht Sn+1 hat dabei keine genauen Informationen über die Hintergründe der
Dienstes Dn , sie kennt und benutzt lediglich die Schnittstelle.
Hier werden wie in der Objektorientierten Programmierung die Methoden des
Infomation Hiding und der Data Abstraction angewandt. Der Anwender benutzt den
Dienst Dn also wie eine Black Box.
Ein Schichtenmodell hat folgende Eigenschaften:
• Aufbau einer hirarchischen Struktur
• Verbergen von Details. Also verbergen der Implementation (des Wie?).
• Weitergabe der Dienste (des Was?) über definierte Schnittstellen.
Auf diese Weise lassen sich herstellerunabhängige Systeme schaffen, bei denen die
einzelnen Schichten einfach ausgetauscht werden können ohne andere Schichten zu
verändern.

Das OSI-Schichtenmodell

Das OSI-Modell besteht aus 7 Schichten, die zur Kommunikation von Rechnern
erforderlich sind. Dabei ist gewährleistet, das Anwendungen die auf der obersten
Schicht aufsetzten unabhängig von Modell und Netzwerk funktionieren. Der Zugriff auf
das Netzwerk ist durch alle Schichten hindurch gewährleistet.

Abbildung: Das OSI-Schichtenmodell

Die eigentliche Übertragung verläuft entlang des durchgezogene Flusses, das heisst
auf der einen Seite von Schicht 7 runter zu Schicht 1 und auf der anderen Seite wieder
hoch von Schicht 1 zu Schicht 7. Die logische Verbindung verläuft nach dem Modell
entlang der gestrichelten Linien, also z.B. von einer Schicht des Senders zur selben
Schicht des Empfängers.
Jede Schicht unterhält also mit ihrem "Partner" eine sogenannte Peer-to-Peer-
Verbindung. Diese horizontalen Verbindungen bestehen natürlich nur virtuell.
Eine Information die von einem System zum anderen übertragen werden soll muss
zuerst von der obersten Schicht durch alle darunterliegenden Schichten durchegereicht
werden, bevor sie über das physiaklische Medium übertragen wird. Dabei wird die
Information in jeder Schicht um Protokollinformationen erweitert, die auf dem Zielsystem
von der entsprechenden Schicht wieder entfernt werden. Die Information kommt so
korrekt in Schicht 7 der Gegenseite an.
Jede Schicht hängt also den Daten, die ihr von der darüberliegenden Schicht
übergeben werden einen eigenen Protokoll-Overhead an und entfernt diesen wieder bei
den von unten kommenden Paketen. Damit ist klar, dass nur solche Systeme
miteinander kommunizieren können, wo die Schichten in der Lage sind den jeweiligen
Protokoll-Overhead wie Prüfsummen und Zieladresse richtig zu interpretieren. Dieser
Sachverhalt kommt bei Netzübergängen, also Schnittstellen zwischen Systemen die
sich normalerweise nicht verstehen würden erst richtig zum Tragen. Ein Router z.B. ist
in der Lage ein Datenpaket eines LANs so umzuwandeln, dass man es über eine ISDN-
Strecke in ein anderes LAN übertragen kann.

Abbildung: Der Schichtenweg

Die Schichten

Wie sich aus der Abbildung erkennen lässt sind die drei oberen Schichten
anwendungsorientiert und die unteren vier transportorientiert. Diese Unterscheidung
spielt bei direkt miteinander verbundenen Systemen keine Rolle. Anders ist dies, wenn
wie in der folgenden Abbildung ein oder mehrere Netzübergänge dazwischen sind.
Wie später noch klar wird sind die anwendungsorientierten Schichten in realen
Implementationen meistens nicht näher definiert und ihre Realisation und Kontrolle
obliegt der Anwendung. Die realen Implementationen der tarnsportorientierten
Schichten lassen sich meist sehr gut in dem Modell darstellen.
Bei einer Netzstruktur bauen die unteren drei Schichten lediglich eine virtuelle
Verbindung zum Netzknoten auf. Der Netzknoten ist für die Anpassung der
Datenpakete an das jeweilige Subnetz zuständig. Dadurch wird die Verbindung für dir
Schicht vier und alle oberhalb liegenden transparent. Diese Schichten unterhalten ihre
virtuellen Verbindungen direkt zur Gegenstelle.
Für die anwendungsorientierten Schichten ist das darunterliegende Transportsystem
immer transparent, das heisst sie unterhalten ihre Verbindungen grundsätzlich mit der
Gegenstelle.
Die Definition der Transportschichten ist streng hirarchisch und restriktiv, die
Anwendungsschichten hingegen arbeiten auch schon mal parallel oder werden in der
Implementation zusammengefasst.

Die Schichten im Einzelnen

1. Bitübertragungsschicht / Physikalische Ebene / Physikal Layer


Die physikalische Ebene ist die einzige Ebene die direkten Kontakt zum
physichen Übertragungsmedium hat. Sie ist für die elektrische und mechanische
Definition verantwortlich. Hier werden Signalpegel, Stecker sowie Anordnung und
Anzahl der Kontakte definiert. Diese Schicht ist die einzige die unstrukturierte
Bitströme sendet und empfängt.
Meistens benutzt man in dieser Schicht das Ethernet nach IEEE 802.3. Das
klassische Ethernet besteht aus einem Koaxial-Kabel, dem Bus, mit dem die
Rechner durch einen Transceiver verbunden sind. Eine der Bestimmungen ist
z.B. dass das Kabel nicht länger als 180m sein darf. Weiter Implementationen
sind Token-Ring nach IEEE 802.5 und RS232C (die serielle Schnittstelle am
PC).

2. Sicherungsschicht / Datenverbindungsebene / (Data) Link Layer


Die Sicherungsschicht ist für die Fehlererkennung und -Behebung zuständig. Sie
teilt den von oben kommenden Bitstrom in sogenannte Frames ein und
kontrolliert den Fluss, damit die Gegenseite die Frames wieder zu einem
Bitstrom zusammensetzten kann. Diese Segmentierung des Datenstromes
ermöglicht eine bessere Fehlerkontrolle und -Behebung. Ausserdem verhindert
die Framebildung das eine Station das Medium beliebig lange belegt.
Weiterhin hat die Sicherungsschicht die Aufgabe die Eigenarten der Hardware
vor den oberen Schichten zu verbergen und für diese eine
Herstellerunabhängige Schnittstelle zu schaffen. In der Regel ist diese Schicht
als Kartentreiber implementiert.
Die IEE 802.3 befasst sich ebenfalls mit dieser Ebene. Genau genommen
definiert die IEE 802.3 die physikalische Ebene und den medium access
sublayer (MAC) desd Ethernet. Der MAC ist der untere Teil der
Datenverbindungsebene. Der obere Teil wird durch den Logical Link Control
(LLC) abgedeckt, welcher ebenso bei Token-Ring benutzt wird und in IEEE
802.2 beschrieben wird. Bei dieser Implementierung schafft also der LLC schon
eine Herstellerunabhängigkeit zwischen Ethernet und Token-Ring.

3. Vermittlungsschicht / Netzwerkebene / Network Layer


Die Vermittlungsebene schafft eine Verbindung zwischen Geräten. Sie ist in
einfachen Netzen, bei denen die Endgeräte direkt miteinander verbunden sind
eigentlich nicht notwendig. Allerdings in komplexen und heterogenen Netzen ist
diese Schicht für die Auswahl des geeigneten Transportweges verantwortlich.
Sie besitzt also die Logik um die Daten über mehrere Zwischenknoten zum
Endsystem zu befördern. Da diese Schicht eine Verbindung zwischen Geräten
herstellt nennt man diese Verbindung Ende-zu-Ende-Verbindung zwischen
Geräten, diese Geräte müssen allerdings nicht zwingend die Endgeräte sein. Die
Wegewahl bezeichnet man als Routing. Dabei unterscheidet man:
o statisches Routing - Die Zwischenknoten führen eine Tabelle mit Wegen.
o dynamisches Routing - Die Zwischenknoten entscheiden auf Grund der
Netzlast über den besten (schnellsten) Weg.
Ein weiterer Dienst dieser Schicht ist es Netzwerke unterschiedlicher Topologien
zu einem homogenen Netzwerk zu verbinden, wie z.B. ein Ethernet Subnetz mit
einem Token-Ring Subnets. Systeme dieser Art werden auch Bridges genannt.
Die so entstandenen Netzwerke bezeichnet man als Internets. Man beachte
allerdings den feine Unterschied zwischen einem Internet und dem weltweiten
Internet. Letzteres ist der ofizielle Name eines Internets, wenn auch des mit
Sicherheit grössten.
Um die Illusion eines einzigen Netzwerks für die höheren Schichten aufrecht zu
erhalten verbirgt die Vermittlungsschicht die unterschiedliche Ausstattung durch
eine abstrakte Schnittstelle, die die selben Funktionen für die gesamte Hardware
zur Verfügung stellen. In diese Schicht kann man aus der Protokoll-Familie
TCP/IP das IP-Protokoll einordnen, dass für das statische Routing in TCP/IP-
Netzen zuständig ist.
Dynamisches Routing gewährleisten auf Unix-Maschinen sogenannte Routing-
Daemon-Prozesse. Diese Daemon-Prozesse verändern die statischen Tabellen
auf Grund von Informationen die sie von Routing-Daemonen anderer Rechner
erhalten. Hier wird in kleinen Netzwerken auf TCP/IP-Basis meist das Routing
Information Protokoll (RIP) eingesetzt. Ebenfalls in diese Schicht fällt ein
weiteres Protokoll der TCP/IP-Familie, das Internet Control Message Protokoll
(ICMP).

4. Transportschicht / Transport Layer


Diese Schicht ist für den Auf- und Abbau von Verbindungen zwischen Prozessen
Verantwortlich. Sie ist die einzige transportorientierte Schicht die immer eine
direkte Verbindung zu einem Prozess auf dem Endgerät unterhält. Ihre Aufagbe
ist es den darüberliegenden Schichten die zwingend notwendige unabhängigkeit
von der benutzten Hardware und den eigenarten der Topologie zu gewährleisten.
Ausserdem kontrolliert sie den Fluss der Daten um sich an die Sende- und
Empfangsgeschwindigkeit der Gegenstelle anzupassen. Die Transportschicht
besitzt auch einen Mechanismus zur Erkennung und Behebung von Fehlern die
von der Sicherungsschicht nicht erkannt worden sind. Ob eine Verbindung über
ein WAN oder ein LAN geht ist für die Transportschicht uninteressant. Da diese
Schicht eine Verbindung zwischen Prozessen auf den Endgeräten herstellt. Bei
dieser Verbindung spricht man auch von einer Ende-zu-Ende-Kommunikation.
Die Transportschicht erkennt z.B. eine falsche Reihenfolge, Verdopplung oder
Verlust von Datenpaketen.
Im Bereich TCP/IP kann man die drei Protokolle TCP, UDP und RAW in dieser
Ebene ansiedeln. TCP ist ein sogennanter stream-basierter Service, d.h. die
Kontrolle über die Reihenfolge der Datenpakete und die Betsätigung der Ankunft
eines Datenpaketes obliegt dem Protokoll. Dieser Service lässt sich am ehesten
mit einem Dateizugriff vergleichen, bei dem man sich auch nicht darum kümmern
muss ob die Daten korrekt in der Steuerelektronik der Festplatte angekommen
sind.
UDP ist ein Datagramm-basierter Service, bei dem die Anwendung die Kontrolle
der Reihenfolge und der Bestätigung des Datenempfangs übernehmen muss.
Das RAW-Protokoll wird nur für Daten auf IP-Ebene benutzt und hat im
Anwendungsbereich keine Bedeutung. Bei der TCP/IP-Familie wird der richtige
Prozess auf dem Empfangsgerät durch sogenannte Ports identifiziert, die auch
als Sockets bezeichnet werden.

5. Kommunikationssteuerungsschicht / Steuerungsebene / Session Layer


Als unterste anwendungsorientierte Schicht nutzt sie als erstes die von unten
bereitgestellten Datentransportdienste. Sie ist die letzte Ebene auf der noch mit
logischen und nicht mit physikalischen Namen gearbeitet wird. Die
Steuerungsebene ist für die synchronisation des Dialogs zuständig. Sie sorgt
ebenfalls für eine Resynchronisation wenn der Datenstrom abbricht. Ausserdem
baut sie die Verbindungen zwischen den Anwendungen auf und ab.
Die TCP/IP-Protokoll-Familie sieht für die anwendungsorientierten Schichten
keine Standard-Implementation vor. Jede Anwendung muss also ihr eigenes
Protokoll auf dieser und allen höheren Schichten definieren. Ein Beispiel hierfür
ist SMTP. Bei diesem Protokoll werden Zeilen durch Carriage-Return und
Linefeed abgeschlossen. Der Empfänger quitiert den Empfang durch eine
dreistellige oktale Zahl.

6. Darstellungschicht / Anpassungsebene / Presentation Layer


Diese Schicht bietet dem Anwendungsprogramm die Schnittstelle zum Netzwerk.
Während die weiter unten liegenden Schichten nur noch mit Bitströmen arbeiten,
ist für diese Schicht noch die volle Syntax der Daten relevant. Sie transformiert
die Daten in ein systemunabhängiges Übertragungsformat. Zu ihren Aufgaben
gehören also das Formatieren, Verschlüsseln und Komprimieren der Daten. Auf
der Gegenseite sorgt sie für die Wiederherstellung der Daten im dortigen
plattformspezifischen Format.
Auch für diese Schicht müssen TCP/IP-Anwendungen selbst sorgen. FTP sieht
hier eine Darstellung von ASCII-Text-Dateien vor, die einen Transfer zwischen
unterschiedlichen Systemen erlaubt (z.B. DOS und UNIX). Telnet definiert in
dieser Schicht ein virtuelles Terminal, das maschinenunabhängige Steuerbefehle
entgegennimt.

7. Anwendungsschicht / Verarbeitungsebene / Application Layer


Die Anwendungsschicht bildet die Schnittstelle zwischen der eigentlichen
Anwendung und der Übertragungstechnik, sie ist Teil der Anwendungssoftware
und ermöglicht eine Hard und Softwareunabhängige Programmierung der
Anwendung. Sie ist gleichzeitig Ausgangs- und Zielpunkt der Daten. In dieser
Schicht wird das eigentliche Ziel von OSI verwirklicht, diese Schicht stellt dem
Endbenutzer die Kommunikationsdienste zur Verfügung. Die untergeordneten
Schichten dieses Modell existieren nur um die Dienste der Anwendungsschicht
zu ermöglichen.
Dienste der Anwendungsschicht sind z.B. Dateiübertragung und
Dateiverzeichnistätigkeiten, Nachrichtenübertragungs- und -Verwaltungsdienste
sowie Auftragsübertragung und remote Auftragsverwaltung.

Pro und Kontra OSI-Modell

Das Modell definiert nur das Was?, das heisst die eigentlichen Funktionen werden
unabhängig von Herstellern und Protokollen. Das Modell gibt allerdings keine Garantie
dafür, dass zwei Systeme kommunikationsfähig sind, es müssen auch gkleiche oder
sich entsprechende Protokolle auf beiden Seiten verwendet werden. Erst dadurch sind
die schon öfter erwähnten virtuellen Verbindungen möglich.
Neben dem OSI-Modell haben sich diverse andere Protokolle und Protokollfamilien, wie
z.B. TCP/IP durchgesetzt, die sich nicht unbedingt an den OSI-Standard halten.
Aufgrund ihrer Verbreitung und durch die Veröffentlichung der Definitionen sind sie
allerdings ebenfalls herstellerunabhängig.
Das OSI-Modell ist in der Theorie entstanden und deshalb nicht sehr praxisgerecht. Die
Forderungen sind oft schwer umzusetzen und Funktionen tauchen in mehreren
Schichten auf. Dadurch ist eine Eindeutige Zuordnung einzelner Funktionen oft nicht
möglich. Diese Probleme führen dazu, dass die Implementation meist sehr langsam
wird.
Weiterhin verliert das Modell immer mehr an Aktualität. Multiprotokollumgebungen,
parallel arbeitende Netzwerkkarten und intelligente Treibersoftware sind nur einige
Beispiele dis sich nicht mehr in das OSI-Modell zwängen lassen. Trotzdem erleichtert
das OSI-Modell immer noch das Verständnis von Zusammenhängen im
Netzwerkbereich. Deshalb taucht es auch sehr oft in Zusammenhang mit Erklärungen
auf, wenn auch in manchmal in abgewandelter Form.
Middleware

Die Trennung von Benutzungsoberfläche (Client) und angebotenen Diensten (Server),


die Möglichkeit, bestimmte Dienste mehreren Clients zugänglich zu machen, und die
Verteilung mehrerer Clients und Server in einem Netzwerk sind eindeutig Argumente,
die für eine Client/Server-Architektur sprechen. Allerdings ist dieses Modell nur dann
sinnvoll anwendbar, wenn die Clients und der Server mit denselben
Kommunikationsstandards arbeiten. Dies ist jedoch aufgrund der Heterogenität der
verschiedenen Systeme häüfig nicht der Fall.
Die Entwicklung von Client/Server-Anwendungen in heterogenen Netzen stellt
besonders hohe Anforderungen an die Softwareentwicklung. Middleware bietet eine
Möglichkeit, den Anwendungsentwickler zu unterstützen. Sie erlaubt den Maschinen
eine Kommunikation und Interoperabilität unter Verwendung eines definierten
Application Programming Interface. Das heisst mit der Middleware werden die
Unterschiede zwischen unterschiedlichen Hardware-Plattformen, Betriebsystemen und
Protokollen versteckt. Für den Benutzer ergibt sich daher eine einheitliche Sicht auf das
heterogene Netz.
Aus diesem Grund hat sich die OMG (Object Management Group), eine private
Standardisierungsorganisation, zusammengesetzt, um einen Standard für die
Kommunikation in heterogenen Netzen zu definieren. Das Ergebnis dieser
Bemühungen ist CORBA (Common Object Request Broker Architecture), ein globales
Konzept, das die Interoperabilität von Applikationen unabhängig vom Betriebssystem
und der verwendeten Programmiersprache zum Ziel hat. In diesem Konzept
kommunizieren Client und Server mit Hilfe von Objekten aus einem zentralen Object-
Repository miteinander.

CORBA

Der Object Request Broker (ORB) ist das von ein universelles Kommunikationsmedium
für beliebig geartete Objekte in verteilten heterogenen Systemen. ORB zeichnet sich
durch folgende Eigenschaften aus:
• Objektorientierung.
Die grundlegenden Einheiten der Architektur sind Objekte, wobei ein Objekt eine
beliebige, eindeutig identifizierbare Einheit ist, also nicht notwendigerweise ein
Objekt im Sinne einer Programmiersprache.
• Verteilungstransparenz.
CORBA-Programme greifen auf entfernte Objekte mit denselben Mechanismen
zu, wie auf lokale Objekte. Der genaue Aufenthaltsort eines Objekts bleibt für
seine Klienten in der Regel unbekannt.
• Effizienz.
Die Architektur für den ORB ist bewusst so gehalten, dass effiziente
Implementationen möglich sind, die z.B. im Falle rein lokaler Kommunikation
dem traditionellen Funktionsaufruf nur unwesentlich nachstehen.
• Hardware-, Betriebssystem- und Sprachunabhängigkeit.
Die Komponenten eines CORBA-Programms können auf verschiedenen
Betriebssystemen, Hardwarearchitekturen und mit verschiedenen
Programmiersprachen realisiert werden.
• Offenheit.
Über den ORB können Programme verschiedener Hersteller zusammenarbeiten
und sogar ORB's verschiedener Hersteller miteinander kommunizieren. Der
Anwender erhält dadurch die Freiheit, jede Komponente einzusetzen, die seinen
individuellen Bedürfnissen am besten gerecht wird. Softwareentwickler erhalten
die Chance, am zukunftsweise und unabhängig zu programmieren und Angebote
grosser Firmen mit spezialisierten Produkten zu ergänzen.

Die Spezifikation

Es existieren folgende Komponenten:


• Object Request Broker (ORB)
Stellt Dienste zur Verfügung, über die die Kommunikation zwischen Clients
(Einheiten, die von Objekten bereitgestellte Methoden nutzen) und Server
(Objektimplementierungen) abgewickelt wird. Diese Dienste legt CORBA 1.x fest.
CORBA 2.0 spezifiziert zusätzlich den Kommunikationsmechanismus zwischen
ORBs verschiedener Hersteller.
• Object Services
Grundlegende Operationen für die logische Modellierung und physikalische
Speicherung von Objekten (z.B Funktionen zur Erstellung, Modifizierung, Kopie,
Bewegung und Löschung von Objekten, automatische dauerhafte Aufbewahrung
von Objekten auf Speichermedien). Die Object Services werden mit der Common
Object Services Spezification (COSS) von der OMG festgelegt.
• Common Facilities
Sammlung von Klassen und Objekten, die allgemein nützliche, höherwertige
Dienste für unterschiedliche Anwendungsarten (z.B. CAD/FiBu) bzw. mehrere
Programmdienste (z.B. GUI-Funktionalität, Druckerdienste) enthalten. Im
Gegensatz zu den Object Services müssen diese nicht in jedem OMG-
konformen Produkt bereitstehen. Ein Beispiel hierfür ist OpenDoc, ein offener
Standard für Verbunddokumente basierend auf IBM's SOM/ DSOM und Apples
Bento-Technologie.
• Application Objects
Stellen die eigentlichen Anwendungsobjekte wie Textverarbeitung oder CAD dar.
Sie unterliegen keiner Standardisierung.
Arbeitsweise

Der ORB fungiert als Telefonzentrale in einem verteilten System. Er stellt Dienste für
die Initialisierung und Auffindung von Zielobjekten und für die Übermittlung von
Methodenaufrufen (requests) und deren Resultaten zwischen Clients und Zielobjekten
zur Verfügung.
Die Schnittstelle, die der Client sieht, ist unabhängig von der Position des Zielobjektes
und von der Programmiersprache, in der das Zielobjekt realisiert ist. Dieses Ziel wird
über die Schnittstellen-Definitionssprache IDL (Interface-Definition-Language) erreicht.
Diese beschreibt Zielobjekte mit ihren Methoden und Attributen (Werten) in einer
programmiersprachenunabhängigen Form, die aber keinerlei Anweisungen enthält. Die
Bereitstellung der Dienste des ORB erfolgt in Form von Objekten, die ebenfalls mit Hilfe
der IDL definiert wurden.
Die IDL ähnelt der Struktur von in C++ realisierten Klassendefinitionen. Das CORBA-
Objektmodell unterstützt Einfach- auch und Mehrfachvererbung, Attribute und
Methoden können allerdings nicht überladen werden. Aus der Beschreibung eines
Zielobjektes mittels IDL erstellt der IDL-Compiler IDL-Stubs (werden für den Aufrufer
benötigt) sowie IDL-Skeletons (für die Objektimplementierung benötigt) in der
verwendeten Programmiersprache.
Ein Methodenaufruf spezifiziert einen Methodennamen, das Zielobjekt, Parameter und
einen optionalen Kontext. Dieser Kontext enthält Informationen über die Position des
Aufrufers. Ausserdem werden hier eventuelle Fehlerrückmeldungen übergeben. Ein
Client hat zwei Möglichkeiten einen Methodenaufruf an ein Zielobjekt zu übermitteln:
• über den vom IDL-Compiler erstellten IDL-Stub, der zur Kompilierzeit zu seinem
Code dazugebunden wird.
• über eine Abfrage des ORB nach Informationen über vorhandene Schnittstellen
und Objekte. Mit diesen Informationen kann der Client mit Hilfe des Dynamic
Invocation Interface (DII) dynamisch einen Methodenaufruf aufbauen und
übermitteln.
Zusätzlich kann ein Client verschiedene Dienste des ORBs über das ORB Interface
nutzen (Objekte erstellen und löschen, Referenzen bzw. Namen von Objekten zur
Wiederauffindung abfragen, u.a.). CORBA ist prinzipiell auf synchrone
Nachrichtenübermittlung ausgelegt. Das heisst eine Aufruf an ein Objekt wird es mit der
Rückgabe der Wert beendet.
Es kann aber ein One-way-request ausgelöst werden, bei dem der Aufrufer die
Beendigung nicht abwarten muss, es dürfen aber von der Methode keine Ergebnisse
zurückgeliefert werden. Zudem kann ein 'deferred synchronous request' erzeugt
werden, bei dem der Aufrufer weiterarbeiten kann und später das Ergebnis der
Methodenausführung abfragt.
Netzwerk-Topologien

Busstruktur

Das lineare Netzwerk besteht aus mehreren Stationen,


die hintereinander oder nebeneinander in Reihe
angeordnet sind. Der Datenverkehr nimmt in der Mitte
dieser Kette stark zu. Fällt eine Station aus, dann ist
das Netzwerk unterbrochen und teilt sich in zwei Teile.

Ringstruktur

Das zirkulare Netzwerk besteht aus mehreren


Stationen, die als geschlossener Ring angeordnet sind.
Dabei unterhält jede Station je eine Verbindung zu
zwei anderen Stationen. Wird der Ring unterbrochen
entsteht ein lineares Netzwerk. Alle Stationen bleiben
in Betrieb.

Sternstruktur

Das zentrale Netzwerk hat eine zentrale Station, die zu


allen anderen Stationen jeweils eine Verbindung
unterhält. Die Datenbelastung der zentralen Station ist
sehr hoch, da alle Netzverbindungen darüber laufen.
Das Netzwerk funktioniert so lange, bis die
Zentralstation ausfällt. Das zentrale Netzwerk ist leicht
erweiterbar, und einfach zu pflegen.

Hierarchische Struktur

Das hierarchische Netzwerk besteht aus mehreren


linearen und zentralen Netzwerken, die miteinander
verbunden sind. Das Bild, daß sich daraus ergibt, sieht
einer Verästelung eines Baumes gleich. Je mehr das
Netzwerk verzweigt, desto aufwendiger und
kostenintensiver wird es.
Dezentrale Struktur

In einem dezentralen Netzwerk gibt es keine


verbindliche Struktur. Die Verbindung zwischen zwei
Stationen wird nach Bedarf und Datenaufkommen auf-
und abgebaut. Bei Ausfall einer Verbindung gibt es im
Regelfall einige alternative Strecken, um den
Datenverkehr fortzuführen. Die Struktur des
dezentralen Netzwerkes entspricht einem Chaos an
verschiedensten Systemen und Übertragungsstrecken.

Allen LAN-Typen ist gemein, dass man für den Anschluss an das Netzwerk natürlich
über entsprechende Hardware, in den meisten Fällen eine Netzwerkkarte des jeweiligen
Typs im lokalen Rechner, verfügen muss.

Ethernet

Das Ethernet wurde 1973 am Xerox PARC als Teil eines umfangreichen
Forschungsprojektes für verteilte Systeme entwickelt und sollte die Vorteile einer
schnellen, lokalen Vernetzung mit niedrigen Fehlerraten und ohne Verzögerungen
aufzeigen.
Auf Grund seiner Einfachheit hat Ethernet bis heute eine starke Verbreitung gefunden
und ist in seinen Variationen in sehr vielen LANs anzutreffen.

Thick Ethernet

Das Original-Ethernet (festgelegt im Standard IEEE 802.3) besteht aus einem Koaxial-
Kabel mit einem halben Zoll (1,27 cm) Durchmesser, an das die Rechner über
sogenannte Transceiver angeschlossen sind. An jedem Ende des Kabels befindet sich
ein Endwiderstand von 50 Ohm, der auch als Terminator bezeichnet wird (siehe
Abbildung). Über ein derartiges Netzwerk lassen sich Geschwindigkeiten bis 10 Mbps
(Megabit pro Sekunde) erreichen.
Ein Kabel mit einem derartigen Durchmesser ist etwas unhandlich, daher wird diese Art
des Ethernets auch als Thick Ethernet oder 10Base5 bezeichnet.

Thin Ethernet (10Base2)

Das beim Thin Ethernet verwendete Koaxialkabel ist dünner, billiger und einfacher zu
handhaben. Der Anschluss an die Netzwerkkarte des Rechners erfolgt über ein
sogenanntes T-Stück, an das links und rechts ein Netzwerkkabel angeschlossen wird,
während die "untere" Seite des T's mit der Netzwerkkarte verbunden ist.
Am Anfang und am Ende des Kabelstrangs befinden sich auch hier Endwiderstände
von 50 Ohm. Die Steckverbindungen erfolgen über BNC-Anschlüsse. Mit einem Thin
Ethernet kann man Geschwindigkeiten bis 10 MBit erreichen.

10BaseT

Im Gegensatz zum normalen Thin-Ethernet mit seiner Busstruktur ist ein 10BaseT-Netz
sternförmig aufgebaut. Von einem Verteiler, dem sogenannten Hub, führen Twisted-
Pair-Kabel zu den einzelnen Rechnern. Der Anschluss erfolgt über RJ45-Stecker, wie
sie auch oft bei Telefonen verwendet werden.
Diese Verkabelungsart beseitigt einen gravierenden Nachteil der Busstruktur. Wird der
Bus nämlich an einer Stelle unterbrochen (sei es durch ein defektes Kabel oder eine
übereifrige Reinigungskraft), ist das Netzwerk vollständig lahm gelegt. Bei einer
sternförmigen Verkabelung ist bei einem Kabelschaden nur ein Rechner betroffen, die
anderen können ganz normal im Netz weiterarbeiten.
Wäre 10BaseT nicht aufwendiger und teurer als die Koaxialverkabelung, wäre letztere
sicher schon ganz von der Bildfläche verschwunden.

Fast Ethernet (100BaseT)

Der Aufbau eines Fast Ethernets ähnelt stark dem eines 10BaseT-Netzes. Jedoch
müssen aufgrund der höheren Datengeschwindigkeit von 100 Mbps aufwendigere
Twisted-Pair-Kabel der Kategorie 5 verwendet werden. Neben dem Hub müssen
natürlich auch die eingesetzten Netzwerkkarten für eine Geschwindigkeit von 100 Mbps
vorgesehen sein.

Gigabit Ethernet

Übertragungsraten von bis zu 1000 Mbps erreicht man mit Hilfe von geschirmten
Kabeln (Shielded Twisted Pair - STP) bzw. Glasfaserleitungen. Netzwerkkarten und
Hubs für derartige Geschwindigkeiten müssen wesentlich aufwendiger konstruiert sein
und sind dementsprechend teuer.
Da kaum ein Rechner einen Datenstrom von 1 Gbps (enspricht 125 MByte pro
Sekunde!) verarbeiten kann, werden Gigabit Ethernets vor allem als Backbone-
Leitungen verwendet, die ganze Netzwerke miteinander verbinden.
Die folgende Tabelle zeigt eine Übersicht über alle Ethernet-Varianten:

Ethernet- Anschluss am
Geschw. max.Länge Struktur Kabelart
Typ Rechner

Koaxial (Thin BNC-Buchse, T-


10Base2 10 Mbps 185 m Bus
Ethernet) Stück
Koaxial (Thick AUI-Buchse,
10Base5 10 Mbps 500 m Bus
Ethernet) Transceiver
10BaseF 10 Mbps 2000 m Bus Glasfaser Optokoppler
Twisted Pair,
10BaseT 10 Mbps 100 m Stern RJ45-Anschluss
Kat. 3
100 Twisted Pair,
100BaseT 100 m Stern RJ45-Anschluss
Mbps Kat. 5
Gigabit- Spezieller
1 Gbps 100 m Stern STP, Kat. 6
Eth. Anschluss
Gigabit-
1 Gbps 500 m Stern Glasfaser Optokoppler
Eth.

Funktionsweise

Neben der Verkabelung ist es natürlich interessant zu wissen, was auf einem Ethernet-
Kabel eigentlich passiert. Jedes Gerät im Ethernet hat eine eindeutige Hardware-
Adresse von 6 Bytes Länge, die auch als MAC-Adresse bezeichnet wird. Diese Adresse
hat nichts mit den IP-Nummern des TCP/IP-Protokolls zu tun (zumindest nicht direkt)
und auch nicht mit den Computern der Firma Apple (auch nicht indirekt). Pakete im
Ethernet enthalten immer die Hardware-Adresse des Senders und des Empfängers.
Das Versenden von Daten erfolgt über sogenanntes Packet Broadcasting, d.h jedes
Paket wird einfach auf das Kabel gesendet. Alle anderen Stationen erhalten bzw.
`sehen' dieses Paket, es wird jedoch nur von dem festgelegten Empfänger
entgegengenommen und verarbeitet.
Wenn zwei Stationen gleichzeitig Daten senden, kommt es konsequenterweise zu
Paketkollisionen (Natürlich rumst es nicht im Kabel, sondern die elektrischen Impulse
der beiden Sender überschneiden sich und werden damit unbrauchbar). Das Ethernet
definiert drei Varianten, mit diesem Verhalten umzugehen:
Die Stationen "lauschen" ständig am Bus und merken so, ob auf dem Kabel
Datenverkehr stattfindet. Eine Station sendet erst, wenn keine Signale mehr auf dem
Kabel liegen, um die laufende Übertragung nicht zu zerschmettern.
Sollten zwei Stationen genau zum selben Zeitpunkt mit dem Senden beginnen, kommt
es trotzdem zur Kollision. Während eine Station sendet, prüft sie gleichzeitig auf dem
Empfangskanal, ob die Signale korrekt versendet wurden. Da alle Stationen im Netz
einschliesslich der Sendenden die Signale empfangen, stellt dies kein Problem dar.
Erkennt die sendende Station nun, dass die Daten nicht korrekt übertragen werden,
handelt es sich wahrscheinlich um eine Kollision. Die sendende Station schickt ein
Kollisionssignal in das Kabel, was bewirkt, dass alle Stationen im Netz ihre
Sendetätigkeit abbrechen (die ja vorhanden sein muss, sonst hätte es keine Kollision
gegeben). Nach einer zufällig bestimmten Zeit, versucht die Station wieder zu senden.
Die andere Station, mit der es zur Kollision kam, hat eine andere Zufallszeit ermittelt
und wird dann merken, dass das Netz bereits belegt ist. Sollten beide Stationen
trotzdem wieder zur selben Zeit senden, was extrem unwahrscheinlich ist, beginnt das
Spiel eben wieder von vorn.
Als Sicherungsmassnahme wird die Prüfsumme eines Ethernet-Paketes (korrekt heisst
es Ethernet-Frame) mit dem tatsächlichen Inhalt verglichen. Kommt es dabei zu
Unstimmigkeiten, wird das Paket vom Empfänger abgewiesen.

Token Ring

Token-Ring-Netze wurden relativ früh entwickelt, sind jedoch nicht so stark verbreitet
wie andere LAN-Technologien. Die logische Struktur dieses Netztyps entspricht, wie der
Name schon sagt, der eines geschlossenen Ringes. Die tatsächliche Struktur muss
dem nicht entsprechen, Token-Ring-Netze sind auch mit sternförmiger Verkabelung
möglich. Beschränken wir uns aber auf die Art der Datenübertragung.
Um die Funktionsweise von Token-Ring-Netzwerken zu verstehen, kann man das
Beispiel eines Güterzuges heranziehen, der immer wieder eine Kreisstrecke befährt und
regelmässig an allen Stationen vorbeikommt. Die Lokomotive stellt hierbei das
sogenannte Token-Paket \index{Token} dar. Je nachdem ob Waggons, also Daten,
angehangen wurden, wird die Lokomotive als frei oder belegt gekennzeichnet. Möchte
eine Station nun Daten versenden, prüft sie, ob das Token frei ist. Ist dies der Fall, wird
das Token als belegt gekennzeichnet, mit der Zieladresse versehen und die Daten
angehängt. Unser Zug fährt weiter im Kreis, bis er die festgelegte Zielstation erreicht hat
und trennt sich dort von seinen Daten. Das Token wird wieder als frei gekennzeichnet
und kann erneut Daten transportieren.
So geht das Token ständig von Rechner zu Rechner. Ist der Inhalt des Datenpakets
nicht für den jeweiligen Rechner bestimmt, sendet er das Token weiter. So ist
gewährleistet, dass jede Station die gleichen Chancen hat, Daten senden zu können.
Anders als beim Ethernet gibt es hier nicht das Problem mit den Paketkollisionen, da ja
immer nur ein Paket unterwegs ist.

FDDI

Die Abkürzung FDDI steht für Fiber Distributed Data Interconnect. Dieser Netzwerktyp
überträgt seine Daten nicht über Kabel, sondern über Lichtimpulse auf
Glasfaserleitungen. Dies hat den Vorteil, dass die Datenübertragung nicht durch
elektromagnetische Störungen beeinflusst werden kann, ausserdem ist mit
Lichtimpulsen eine höhere Datenübertragunsrate möglich als bei elektrischen Signalen.
Ein FDDI-Netz ist ein Token-Ring-Netzwerk \index{Token Ring} mit einer Bandbreite
von 100 Megabit pro Sekunde. Um Störungen automatisch beheben zu können, besteht
ein FDDI-Netz aus zwei in entgegengesetzte Richtungen laufenden Ringen. Der
Datenverkehr erfolgt wie bei jedem Token-Ring-LAN über ein Token, dass ständig im
Kreis läuft. Im normalen Betrieb wird von den zwei vorhandenen Ringen lediglich einer
genutzt.
Interessant wird das Verhalten von FDDI, wenn ein Hardware-Fehler im Netz auftritt.
Wenn ein Gerät bemerkt, dass eine Kommunikation zu einem anderen Gerät im Netz
nicht möglich ist, benutzt es automatisch den zweiten Ring, um den aufgetretenen
Defekt zu umgehen. Wird der Ring also aus welchen Gründen auch immer an einer
Stelle unterbrochen, leiten die zwei benachbarten Station den Datenverkehr
automatisch auf den zweiten Ring um.

ATM - Asynchronous Transfer Mode

Bei ATM handelt es sich um eine verbindungsorientierte


Hochgeschwindigkeitsnetzwerk-Technologie, die sowohl in loakeln Netzen als auch in
WANs zum Einsatz kommt. Üblichweise meint "Hochgeschwindigkeit" Netzwerke mit
Datentransferraten von 100 Mbps und höher. ATM kann je nach darunterliegender
Netzwerktechnik Transferraten bis in den Gigabit-Bereich erreichen. Entsprechend
teuer ist auch die für ATM erforderliche Hardware.
Um derartig hohe Geschwindigkeiten erreichen zu können, verwendet ATM mehrere
spezielle Hardware- und Software-Techniken:
• Ein ATM-Netzwerk besteht aus einem oder mehreren ATM-Switches, die mit
Host-Rechnern oder wiederum mit weiteren ATM-Switches verbunden sein
können.
• ATM benutzt optische Medien wie Glasfaserleitungen zur Datenübertragung,
auch als Verbindung zwischen Hosts und ATM-Switch.
• Pakete (sog. Cells) in der untersten Schicht von ATM-Netzwerken haben eine
feste Länge. Da jedes Paket exakt dieselbe Grösse hat, können ATM Cells sehr
schnell verarbeitet werden.
ATM unterscheidet sich stark von den bisher beschriebenen paketorientierten
Netzwerken. Im Gegensatz zu ihnen ist ATM verbindungsorientiert angelegt und eignet
sich daher auch zur Übertragung von Sprache (grosse Teile des Telefonnetzes bauen
auf ATM-Backbones auf). Doch bleiben wir bei Rechnernetzen: Möchte ein Host eine
Verbindung zu einem anderen aufbauen, kontaktiert er den nächsten ATM-Switch und
teilt ihm seinen Verbindungswunsch samt Adresse des Zielrechners mit. Der Switch
versucht nun, eine Verbindung zu diesem herzustellen. Dabei entsteht eine Art Pfad
über weitere Switches. Ersterer Switch legt nun für diese Verbindung bzw. diesen Pfad
eine eindeutige Nummer fest und teilt dem Host diese mit. Ist eine Verbindung einmal
aufgebaut, sind Übertragungen mit garantierter Bandbreite darüber möglich. Eine
Verbindung bleibt bestehen, bis einer der beiden Partner diese trennt, also "auflegt".
Möchte der Host nun Daten versenden, schickt er diese samt Verbindungs-Nummer
(die Verbindung besteht bereits) zum Switch. Dieser hat die Nummer gespeichert und
weiss, an welchen Switch er die Daten weiterschalten und welche ID-Nummer er dort
benutzen muss. Der nächste Switch tut genau dasselbe bis die Daten irgendwann beim
Zielrechner angekommen ist. Dabei weiss jeder Switch nur, an wen er die Daten einer
bestimmten Verbindung weiterleiten muss, er hat keine Information über die Herkunft
oder den letztendlichen Empfänger. Dies sorgt dafür, dass im Netz sehr wenig
Overhead durch die Leitungen geschoben wird, was der Geschwindigkeit direkt zugute
kommt.
Netzwerkprotokolle

Mittels geeigneter Regeln wird in Netzwerken die Art und Weise der Datenübertragung
zwischen den angeschlossenen Rechnern und dem Netzwerk festgelegt. Die allgemein
als Protokoll bezeichneten Regeln legen im speziellen Fall des Netzwerkprotokolls die
Form, das Format und die Übernahmeart der Daten fest.
Sie sind zudem verantwortlich für eine eventuelle Aufspaltung und das Verpacken der
von den oberen Schichten (Schicht 7-5 nach dem OSI- Referenzmodell) gesandten
Daten, das Finden geeigneter Transportwege im Netz, die Überwachung der
Übertragung und für die anschliessende Zusammenführung und Zustellung an den
Empfänger. Netzwerkprotokolle kann man also im wesentlichen der 4. und 3. OSI-
Schicht, also der Transport- und der Netzwerkschicht zuordnen. Wichtige
Netzwerkprotokollarten sind:
• NetBIOS
• TCP/IP
• IPX/SPX
• AppleTalk
• ODI
• NetBEUI
• CCITT X.25

TCP/IP

Das Transmission Control Protocol/Internet Protocol kurz TCP/IP bezeichnet eine


ganze Reihe von Protokollen, die die Verbindung von Computern in unterschiedlichen,
herstellerunabhängigen, heterogenen Netzwerken ermöglichen. TCP/IP wurde
ursprünglich für das US-Verteidigungssystem entwickelt, um Computer in
unterschiedlichsten Systemen miteinander zu verbinden.
Mittlerweile ist TCP/IP ein internationaler Standard und wird von fast allen Herstellern
unterstützt. Besondere Bedeutung gewann die TCP/IP Protokol- familie als Basis
Protocol für das Internet. Innerhalb TCP/IP ist das TCP für die fehlerfreie Zustellung der
Daten- pakete verantwortlich (Ebene 4 der OSI-Schichten, Transportschicht).
Das IP übernimmt die Übertragung der Datenpakete, ohne sich dabei um die Ankunft
beim Empfänger, einen optimalen Weg oder eine bestimmte Reihenfolge zu kümmern
(Ebene 3 der OSI-Schichten, Netzwerkschicht).
X.25 und X.75

Die von der französischen Telefongesellschaft (Comité Consultatif Inter- national


Télégraphique et Téléphonique, kurz CCITT) geschaffenen und international
verbindlichen Normen X.25 und X.75 sind zum Standard bei der Datenübertragung
geworden.
• X.25
bezeichnet dabei ein paketorientiertes Verfahren, das für jede Punkt-zu-Punkt
Übertragung geeignet ist, das heisst die einzelnen Datenpakete werden
unabhängig voneinander von Station zu Station bis zum Empfänger geschickt.
Das Einsatzgebiet von X.25 liegt weniger im LAN- Bereich, sondern bei
Datenverbindungen über weite Strecke, wie wir sie Z.B bei WAN´s und GAN´s
finden. Als Beispiel mag hier das Datex-P Netz der Telekom dienen, das nach
dem Prinzip eines Routers arbeitet und in das man sich über ISDN oder analoge
Leitungen einwählen kann.
• X.75
ist ein paketorientiertes, synchrones Protokoll das sich stark an das OSI-
Schichtenmodell anleht und auf der Verbindungsschicht arbeitet (2-Ebene OSI
Schichtenmodell, Data Link Layer). Es wird zum Beispiel bei ISDN-Verbindungen
für die Datenübertragung auf den B-Kanälen angewandt und unterstützt
Verbindungen bis 64kBit/s.

NetBIOS

Das sogenannte Network Basic Input/Output System kurz NetBIOS Software- Modul ist
eine Standard-Schnittstelle, die den Zugriff der einzelnen Stationen im Netz auf die
vorhandenen Betriebsmittel, wie Drucker, Streamer usw. regelt.
Das NetBIOS ist auf den Netzwerkkarten implementiert und wird häufig auch als
Application Programmer Interface kurz API oder Anwenderschnittstelle bezeichnet, da
sie die vom Anwender an das Netzwerk gerichteten Aufrufe entsprechen weiterleitet.
NetBIOS arbeitet auf der Transportschicht (Ebene 4 der OSI-Schichten) und überwacht
unter anderem den Datenverkehr mittels entsprechender Fehlerprotokolle.

IPX/SPX

Das Internetwork Protocol Exchange kurz IPX gehört ebenso wie das NetBIOS zu den
Anwenderprogramm-Schnittstellen und wird vom NetBIOS für die Übertragung der
Daten verwendet. IPX ist auf der Netzwerkschicht (Ebene 3 der OSI-Schichten)
angesiedelt und übernimmt die Aufspaltung der Daten in entsprechende Datenpakete
und deren Wiederzusammenführung.
Das Sequenced Packed Protocol Exchange kurz SPX ist eine Erweiter- ung des IPX
und überwacht mittels entsprechender Fehlerprüfungen die korrekte Übertragung der
Daten. IPX/SPX benötigt zwingend das Netzwerkbetriebssystem NetWare der Firma
Novell.

AppleTalk

AppleTalk ist eine von Apple Computer entwickelte Netzwerkprotokoll- familie für die
hauseigenen Computer. Mittlerweile ist AppleTalk auch auf anderen Systemen
einsetzbar und kann zur Datenübertragung sowohl Ethernet als auch das Token-Ring-
Verfahren nutzen.
Mit AppleTalk eingerichtete Netzwerke zeichnen sich durch Komfort, grosse
Bedienerfreundlichkeit, einfache Fehleranalyse und leichte Erweiterbarkeit aus.
AppleTalk arbeitet auf den Ebenen 7-3 des OSI-Schichtenmodells.
Telekommunikation Hardware

In einem Netzwerk kommt es immer wieder vor, dass Netzwerksegmente erweitert oder
ausgebaut werden müssen. Nachfolgend werden Ideal-Typen beschrieben, die in dieser
Form allerdings selten vor kommen. Meistens handelt es sich um eine Kombination aus
zwei Geräten.
• Repeater
• Bridge
• Router
• Switch
• Hub
• Gateway
• NIC
• Ringleitungsverteiler

Repeater

Ein Repeater arbeitet auf der Bitübertragungsschicht(Schicht 1) des OSI-Modells. Er hat


nur die Funktion Signale zu verstärken und sie neu zu übertragen. Dadurch ist es
möglich lange Kabelstrecken zu überbrücken. Ein Repeater übernimmt keinerlei
regulierende Funktion in einem Netzwerk, und kann nicht dazu verwendet werden, um
ein Netzwerk zu entlasten.
Für angeschlossene Geräte ist nicht erkennbar, ob sie an einem Repeater
angeschlossen sind. Er verhält sich völlig transparent.

Abbildung: Netzwerkmodell mit einem Repeater

Bridge

Eine Bridge arbeitet auf der Sicherungsschicht(Schicht 2) des OSI-Modells. Durch eine
Bridge kann ein überlastetes Netzwerk in Segmente aufgeteilt und wieder
zusammengeführt werden. Eine Bridge legt sich eine Datenbank aller Stationsadressen
an. Anhand der dieser Daten entscheidet die Bridge, ob die empfangene Datenpakete
in ein anderes Netzwerksegment weitergeleitet wird oder nicht.
Mit der Zeit kann dann die Bridge immer besser entscheiden, in welches Segment die
ankommenden Daten gehören. Eine Bridge arbeitet aber nur dann sinnvoll, wenn zwei
Netzwerk-Segmente verbunden werden sollen, aber der meiste Datenverkehr innerhalb
der beiden Segmente stattfindet.

Abbildung: Netzwerkmodell mit einer Bridge

Router

Ein Router ist ein Gerät mit mindestens zwei Netzwerkanschlüssen. Er arbeitet auf der
Vermittlungsschicht(Schicht 3) des OSI-Modells. Ein Router ermöglicht es mehrere
Netzwerke mit unterschiedlichen Protokollen und Architekturen zu verbinden. Über die
sogenannte Routingtabelle entscheidet ein Router, welchen Weg ein Datenpaket
nimmt. Die Routingtabelle enthält folgende Angaben:
• alle bekannten Netzwerkadressen
• Verbindungsarten in andere Netzwerke
• Weginformationen zu anderen Routern
• Verbindungskosten
Anhand dieser Informationen entscheidet ein Router über den Weg, den ein Datenpaket
nimmt. In der Routingtabelle werden auch die Anzahl der Zwischenstationen für ein
Datenpaket gespeichert, das es für das Erreichen des Ziels benötigt.

Abbildung: Netzwerkmodell mit einem Router


Gateway

Ein Gateway verbindet zwei Netzwerke miteinander, die zueinander inkompatibel sind.
Ein Gateway setzt die Protokolle und die Adressierung in das jeweilige Ziel-Netzwerk
um. Dabei kann es vorkommen, das es je nach Anforderung speziell konfiguriert oder
neu entwickelt werden muss.

Switch

Ein Switch arbeitet auf der Sicherungsschicht(Schicht 2) des OSI-Modells. Ein Switch
schaltet direkte Verbindungen zwischen den angeschlossenen Geräten. Auf dem
gesamten Kommunikationsweg steht die gesamte Bandbreite des Netzwerkes zur
Verfügung.
Empfängt ein Switch ein Datenpaket, so sucht er in seinem Speicher nach der
Zieladresse(MAC), und schickt dann das Datenpaket nur an diesen Port. Während zwei
Ports miteinander kommunizieren können zwei Ports parallel Daten austauschen. Im
Idealfall kann ein n-Port-Switch n/2 Datenpakete(Frames) gleichzeitig vermitteln. Die
MAC-Adresse lernt ein Switch mit der Zeit kennen. Die Anzahl der Adressen, die ein
Switch aufnehmen kann, hängt ab von seinem Speicherplatz. Switches unterscheidet
man hinsichtlich ihrer Leistungsfähigkeit mit folgenden Eigenschaften:
• Anzahl der speicherbaren MAC-Adressen
• Verfahren, wann ein empfangenes Datenpaket weitervermittelt wird
• Latenz der vermittelten Datenpakete

Abbildung: Netzwerkmodell mit einem Switch

Hub

Hubs arbeiten auf der Bitübertragungsschicht(Schicht 1) des OSI-Modells. Sie haben


reine Verteilfunktion. Alle Stationen die an einem Hub angeschlossen sind, teilen sich
die gesamte Bandbreite mit der der Hub an ein Netzwerk angeschlossen ist. Nur die
Verbindung vom Computer zum Hub verfügt über die gesamte Bandbreite. Durch die
Verbindung mehrerer Hubs lassen sich die Anzahl der möglichen Stationen erhöhen.
Ein Hub nimmt ein Datenpaket an und sendet es an alle anderen Ports. Dadurch sind
alle Ports belegt. Diese Technik ist nicht besonders effektiv. Es hat aber den Vorteil,
das solch ein Hub einfach und kostengünstig zu bauen ist.

Abbildung: Netzwerkmodell mit einem Hub

NIC(Network Interface Card)

Ein NIC ist ein Netzwerkadapter. In einem Computer handelt es sich um eine
Netzwerkkarte, die es ermöglicht auf ein Netzwerk zuzugreifen. Ein NIC arbeitet auf der
Bitübertragungsschickt(Schicht 1) des OSI-Modells.
Jeder NIC hat eine Hardware-Adresse, die es auf der Welt nur einmal gibt. Anhand
dieser Adresse lässt sich der Netzwerkadapter zweifelsfrei identifizieren. Allerdings
muss eine Netzwerkkarte nicht fest in einem Computer eingebaut sein. Es gibt auch,
wie auf dem Bild links zu sehen, Netzwerkadapter, die sich über den USB an einen
Computer anschliessen lassen.
Wissen
o Führung
o Globalisierung und Informationstechnologie
o Komplexität
o Kunden
o Strategie

• Kommunikation
! 10 Regeln fuer Pressearbeit
! Bewertungskreterien fuer Kurzreden
! Das Interview
! Das Statement
! Der Vortrag
! Die Podiumsdiskussion
Führung

Führung beschreibt immer einen sozialen Prozess. Dieser Prozess vollzieht sich in
privatwirtschaftlich organisierten Industriegesellschaften unter bestimmten
Bedingungen. Der Zweck der Produktion bzw. der Dienstleistung liegt in der Nachfrage-
bzw. Bedürfnisbefriedigung für einen anonymen Markt. Das Motiv des einzelnen, in
Unternehmen zu arbeiten, ist der Arbeitslohn.
Zweck, Ziel und individuelles Motiv sind bei den Beschäftigten in Organisationen und
Unternehmen also entkoppelt. Zwecke und Ziele werden von der Unternehmensführung
angeordnet und damit fremdbestimmt. Um die Identifikation der Beschäftigten mit den
Zielen sicherzustellen, wird ein Regel-, Anreiz- und Motivationssystem aufgebaut. In
diesem Sinne ist Führung immer eine gewollte und zielgerichtete
Verhaltensbeeinflussung.
Einheitliches und zielgerichtetes Handeln der Unternehmensmitglieder soll durch
Personen durchgesetzt werden, die mit entsprechender Macht ausgestattet sind. Diese
Personen können ihre Macht über ihre Eigentümerfunktion oder über Delegation
erhalten haben wie etwa angestellte Manager. "Die traditionelle Form, mit deren Hilfe
Koordinationen von Handlungen sichergestellt werden sollen, ist die Etablierung
hierarchischer Rollenschemata."
Doch wer das Verhalten anderer Menschen oder soziale Prozesse zielgerichtet
beeinflussen soll oder will, muss mit einer Paradoxie leben. Managerinnen und
Manager erhalten Verantwortung für ein hochkomplexes System, das sie gar nicht in
einem linear-kausalen Sinne steuern können. Schon allein deshalb nicht, weil
Menschen in Organisationen in der Regel nicht auf ihre Autonomie, auf Eigenitiative
und Kreativität verzichten.
Die traditionellen Bilder von Führungspersönlichkeiten haben auch die Illusion genährt,
dass die Personen an der Spitze von Unternehmen den grössten Überblick haben,
mithin über die wesentlichen Informationen zur "Lenkung" von Organisationen verfügen.
In der Praxis müssen Managerinnen und Manager eher mit Risiken, mit Ungewissheit
und Unvorhersagbarkeit leben, sind auf die Urteile und Einschätzungen anderer
angewiesen.
Die Voraussetzung für effektives und situationsgerechtes Handeln in Organisationen ist
die Entwicklung eines funktionierenden Systems direkter Kommunikation und der
Koordinierung der Aufgaben. Um dies zu bewerkstelligen, müssen Organisationen
notwendigerweise wegkommen von starren hierarchischen Gliederungen hin zu kleinen,
autonomen und selbstorganisierten Einheiten, die zeitweise und aufgabenbezogen
arbeiten. In der Praxis erfolgreiche Modelle sind Gruppenkonzepte wie Projektgruppen
und Quality Circles, bei denen interdisziplinär und über Hierarchieebenen hinweg
Aufgaben gelöst werden. Die Stärke von solchen Gruppen liegt beispielsweise darin,
dass sie die Komplexität der relevanten Umwelten besser abbilden können und
verschiedene Sichtweisen auf Probleme und Aufgaben liefern. Ein dazu passendes
Führungsverständnis nimmt Abschied von einer Personen-und Rollenzentrierung und
betont die Prozessorientierung.
Auch die Identifikation mit den Organisationszielen ist kein einseitiger steuerbarer
Prozess. Identifikation, Motivation und Leistungsbereitschaft von
Organisationsmitgliedern hängen wesentlich davon ab, ob ihre Bedürfnisse in Bezug
auf die Arbeit befriedigt werden: Selbstverwirklichung, Entfaltung von Fähigkeiten,
Anerkennung, Mitbestimmung, aber auch Aufstiegschancen, ein sicherer Arbeitsplatz,
eine gute Bezahlung und so weiter.
Bei der Identifikation ist ein grundlegender Konflikt zwischen Mitarbeitern und
Unternehmen im Blick zu behalten. Organisationen müssen auf die Austauschbarkeit
von Mitarbeitern achten, wichtige Prozesse so gestalten, dass sie nicht von einer
bestimmten Person abhängig werden. Andererseits müssen sie dafür sorgen, dass die
Mitarbeiterinnen und Mitarbeiter eng an die Organisation gebunden sind, sich mit ihren
Zielen identifizieren. Eine Lösung ist, die Zugehörigkeit und Nichtaustauschbarkeit auf
der Beziehungsebene zu sichern, während die Austauschbarkeit auf der inhaltlichen
Ebene der ausgeübten Funktionen gewährleistet wird.

Strukturelle Führung

Unter struktureller Führung werden alle "unpersönlichen" Steuerungsmechanismen


verstanden, d. h. bestehende Regeln und Normen für das Verhalten der Beschäftigten:
Arbeitsbeginn, Arbeitsschutzbestimmungen, Anreizsysteme (Entgelt, Gratifikationen,
Statussymbole), Kleiderordnung, Selektionssysteme von Mitarbeitern (Wer "passt" in
die Organisation?) und so weiter. Die Hierarchie mit ihrem Unter- und
Überordnungssystem gilt ebenso als wichtiges Führungsinstrument wie Zieldefinitionen
und Führungsgrundsätze. Unterschiedlichste Pläne und Planvorgaben nicht nur im
industriellen Fertigungsbereich, sondern auch im Verwaltungsbereich koordinieren die
vielfältigen Aufgaben. Wichtige Strukturen und Rahmenbedingungen, die das Verhalten
von Organisationsmitgliedern steuern und sie einbinden sollen:
• Betriebliche Hierarchie
Wie stark die Organisation zentralisiert ist, hat nicht nur Konsequenzen für
Entscheidungskompetenzen und ein formales Über- und Unterordnungsgefüge.
Die Hierarchie beschreibt den Aufbau der innerbetrieblichen Machtverhältnisse.
Die einzelnen Hierarchiestufen sind mit Statussymbolen verbunden, sie
schreiben auch die soziale Distanz fest: Wie gross ist der Schreibtisch? Wer darf
eine eigene Sekretärin haben? Wie teuer ist der Dienstwagen?
Stark hierarchisch organisierte Unternehmen sind in der Regel auch hoch
zentralisiert. Alle Organisationsmitglieder sollen sich an den Vorgaben der
Unternehmensspitze orientieren und haben geringe eigene
Entscheidungsspielräume. Zentralisierung korreliert negativ mit
Risikobereitschaft und Innovationsneigung der Organisationsmitglieder. Sie senkt
die Initiative und Leistungsbereitschaft und verhindert Kreativität. Zudem
behindert sie Kommunikation und eine effektive Konfliktaustragung.
• Delegation von Entscheidungsbefugnissen
Die Delegation setzt einen Rahmen für Entscheidungsprozesse in Unternehmen
und für den Hand-lungsspielraum von Personen. Welche Vorgesetzte können
innerhalb der gegebenen Organisationsstrukturen Aufgaben, Kompetenzen,
Entscheidungen delegieren? Wie stark partizipieren welche Personen an
Entscheidungen?
• Formalisierungsgrad der Organisation
Er gibt das Ausmass der offiziellen, schriftlichen Regelungen und Vorschriften
an. Die Formalisierung kann das Verhalten von Betriebsangehörigen bis ins
Detail regeln. So zum Beispiel, welche Kommunikationswege – schriftlich oder
mündlich – einzuhalten sind, wieviele Unterschriften benötigt werden und so
weiter. Eine starke Formalisierung engt die Gestaltungsspielräume der
MitarbeiterInnen ein. Zwar verhindern Formalisierungen Konflikte, führen aber
häufig zu negativem Organisationsklima und sinkender Arbeitszufriedenheit.
Existieren nur wenige formale Regeln, ist der Entscheidungsspielraum für die
Organisationsmitglieder gross.
• Organisationskultur
Der Begriff Kultur verweist auf die dem Handeln der Organisationsmitglieder
zugrundeliegenden Werte, Normen und damit verbundene Einstellungen und
Denkweisen. Um Lösungsansätze der strukturellen Führungsprobleme
anzubieten, hat die betriebswirtschaftliche Theorie und Praxis verschiedene
Management-Modelle entwickelt, die hier kurz skizziert werden:
o Management by delegation
Führung durch die Delegation von Aufgaben. Den Mitarbeiterinnen und
Mitarbeitern werden mit den Aufgaben die zu ihrer Erfüllung nötigen
Entscheidungskompetenzen übertragen. Damit wird der
Handlungsspielraum der Mitarbeiterinnen und Mitarbeiter vergrössert.
o Management by exceptions
Führung durch die Kontrolle von Abweichungen und Eingreifen im
Ausnahmefall.
o Management by objectives
Führung durch Zielvereinbarungen. Hier wird nur das mit den Mitarbeitern
verabredete Ziel kontrolliert. Die einzelnen Mitarbeiter planen selbst, mit
welchen Mitteln und Massnahmen sie die vereinbarten Ziele erreichen.
Das fordert von ihnen Selbstverantwortung und eigene Initiative.
o Management by participation
Führung unter Beteiligung der Mitarbeiter an Entscheidungen. Sie bringen
eigene Ideen, Anregungen, Bedenken in den Entscheidungsprozess ein.
Ein hoher Informationsstand aller Beteiligten ist die Voraussetzung für
solch eine Partizipation.
o Management by results
Unternehmensführung nach dem Ergebnis, zielorientierte Führung. Dieses
Modell wird häufig in Verbindung mit sogenannten Profit-Centern
durchgeführt. Das sind weitgehend selbständige gewinnorientierte
Unternehmensbereiche mit separater Erfolgsrechnung.
Führung durch Zielvereinbarungen

Ein in der Praxis weit verbreitetes Modell ist die Führung durch Zielvereinbarung
("Management by objectives"). Dieses innerbetriebliche Steuerungssystem hat den
Zweck, die einzelnen Unternehmensteile auf ein gemeinsames Ziel hin zu koordinieren.
Kernidee ist, durch spezifische Ziele für klare Orientierung zu sorgen, den Weg zum Ziel
aber frei zu geben – und somit eine stärkere Selbstorganisation und auch
Selbstkontrolle zu ermöglichen.
Damit versucht dieses Führungsmodell, den Bedürfnissen von Beschäftigten nach
sinnvoller Arbeit, Autonomie, Mitverantwortung und Mitbeurteilung des
Leistungserfolges gerecht zu werden. Gebert und von Rosenstiel verweisen auf
Analysen, nach denen mit zunehmender inhaltlicher Spezifizierung des Zieles die
Leistung der Mitarbeiter steigt. Ausserdem führe das Setzen höherer bzw.
anspruchsvollerer Ziele zu höheren Leistungsergebnissen.
Wichtigstes Instrument dieser Führungsmethode sind Zielabsprachen zwischen
Mitarbeiter(innen) und Vorgesetzten. Sie erfordern Transparenz der Zielsetzung und die
"Übersetzung" von Oberzielen auf die jeweils nächsten Ebenen. Vorgesetzte müssen
dabei von der Vorstellung abrücken, dass sie (allein) die Ziele kennen, die
Anweisungen zu ihrer Realisierung geben und das Ergebnis kontrollieren. In der
Führung durch Zielvereinbarung werden Ziele quasi objektiviert und den
Mitarbeiterinnen und Mitarbeitern die Möglichkeit gegeben, sie eigenverantwortlich in
Aufgaben umzusetzen. Ein mögliches Probleme dabei ist, ob Vorgesetzte es von ihrem
Selbstbild "verkraften" können, wenn Mitarbeiter die Aufgaben auf ihre eigene Weise
lösen.

Führungstil

Varianten:

Führungsstil Charakterisierung
"autoritär" Vorgesetzter entscheidet, setzt durch, notfalls Zwang
"partriarchalisch" Vorgesetzter entscheidet, setzt mit Manipulation durch
"informierend" Vorgesetzter entscheidet, setzt mit Überzeugung durch
"beratend" Vorgesetzter informiert, Meinungsäusserung der Betroffenen
"kooperativ" Gruppe entwickelt Vorschläge, Vorgesetzter wählt aus
"partizipativ" Gruppe entscheidet autonom, in vereinbartem Rahmen
"demokratisch" Gruppe entscheidet autonom, Vorgesetzter als Integrator,
Koordinator
Als Führungsstile bezeichnet man typische Verhaltensmuster der Managerinnen und
Manager. Die Kritik am hierarchisch autoritären Führungsstil bezieht sich meist auf die
Betonung der Hierarchie, auf die geringen Einflussmöglichkeiten der Mitarbeiter, auf
Zwang und Sanktionen, auf Angst von Mitarbeitern, Fehler zu machen usw. Zumeist
positiv werden die kooperativen, demokratischen Führungsstile beschrieben, etwa mit
den Kriterien: Verzicht auf Machtausübung seitens der Vorgesetzten, Mitbestimmung,
offene Kommunikation, Angstfreiheit, Aufbau von Vertrauensbeziehungen usw.
Empirisch stellte eine Studie von Seidel im deutschsprachigen Raum fest, dass die
"kooperative" Führungsform der "direktiven" tendenziell überlegen sei, betonte aber
gleichzeitig, "dass dies deutlicher für die Bewältigung kreativer bzw. innovativer
Aufgaben als für die Lösung von Routineaufgaben gelte."
Führungsstile geben in der Regel nur die grobe Richtung des Miteinander in Betrieben
an. Oft existieren in grossen Organisationen Mischformen oder verschiedene
Führungsstile nebeneinander. In einer Automobilfirma zum Beispiel herrscht am
Fliessband ein anderer Ton als in der Konstruktionsabteilung.
Um diesen unterschiedlichen Aspekten in Unternehmen gerecht zu werden, hat sich der
sogenannte "situative Ansatz" herausgebildet. Seine Prämisse: Es gibt keinen
optimalen Führungsstil für alle Bereiche und Situationen, deshalb sind bei der
Entscheidung für Führungsstile die spezifischen personen- und aufgabenbezogenen
Situationen zu berücksichtigen.
Die Wirklichkeit in Unternehmen scheint jedoch grauer als die Theorie. Viele Mitarbeiter
beklagen sich über mangelnde Transparenz, fühlen sich von den Chefs schlecht
behandelt, arbeiten unmotiviert und bringen keine eigenen Ideen ein. Die
"Therapievorschläge" dafür lauten: kurze Wege, konstruktive Rückmeldung, Sinn- und
Wissensvermittlung, klare Zielvereinbarungen sowie Chancen zur Mitwirkung und
Mitgestaltung.
Globalisierung und Informationstechnologie

Hoch in den Anden, in Cayambe, Ecuador, eine halbe Tagesreise von der Hauptstadt
Quito entfernt, treffen sich die Mädchen der oberen Mittelschicht jeden Tag nach der
Schule im örtlichen Cybercafé. Sie surfen im Internet, bestellen eifrig die neueste
amerikanische Teenagermode bei J. Crew und Abercombie & Fitch. Für diese Mädchen
und für Millionen anderer Menschen rund um den Globus ist die Globalisierung heute zu
einer profanen Alltagsangelegenheit geworden. Für sie sind Zeit, Entfernung, Sprache
und Kultur, die in der Vergangenheit das Leben des Einzelnen beschränkt und
Gemeinden und Nationen auf der Welt voneinander getrennt haben, durch Technologie
und Wirtschaft transzendiert worden.
Aber Globalisierung hat auch eine dunklere, weniger hoffnungsvolle Seite, die sich
während der von der Welthandelsorganisation (WTO) einberufenen Treffen der
Handelsminister der Welt manifestierte. Tausende Gewerkschaftsmitglieder, Umwelt-
und Dritte-Welt-Aktivisten und andere riegelten die Zentren der Treffpunkte (Seattle,
Davos, Prag ...) ab, um dagegen zu demonstrieren, was sie als die negativen Seiten der
Globalisierung ansahen: Arbeitslosigkeit, Verarmung, genmanipulierte Lebensmittel,
Zerstörung des Regenwalds und die Vereinheitlichung traditioneller Kulturen.
Die Globalisierung vertieft, verbreitert und beschleunigt die weltweite Vernetzung in
allen Bereichen des heutigen sozialen Lebens, von den kulturellen bis kriminellen, den
finanziellen bis spirituellen, wie der britische Soziologe Anthony Giddens in seinem
Buch "Runaway World" schreibt.
Für einige stellt dies eine neue Welt der Möglichkeiten und Hoffnungen dar. Für andere
ist es eine Welt, in der die Menschen immer weniger Kontrolle haben über die Dinge,
die ihr tägliches Leben am meisten betreffen. Weil die Globalisierung für
unterschiedliche Leute Unterschiedliches bedeutet und sogar für ein und dieselbe
Person Unterschiedliches, ist die aktuelle gesellschaftliche Diskussion über die
Globalisierung verwirrend und zeitweise verkrampft. Es gibt zahlreiche Anzeichen, dass
die öffentliche Debatte darüber in den kommenden Jahren noch komplizierter und
spalterischer werden wird.
Für Viele ist die Globalisierung vor allem die rasche Verbreitung des
marktwirtschaftlichen Kapitalismus in der ganzen Welt, begünstigt durch die
gegenwärtige Revolution in der Informationstechnologie. Sie ist eine unwiderstehliche
wirtschaftliche Kraft, angetrieben durch transnationale Produktions- und
Handelsnetzwerke, die die traditionellen sozialen und politischen Einheiten, nationale
Märkte und möglicherweise die Regierungsfunktion des Nationalstaats zerstören.
Aber Globalisierung ist weit mehr als nur ein wirtschaftliches Phänomen. Eine solche
Analyse erklärt nicht, was mit den Mädchen in Cayambe passiert ist. Der Unterschied,
den die Globalisierung in ihren Leben ausmacht, ist nicht so sehr wirtschaftlicher,
sondern vielmehr sozialer und psychologischer Natur. Diese jungen Frauen teilen
gemeinsame Vorlieben - die Kleider, die sie tragen, die Musik, die sie hören, die
persönlichen Hoffnungen und Sorgen - mit Gleichaltrigen auf der ganzen Welt. Ihre
Hoffnungen und Ängste nähren sich nicht nur aus ihrer direkten Umgebung, sondern
werden in Echtzeit durch die Ereignisse und Ideen, die ihren Ursprung irgendwo anders
auf dem Globus haben, geprägt. Ihre Ansichten von der Welt und ihrem Platz in ihr
werden durch das Internet, das Fernsehen und andere Informationstechnologien, die
noch niemals so breit zugänglich waren, geformt und rapide transformiert,
Dieses Globalisierungsbewusstsein berührt das Leben von weit mehr als nur von
vernetzten Teenagern eines Andendorfs. In einer Zeit, in der Kinder in Thailand T-Shirts
herstellen, die von französischen Hausfrauen getragen werden, in der Stahlarbeiter
mittleren Alters in Wheeling, West Virginia, ihre Jobs durch Importe aus Brasilien
verlieren und in der Treibhausgase von chinesischen mit Kohle betriebenen
Generatoren die Luftqualität in Japan beeinträchtigen, ist die Globalisierung eine
epochale technologische und kulturelle Transformation, die die Träume der Menschen
in allen Teilen der Welt beflügelt und sie mit Alpträumen verfolgt. Es fördert das Gefühl
der Entfremdung und Hoffnungslosigkeit. Und sie nährt zunehmend ihre politischen
Leidenschaften.

Öffentliche Meinung

Aber ist dies wirklich der Fall? Was weiss man eigentlich über die Einstellungen und
Gefühle der Menschen in Bezug auf die Folgen dieses Globalisierungsphänomens?
Globalisierung ist der rote Faden, der sich, ausgesprochen und unausgesprochen,
durch die öffentlichen Debatten über viele Themen hindurchzieht, von der Unsicherheit
des Arbeitsmarkts über die Belastungen der Familien bis hin zur Sicherheit der
Lebensmittel in den Regalen der Supermärkte. In Wirklichkeit jedoch ist herzlich wenig
über die Wechselwirkung dieser Zusammenhänge für die Bildung der öffentlichen
Meinung bekannt. Einzelne Umfragen über den Freihandel und die
Welthandelsorganisation sagen wenig darüber, wie die Globalisierung auf die
persönlichen Werte und Einstellungen einwirkt. Solange die Wechselwirkung von
rasantem internationalen wirtschaftlichen und technologischen Wandel und den
Gefühlen der Menschen über ihre Zukunft, ihre Gemeinschaft, ihr Familienleben und
ihre Religion nicht umfassender untersucht worden ist, wird es unmöglich sein,
herauszufinden, ob die Globalisierung nur ein vorübergehendes und relativ unwichtiges
Phänomen in der Menschheitsgeschichte oder die transformative Erfahrung ist, die viele
ihrer Befürworter in ihr sehen und die die Kritiker verteufeln.
Bis heute wurden nur einige umfassende Stichproben der öffentlichen Meinung in
Bezug auf die Globalisierung gemacht. Die wenigen tiefer gehenden Analysen über
amerikanische Einstellungen offenbaren, dass - einer Studie der Universität Maryland
von 1999 zufolge - eine grosse Mehrheit der Amerikaner (70%) sagt, sie habe von der
Globalisierung gehört. In einer gemeinsamen Umfrage der Kaiser Familienstiftung, der
Washington Post und der Harvard-Universität von 2000 gab nur etwas über die Hälfte
der Befragten (57%) an, "gut" oder "sehr gut" zu verstehen, was der Begriff bedeutet.
Dieses Verständnis verwandelt sich in gemässigt positive Ansichten, wenn
Globalisierung in allgemeinen Zusammenhängen präsentiert wird. In einer Gallup-
Umfrage von 1998 betrachteten mehr als die Hälfte der Amerikaner (54%)
Globalisierung als "überwiegend gut" für die Vereinigten Staaten 20% als "überwiegend
schlecht", 15% waren neutral.
Doch es kamen deutlichere Meinungen zutage, wenn die Befragten über die möglichen
Vor- oder Nachteile für spezifische Gesellschaftsgruppen befragt wurden. Die
Konsumenten, die Konzerne, die Wirtschaft und die Arbeitsplatzschaffung im Ausland
werden als die "Gewinner" einer zunehmend globalisierten Welt angesehen. Die
heimische Arbeitsplatzschaffung und die Umwelt werden auf der anderen Seite als die
"Verlierer" angesehen. Dies ist besonders das vorherrschende Gefühl bei geringer
verdienenden Amerikanern. In einer Untersuchung des Pew Research Centers von
1999 kam heraus, dass nur eine von drei Familien, in denen weniger als 50 000 Dollar
verdient wird, eine positive Einstellung zur Globalisierung hat.
In einer Umfrage von Business Week und Harris Interactive von 1999 meinte eine
solide Mehrheit, dass die Globalisierung "gut" für die Konsumenten sei (65%), für
amerikanische Unternehmen (65%), die Wirtschaft (61%) und die Arbeitsplatzschaffung
in armen Ländern (70%). Aber nur weniger als die Hälfte (47%) glaubten, dass die
Globalisierung gut für die Schaffung von Arbeitsplätzen in Amerika sei. Noch weniger
(38%) glaubten, dass sie gut für die Umwelt sei. Zusammengefasst belegen diese
Umfragen eine inkohärente und ambivalente öffentliche Meinung bezüglich der
Globalisierung.
Französische Umfrageinstitute haben ähnliche Fragen wie die amerikanischen Institute
gestellt: Die französische Bevölkerung äusserte grössere Bedenken über die
Globalisierung als die amerikanische. In einer im Jahr 2000 durchgeführten Umfrage
sagte die Hälfte der französischen Befragten, die Globalisierung sei für Frankreich
schlecht, während ein Drittel (36%) meinte, sie sei eine gute Sache. Die Globalisierung
gehörte auch mit zu den zehn modernen beängstigenden Phänomenen, denen sich
Frankreich gegenübersieht, auch wenn sie fast am Ende der Liste auf Platz neun steht.
Die Meinung mässigte sich, wenn genereller zur Globalisierung gefragt wurde.
Insgesamt meinte die Bevölkerung in Frankreich, die Globalisierung sei eher positiv
(47%) als negativ (40%).
Noch weniger wurde das Thema Globalisierung in Grossbritannien untersucht. Aber
eine im Jahr 1999 unter Studenten durchgeführte Umfrage ergab, dass nur 4%
glaubten, dass die zunehmende Globalisierung ihren Erfolg im Leben beeinflussen
würde.
Natürlich ist für die meisten Menschen Globalisierung ein zu abstraktes Konzept, als
dass es starke Gefühle hervorrufen könnte, in welche Richtung auch immer. Es sind die
sichtbaren Folgen des globalisierten Handels, der Investitionen, der Umweltschädigung
und ähnliche Themen, die die Menschen mit dem schnellen, international
herbeigeführten Wandel ihres Lebens in Verbindung bringen.
Diesbezüglich brachte eine vergleichende Studie von Angus Reid über internationalen
Handel in 14 Ländern im Jahr 1998 ein gemischtes Bild zum Vorschein, mit Teilen der
Bevölkerung, die zum Freihandel tendieren und andere zum Protektionismus. In
Russland und Japan zum Beispiel befürwortetet eine solide Mehrheit von 60 bzw. 59%
eine Ausweitung des Handels (nur 19 bzw. 37% zogen Protektionismus vor). In
Deutschland und Belgien sprach sich nur eine knappe Mehrheit von 53 bzw. 51% für
die Ausweitung des Handels aus (35 bzw. 33% wählten Protektionismus). Fast gleich
war die Meinung in folgenden Ländern verteilt: in Kanada waren 48% für den Freihandel
und 46% für Protektionismus; in Israel war das Verhältnis 48 zu 35, in der Ukraine 42 zu
45 und in Südafrika 48 zu 38. Protektionismus bevorzugten die Befragen in Frankreich
(50/44), in den Vereinigten Staaten (53/41), in Grossbritannien (51/36), Italien (58/33),
Südkorea (62/28) und Australien (70/24).
Die umfassendsten nationalen Studien in den Vereinigten Staaten über internationalen
Handel wurde für die Association of Women in International Trade durch EPIC/MRA
durchgeführt. Sie brachten durchweg wiederum zutage, dass eine Mehrheit der
Amerikaner Freihandelsabkommen befürwortet und glaubt, dass ausländische
Investitionen gut für amerikanische Arbeiter seien.
Sorgen und Ängste

Eine Folge der Globalisierung ist die zunehmende Sorge um Arbeitsnormen weltweit. In
einer Umfrage der National Consumers League von 1999 wurden Amerikaner gefragt,
ob sie als Konsumenten über Ausbeuterbetriebe und Kinderarbeit bei der
Warenproduktion beunruhigt seien. Sechs von zehn (61%) Befragten antworteten, dass
sie das sehr beunruhige. Gleichermassen wurde in einer im letzten Jahr von Newsweek
durchgeführten Umfrage herausgefunden, dass neun von zehn (87%) Amerikanern
über Kinderarbeit in Übersee beunruhigt seien, 55% davon sagten, dass sie sogar sehr
beunruhigt seien. In einer Umfrage der Universität Maryland von 1999 wurden
Amerikaner genauer gefragt, ob andere Nationen durch Gewerkschaftsforderungen die
Löhne anheben und Kinderarbeit abschaffen sollten. Acht von zehn (82%) waren der
Meinung, dass die Vereinigten Staaten dies von anderen Ländern erwarten könnten.
Bedenken gegenüber der Globalisierung wurden immer wieder in Form von Besorgnis
über den Zustand der globalen Umwelt manifest. In einer Gallup-Umfrage von 1998
stellte sich heraus, dass so gut wie alle Amerikaner (89%) meinten, dass die
Verbesserung der globalen Umwelt eine wichtige Sache sei, von denen sagte wiederum
die Hälfte (53%), dass es sogar eine sehr wichtige Sache sei. In einer Umfrage des
Pew Research Center von 1999 kam heraus, dass sechs von zehn Amerikaners (62%)
meinten, dass der Schutz der globalen Umwelt von oberster Priorität für die
amerikanische Regierung sein sollte.
Globalisierung hat auch Ängste bei Konsumenten geschürt, die über die Sicherheit
importierter Lebensmittel besorgt sind. In der Studie der Universität Maryland über
Globalisierung von 1999 wurde gefragt, ob die Europäische Union das Recht haben
sollte, die Einfuhr amerikanischen Rindfleischs von Rindern zu verbieten, denen
Wachstumshormone verabreicht wurden, auch wenn dies internationale
Handelsabkommen verletzten würde. Sechs von zehn (58%) sympathisierten mit der
EU, indem sie sagten, dass auch die Europäer amerikanisches Rindfleisch verbieten
können sollten. In ähnlicher Weise glaubten acht von zehn (81%) Amerikanern, dass
die EU und Japan die Kennzeichnung von genmanipulierten Lebensmitteln von den
USA sollten verlangen können, ungeachtet der Tatsache, dass die USA sagen, diese
Lebensmittel seien erwiesenermassen ungefährlich.

Unzureichender globaler Vergleich

Leider ist über die Einstellungen und grundlegenden Werte, an denen sich die
Meinungen über Globalisierung orientieren, noch weniger bekannt. Das Dentsu Institute
for Human Studies in Japan hat vier vergleichende "Analysen globaler Werte" in Tokio,
New York, London und Berlin durchgeführt. Die Untersuchungen verfolgten die Trends
bei den Einstellungen zur Zukunft (eine Vielzahl von Amerikanern denkt, dass das
Beste noch kommen wird) und haben herausgefunden, dass in allen untersuchten
Ländern alle Menschen denken, dass Moral und Ethik sich verschlechtert haben, dass,
während in Deutschland und Japan die Menschen glauben, dass die
Arbeitsbedingungen sich verschlechtert haben, die Leute in den Vereinigten Staaten
und Grossbritannien der Meinung sind, dass sie sich verbessert haben und dass im
Hinblick auf Institutionen, die mit Problemen, die durch die Globalisierung entstehen,
umgehen können, der Privatsektor generell ein höheres Ansehen hat als der öffentliche
Sektor.
Doch überwiegend sagen uns diese Meinungsumfragen mehr über das, was wir nicht
wissen, als darüber, was wir wissen hinsichtlich der Auswirkungen der Globalisierung
auf die Familie und die geistigen Werte, auf die Einstellung der Menschen zur Arbeit
und Gemeinschaft, auf ihre Vorstellungen von einem angemessenen Lebensstandard,
auf ihre Auffassung von öffentlicher Moral und bürgerlichen Pflichten.
Auch sagt uns die bestehende Forschung wenig darüber, wie die Globalisierung die
Erwartungen der Menschen an Regierung, Wirtschaft und Bürgergruppen verändert hat,
welche wirtschaftlichen und sozialen Nöte die Menschen derzeit haben angesichts einer
globalisierenden Wirtschaft und auf wen die Öffentlichkeit schaut, um ihr bei der
Bewältigung der Probleme und dem Erreichen ihrer Ziele zu helfen.
Die Geschwindigkeit der Informationsrevolution hat zum Beispiel die seit langem
bestehenden Schranken beseitigt, die lange Zeit die eine Kultur von der anderen
abgeschirmt haben. Durch Auslandsinvestitionen, Handel und Fortschritte in der
Informationstechnologie erobert die "Kulturindustrie" eines Landes - Film, Musik,
Musikvideo, Software - problemlos andere Märkte. Die kulturellen Normen und Attribute
eines Landes haben sich in alle Teile der Welt ausgebreitet, sowohl symbolisch, wie
das goldene "M" von McDonald, als auch real, wie etwa die amerikanischen Standards
der Konzernführung.

Kulturelle Identität

Konsumenten, besonders die jungen, feiern diese Vielfalt, was durch die weltweite
Popularität von Hollywood-Filmen, Reggae und französischer Mode belegt wird. Aber
die wirtschaftliche Globalisierung kann bedeuten, dass die amerikanische Kultur und die
englische Sprache der übrigen Welt aufgezwungen werden und die reiche Vielfalt
unterschiedlicher Traditionen, Bräuche, Mythen und Moralvorstellungen, die lange Zeit
dazu beigetragen haben, die Identität eines jeden Landes und Region festzulegen,
überwältigen. Weil Kultur so viel mit Identität zu tun hat, manifestierte sich
Antiglobalismus oft als Antiamerikanismus.
Der kulturelle Impetus, der die Globalisierung vorantreibt, hat auch die Bindungen
gelöst, die den Menschen einmal die stark benötigte Vorstellung davon gegeben haben,
wer sie sind. Folglich gehen in vielen Ländern Globalisierungsängste und
Ausländerfeindlichkeit Hand in Hand.
Während diese Herausforderung, die die Globalisierung für die eigene Kultur bedeutet,
zum Prügelknaben der Globalisierungsgegner geworden ist, ist tatsächlich sehr wenig
bekannt über die Auswirkungen des rapiden wirtschaftlichen und technologischen
Wandels auf kulturelle Werte und Haltungen. Die Übernahme einiger kultureller
Manifestationen der Globalisierung, wie Fast Food und Rockmusik, legt im besten Fall
eine Ambivalenz hinsichtlich der Auswirkungen auf ihr Leben nahe. Dennoch: die
derzeitige Wiedergeburt des Interesses an regionalen Sprachen wie etwa Keltisch oder
Baskisch und des Spanischen als zweitwichtigste Sprache im Internet suggerieren,
dass es viel zu einfach wäre, davon auszugehen, dass die Globalisierung die Kulturen
um eine amerikanische oder englische Norm herum homogenisieren würde. Die
langfristigen Auswirkungen erfordern eine viel genauere Untersuchung.
Auch die Auswirkungen der Globalisierung auf die Haltung der Menschen zur
Regierungsfähigkeit werden noch kaum verstanden. Die Globalisierung hat
wirtschaftliche Erwartungen geschaffen, die wiederum Erwartungen der Öffentlichkeit
an die demokratischen Regierungen schüren, die jede Demokratie, besonders die im
Entstehen begriffenen, wohl nur schwerlich erfüllen kann.

Wer hat die Kontrolle?

Die Fähigkeit, eine gewisse Kontrolle über die Dinge, die das tägliche Leben
beeinflussen, auszuüben, war in der Geschichte immer die treibende Kraft bei
politischen Entscheidungen in der ganzen Welt. Aber wie zum Beispiel der Soziologe
Daniel Bell von der Harvard Universität bemerkt hat, ist der Nationalstaat heute oft zu
klein, um die grossen Probleme zu lösen, und zu gross, um die kleinen Probleme zu
lösen. Daher ist die Frage, wer den Menschen bei der Lösung ihrer Probleme hilft, von
zunehmender Bedeutung.
Die Globalisierung verändert naturgemäss den Ort der Kontrolle der Menschen. Die
Untersuchung "Der Puls Europas", die von der Times Mirror Corporation vor einem
Jahrzehnt in 17 Ländern durchgeführt worden ist, hat ergeben, dass sowohl Ost- als
auch Westeuropäer schon damals glaubten, dass der Erfolg im Leben massgeblich
durch Kräfte ausserhalb ihrer Kontrolle beeinflusst würde. Im Gegensatz dazu waren
die Amerikaner eher der Auffassung, dass sie ihr eigenes Schicksal beeinflussen
könnten. Es ist nicht bekannt, ob sich heutzutage das europäische Gefühl der
Machtlosigkeit durch die zunehmende Globalisierung der europäischen Wirtschaft und
Kultur eher verschlimmert oder verbessert hat, und ob die Globalisierung das
Machtgefühl der Amerikaner erschüttert oder beflügelt hat.
Auch ist nicht bekannt, was die Menschen als die grössten Herausforderungen
ansehen, die sich ihren Regierungen in dieser Globalisierungsära stellen - von wem sie
glauben, dass er die Entscheidungen fällt, die ihr tägliches Leben am meisten
beeinflussen: ihre regionale Regierung, ihre nationale Regierung oder eine
internationale Organisation, und welche Rolle sie für Nichtregierungsorganisationen wie
beispielsweise Umweltgruppen bei der Regierungsführung sehen.
In vielerlei Hinsicht ist trotz aller Strassenproteste und kluger veröffentlichter Kritik das,
was wir über Globalisierung nicht wissen, weit wichtiger als das, was wir wissen. Es
sind die Auswirkungen des rasanten internationalen wirtschaftlichen und
technologischen Wandels auf die Hoffnungen und Ängste der Menschen, ihre
Erwartungen für ihre Kinder, ihre Gemeinden und ihre Regierungen, die uns zeigen
werden, ob die Globalisierung ein evolutionärer oder revolutionärer Prozess ist. Am
wichtigsten dabei ist, dass wir nur dann, wenn wir die Folgen der Globalisierung auf die
Werte und Einstellungen der Menschen besser verstehen, zu erkennen beginnen, wie
diese ihre Erwartungen an Regierung und Gesellschaft beeinflussen. Da alle Menschen
auf der ganzen Welt mit dem global verursachten Wandel ihres Lebens zu kämpfen
haben, ist dies die Herausforderung der Zukunft.
Komplexität - vernetzt, dynamisch und undurchsichtig

Zum wichtigsten Instrument für komplexe Situationen gehört die Erkenntnis oder auch
Einsicht, dass man eine komplexe Situation oder ein komplexes Problem vor sich hat
und nicht nur ein einfaches Problem. So ist die einfache, schnelle Lösung im Normalfall
dann die Falsche.
In der Praxis läuft vieles anders als man es theoretisch erwarten würde oder man es
sich ausgedacht hat. So führen gedachte Verbesserungen zu tatsächlichen
Verschlechterungen. Oder man löst ein Problem und erzeugt viel neue Probleme damit.
Oder "richtige" Einzelentscheidungen führen trotzdem zur Katastrophe.
Immer wenn man es mit einer grossen Anzahl von Elementen zu tun hat, unter denen
es auch Abhängigkeiten gibt, hat man es mit grosser Wahrscheinlichkeit mit
Komplexität zu tun. Komplexität wird immer auch eine subjektive Komponente haben.
Was für einen Anfänger schon hochkomplex ist, ist für den Erfahrenen simple Routine.
Das Autofahren. Für den Fahrschüler sind sowohl die technische Koordination
von Schaltung, Kupplung, Gas und Bremse sehr schwierig oder gar das
Einschätzen einer etwas unübersichtlichen Verkehrsituation. Der routinierte
Autofahrer hingegen handhabt alle diese Probleme so leicht und schnell, dass er
schon gar nicht mehr darüber nachdenken muss.

Umgang mit Komplexität

• Einfachheit - Keep it simple and stupid


• Kleinheit - Small is beautiful
• Kurzfristigkeit - Wer weiss schon, was morgen sein wird
• Nachdenken - Smarter, not harder
• Langsamkeit - Ankommen statt umkommen
Weil gedachte Verbesserungen oft tatsächliche Verschlechterungen bringen, erklärt
dies auch die Beliebtheit von Provisorien. Sie lösen oft nur ein singuläres Problem und
machen nicht alles neu, und führen so weniger zu neuen Problemen. Auch die
Anpassung an ein Problem anstelle der Lösung des Problems kann ein kluge
Entscheidung sein, um einfacher zu überleben. Speziell wenn manche Probleme nur
vorübergehend auftreten, ist es klug sich anzupassen oder abzuwarten und das
Problem mehr oder weniger zu ignorieren.
Neben Routine sind Einfachheit und Robustheit der Werkzeuge das bewährteste Mittel
im Umgang mit Komplexität. Wenn die verwendeten Werkzeuge einfach und robust sind
und keine Nebeneffekte haben, dann ist die Chance gross, dass jeder Beteiligte sie
durchschauen wird (Einfachheit) und sich auf den gewünschten Effekt verlassen kann
(Robustheit).
Das Wichtigste ist, die Komplexität ernst zu nehmen. Denn wer die Komplexität
unterschätzt, wird später einen hohen Preis dafür zahlen, das Lehrgeld, wie man dies
nennt. Weil Routine der Komplexität den Schrecken nimmt, lohnt es sich, bewährte
Vorgangsweisen immer wieder zu verwenden. In Form von Prozessen. Dazu ist es
allerdings notwendig, diese Vorgangsweisen zu dokumentieren. Sonst werden alle
Fehler immer wieder gemacht.
Wir müssen im komplexen Umfeld Vielzieligkeit anstreben und das Problem gleichzeitig
von mehreren Ecken aus angehen. Und alle wesentlichen Parameter und Motive
parallel, aber nicht zu radikal verändern. Um Verbesserungen in einer Firma zu
erreichen, sind jeweils 1% in vielen verschiedenen Bereichen effektiver, als eine einzige
grosse, aber eng begrenzte Veränderung.
Zu der Vielzieligkeit gehört auch, dass wir uns bald - proaktiv (vorbeugend) um
Probleme kümmern, die wir erst haben werden. Denn wir wissen ja, je früher wir uns um
Lösungen bemühen, um so billiger werden diese sein. Bei der Suche nach Lösungen
sollen wir jene bevorzugen, die auch bei verschiedensten Einflüssen eine hohe
Erfolgswahrscheinlichkeit haben. Man nennt dieses Vorgehen: Divergenz - Effizienz. Ob
sie allerdings die beste Lösung ist, lässt sich im komplexen Umfeld nie sagen, weil es
zu den Eigenschaften der Komplexität gehört, dass man noch immer eine bessere
Lösung wird finden können.
Psychologen haben getestet, welche Persönlichkeitsprofile die besten Voraussetzungen
für die Lösung komplexer Probleme haben. Interessanterweise gehören zu den
wichtigsten Eigenschaften nicht Intelligenz und Kreativität. Die allerwichtigste
Eigenschaft ist Selbstbewusstsein, die Fähigkeit sich nicht unterkriegen zu lassen, am
Ball zu bleiben, der Wille das Problem zu lösen. Dazu gehört auch die Erfahrung,
ähnliche Probleme schon gemeistert zu haben. "Ich werde es schaffen, weil ich schon
ganz anderes gelöst habe", ist ein typischer Ausspruch von erfolgreichen Menschen.
Ebenfalls sehr wichtig in diesem Zusammenhang ist das Abstraktionsvermögen von
Menschen. Gute "Abstrahierer" sind vor allem schneller im Lösen.
Kunden

Was ist Kundenbeziehungsmanagement?

Kundenbeziehungsmanagement ist ein umfassender Ansatz, der das gesamte


Unternehmen betrifft. Es gehört zu den originären Kernkompetenzen eines
Unternehmens. Ziel ist der Aufbau und stetige Ausbau von beidseitig vorteilhaften
Beziehungen mit den Kunden. Der Fokus ist damit nicht mehr das Produkt, nicht mehr
die einzelne Transaktion, sondern die langfristige Beziehung zum Kunden. Denn aus
diesen Beziehungen wird der zukünftige Cash-Flow für das Unternehmen generiert.
Und damit stellen die Beziehungen Unternehmenswerte dar, die eines Managements
bedürfen wie die finanziellen oder physikalischen Vermögensgegenstände.
Kundenbeziehungsmanagements steht die Erkenntnis, dass jeder Kunde einzigartig ist,
ein "Segment of One" darstellt, und entsprechend auch die Beziehung zwischen Kunde
und Unternehmen gestaltet werden muss. Und der für das Unternehmen wichtigste
Unterschied ist der Wert, den jede einzelne Kundenbeziehung darstellt. Einzigartige
Beziehungen zu allen Kunden zu unterhalten muss deshalb auch bedeuten, dass
abgestuft nach dem Wert die Ressourcen für die Pflege der jeweiligen Beziehung
zugeordnet werden.
Ziel bei der Entwicklung der Beziehungen muss es sein, konsistente Prozesse bei den
Interaktionen mit den Kunden, den "Momenten der Wahrheit", im gesamten
Unternehmen sicherzustellen. Das bedeutet, dass für die verschiedenen Kontaktkanäle
wie Filiale, Internet oder Telefon jeweils auf den Kanal und das Geschäftsereignis
abgestimmte, für den einzelnen Kunden entsprechend seinen Bedürfnissen und seinem
Wert für das Unternehmen spezifische, aber dennoch unternehmensweit einheitliche
Unternehmensreaktionen erfolgen müssen.
Grundvoraussetzung hierfür ist Wissen - Wissen um den einzelnen Kunden, seine
Bedürfnisse, seine Einzigartigkeit und sein Ertragspotential. Dieses Wissen muss
überall im Unternehmen an allen Kontaktpunkten mit den Kunden verfügbar sein und
hier muss bei Interaktionen diese Wissensbasis auch überprüft, erneuert und ausgebaut
werden.

Kundenportfolio

Die Unterschiede zwischen Kunden sind grösser als die Ähnlichkeiten, in bezug auf
das, was sie von Anbietern wollen und was Anbieter von ihnen bekommen. Dennoch
werden Kunden gleich behandelt. Warum? Weil Unternehmen nicht wissen, was der
einzelne Kunde wünscht, weil es zu teuer oder unmöglich erscheint, dem Kunden
genau das anzubieten, was er haben will?
Der technologische Fortschritt macht es möglich, One-to-One-Marketing zu betreiben:
Fokussierung auf einen kleinen, profitablen Kundenkreis, Aufbau langfristiger,
vertrauensvoller Beziehungen mit diesen Kunden und Verkauf massgeschneiderter
Produkte. Die Frage ist: Lohnt sich das? Ja, und zwar aus folgenden Gründen:
• Meist trägt nur ein kleiner Teil des Kundenkreises den grössten Teil zum
Unternehmensprofit bei (z.T. wird mit 20% der Kunden 120% der Gewinne
erwirtschaftet)
• Nur ein kleiner Teil des potentiellen Umsatzes mit einem Kunden wird
verwirklicht (im Bankenbereich 10-15%)
Es lohnt sich also, sich auf einen kleinen profitablen Kundenkreis zu fokussieren und
beispielsweise durch Cross-Selling den Umsatz mit diesen Kunden zu steigern, also
den eigenen Anteil am "Share of Wallet" des Kunden zu erhöhen.
Wie finde ich nun die Kunden, auf die ich mich fokussieren sollte? Über den Customer
Lifetime Value. Dieser Wert gibt an, welchen potentiellen Wert ein Kunde über seinen
Lebenszyklus für ein Unternehmen besitzt. Er umfasst nicht nur den Umsatz, den das
Unternehmen über die Jahre mit diesem Kunden generiert, sondern bezieht auch
sinkende Kosten bei der Kundenpflege, Veränderungen des Einkommens, Cross-
Selling und Gewinnung von Neukunden durch Empfehlung mit ein.
Der nächste Schritt nach der Bestimmung der wichtigsten Kunden gilt der Identifikation
der Charakteristiken dieser Kunden und der weiteren Kundensegmente. Diese Analyse
erlaubt die Entwicklung spezifischer Angebote für die Kunden, auch für die weniger
profitablen. Denn diese sind häufig eine notwendige Basis für das Unternehmen. Sie
bedürfen aber eines anderen, weniger aufwendigen Marketingansatzes.

Produktbildung

Hören Sie auf die Stimme des Kunden. Warum ziehen Kunden beim Kauf ein Produkt
einem anderen vor? Weil das Produkt einen höheren Wert für den Kunden besitzt. Dies
ist allgemein bekannt, werden Sie sagen. Wenn es nun um die Entwicklung neuer
Produkte oder Dienstleistungen geht, orientieren sich dann die Unternehmen an diesem
Wert? In den meisten Fällen lautet die Antwort: Nein. Denn oft fragen Unternehmen ihre
Kunden überhaupt nicht, obwohl nur diese wirklich die Antwort kennen. Oder sie fragen
die Kunden nach einzelnen Produkteigenschaften, obwohl Kunden bei Ihren
Kaufentscheidungen das Produkt als Ganzes bewerten. Oder sie fragen nach der
Kundenzufriedenheit.
Wenn Sie nach Kundenzufriedenheit fragen, fragen Sie aber nur Ihre aktuellen Kunden
- und nicht potentielle neue Kunden. Sie fragen nach den Erfahrungen mit existierenden
Produkten - und schauen damit in die Vergangenheit und nicht in die Zukunft. Sie
fragen nur nach der Zufriedenheit mit den eigenen Produkten - damit wissen Sie aber
nicht, wie die Produkte der Konkurrenten beurteilt werden, und dies ist die Messlatte.
Denn Ihre Kunden können sehr zufrieden mit Ihren Produkten sein. Wenn sie aber den
Produkten der Wettbewerber einen noch höheren Wert einräumen als Ihren eigenen,
bringt Ihnen das wenig.
Der Kunden-Wert-Ansatz geht weiter als der Kundenzufriedenheitsansatz. Er gibt Ihnen
mit Hilfe des Instruments der Conjoint-Analyse Antworten auf die Fragen, die Sie bei
der Produktentwicklung stellen:
• Was sind die wichtigsten kaufdeterminierenden Faktoren, auf die die Kunden
Wert legen, wenn sie zwischen Ihren Produkten und denen Ihrer grössten
Wettbewerber wählen?
• Wie beurteilen Kunden Ihre Leistung gegenüber Ihren Wettbewerbern bezüglich
der kaufdeterminierenden Faktoren?
• Welche anteilige Bedeutung hat jeder dieser Faktoren für den Kundenwert?
Und damit können Sie die Produkte und Dienstleistungen bestimmen, die aufgrund ihrer
Eigenschaften den im Markt höchsten Wert für den Kunden bedeuten - aber auch, wie
wertvoll die Marke oder der Lieferant ist und damit die Kundenbindung.

Kundenkontakt

Interaktionen zwischen Kunde und Unternehmen sind positiv für das Unternehmen.
Wenn der Kunde mit ihm in Kontakt ist, ist der Kunde noch sein Kunde. Je mehr
Interaktionen mit dem Kunden stattfinden, umso besser ist dies für das Geschäft.
Die Interaktionen mit dem Kunden sind für das Unternehmen aber problembehaftet.
Immer neue Medien wie E-Mail, Videokonferenzen oder Internet-Telefonie entstehen,
über die Kunde und Unternehmen in Kontakt treten können. Und die Kunden wollen
vielfach über diese Medien mit dem Unternehmen interagieren. Und für das
Unternehmen bieten diese Kanäle auch neue Chancen zur effizienten Kommunikation,
zur Vertiefung der Beziehung mit dem Kunden.
Es reicht aber nicht aus, einfach einen neuen Kontaktkanal einzurichten. Dieser muss in
das bestehende Interaktionsnetzwerk integriert werden. Und dies ist eine
Herausforderung für interne Organisationsstrukturen, Prozesse, Systeme. Doch das
interessiert den Kunden nicht. Er tritt in Interaktion mit einem Unternehmen und
erwartet, dass unabhängig vom Kontaktkanal eine Interaktion nach den gleichen
Geschäftsregeln abläuft, mit Mitarbeitern, die über den gesamten
Informationsbackground verfügen, die seine Bedürfnisse, die Beziehungshistorie
kennen.

Wissen managen

Wissen existiert in Ihrem Unternehmen und die meisten Ihrer Mitarbeiter haben keine
Kenntnis davon - und benutzen es deshalb nicht. Ihnen ist nicht bekannt, ob und wo
Wissen vorhanden ist und wie Sie an das Wissen gelangen. Und dies, obwohl für
diesen Wissenserwerb Kosten angefallen sind und obwohl das Wissen dringend
benötigt wird - es ein entscheidender Erfolgsfaktor ist.
Wissensmanagement ist heutzutage essentiell beim Kundenbeziehungsmanagement.
Dem Kunden zu geben, was er will - das ist das Ziel. Und woher weiss man, was der
Kunde will? Meistens vom Kunden selbst. Doch diese Informationen, die der Kunde an
das Unternehmen gibt, werden vielfach nicht aufgenommen, gespeichert oder anderen
Mitarbeitern bekannt gemacht. Und damit vergibt man eine grosse Chance: eine
besondere Verbindung zum Kunden aufzubauen mit Informationen, über die
Wettbewerber nicht verfügen können.
Wissensmanagement ist ein relativ neues Managementkonzept, aber es baut auf vielen
bekannten Instrumenten auf, wie der Prozessanalyse, Informationsplanung und dem
Change Management. Folgende Stufen sind bei der Implementierung zu
berücksichtigen:
• Analyse der Wissensanforderungen im Unternehmen: Welches Wissen wird an
welchen Stellen benötigt?
• Ist-Aufnahme des im Unternehmen vorhandenen Wissens
• Durchführung von Massnahmen und Design von Prozessen zu externem
Wissenserwerb und interner Wissensentwicklung
• Einführung von Wissensinput- (Selektion, Speicherung, Aktualisierung) und
Output-Prozessen (Verteilung)
• Definition der Anforderungen an unterstützende IT-Systeme;
• Auswahl und Einführung der Systeme
• Massnahmen zur Förderung einer offenen Unternehmenskultur, die den
Austausch von Informationen unterstützt
• Design eines Messinstrumentariums zur Bewertung des Erfolgs von
Wissensmanagementaktivitäten

Prozesse optimieren

Wenn Unternehmen den Weg in die neue Welt der Kundenbeziehungen antreten
wollen, werden sie häufig von Schatten aus der Vergangenheit daran gehindert: ihren
IT-Systemen.
Die alten Systemlandschaften können genau das nicht erfüllen, was Kernpunkt des
Kundenbeziehungsmanagements ist: Fokus auf den einzelnen Kunden mit seinen
spezifischen Eigenschaften und Bedürfnissen. Die Mitarbeiter benutzen verschiedene
Systeme mit unterschiedlichen Sichten auf den Kunden, je nach Produkt oder
Vertriebsweg, sie greifen auf unterschiedliche Informationen ohne gegenseitige
Verknüpfung und Abgleich zu. Zweck dieser Systeme war auch nicht die Kundenpflege,
sondern Automatisierung und Effizienzsteigerung. Folge dieser Situation: Die
Unternehmen besitzen viele der Kundeninformationen, die sie dringend brauchen, aber
sie können sie nicht richtig verwenden, weder im Kundenkontakt noch bei Analysen der
Datenbestände.
Fortschritte in der Informationstechnologie und ein neuer Fokus der Systemanbieter auf
die Prozesse mit Kundenorientierung haben zu einem Angebot an Systemen geführt,
mit denen die theoretischen Ansätze des Kundenbeziehungsmanagements umgesetzt
werden können. Diese Systeme werden die Beziehungen zwischen Anbieter und Kunde
grundlegend verändern:
• Data Warehouses und Data Marts erlauben die Extraktion von ungeordneten
(Kunden-) Informationen in eine konsistente strukturierte Datenbasis
• Mittels Ansätzen bzw. Tools wie Data Mining und OLAP kann die Datenbasis
analysiert werden
• Systeme wie Sales Force Automation unterstützen die Vertriebsmitarbeiter und
andere Organisationseinheiten mit Kundenkontakt (z.B. Call Center) beim
Management der Interaktionen mit Kunden.
Die technologischen Möglichkeiten sind vorhanden, die Projekte zur Einführung aber
anspruchsvoll. Der umfassende Charakter des Kundenbeziehungsmanagements
machen eine sorgfältige Systemauswahl, effektive Implementierung und einen
strategisch fokussierten Einsatz notwendig. Die Verantwortung für ein solches Projekt
muss bei der gesamten Unternehmensführung liegen und darf nicht einer einzelnen
Abteilung überlassen werden.

Beschwerden - eine grosse Chance

Seien Sie froh, wenn Sie Beschwerden bekommen, denn der überwiegende Teil der
Kunden beschwert sich überhaupt nicht, ehe sie Sie verlassen. Beschwerden geben
Ihnen eine zweite Chance:
• erfolgreiches Beschwerdenmanagement trägt zur Kundenloyalität bei
• Beschwerden liefern wertvolle Informationen über Kundenbedürfnisse und
eigene Schwachstellen
• Beschwerden eröffnen die Möglichkeit, negative Urteile, die an Dritte
weitergetragen werden, zu revidieren
Deshalb: Stimulieren Sie Ihre Kunden zu Beschwerden. Schaffen Sie interne Prozesse,
so dass der Kunde sich leicht und gerne beschwert. Entwickeln Sie eine gegenüber
Beschwerden positive Unternehmenskultur. Und binden Sie Ihre Mitarbeiter mit ein.
Denn sie haben den direkten Draht zum Kunden. Sie wissen, wo der Schuh drückt und
wie man die Probleme beheben kann.
Bleiben Sie aber nicht bei realen Beschwerden stehen. Auch der Verlust von Kunden ist
als (stumme) Beschwerde anzusehen. Kontaktieren Sie diese Kunden, befragen Sie sie
nach den Ursachen für ihre Entscheidung. Analysieren Sie diese Kunden, um ähnliche,
möglicherweise auch abwanderungsgefährdete Kunden zu identifizieren und
Gegenmassnahmen zu ergreifen.
Wenn Dienstleistungen erbracht werden, treten Fehler auf - dies ist nie ganz
vermeidbar. Und der Kunde ist dabei. Ein perfektes Zusammentreffen, um
Unzufriedenheit beim Kunden entstehen zu lassen. Doch Sie können dies verhindern.
Vielmehr können Sie die Loyalität des Kunden zu Ihrem Unternehmen stärken, wenn
Sie sich in dieser Ausnahmesituation bewähren. Durch die richtigen Massnahmen
unmittelbar nach Eintreten des Problems - mit Hilfe eines Krisen-Management-Systems.
Dessen Implementierung umfasst folgende Schritte:
• Identifikation der gravierendsten Problem-/Beschwerdesituationen (aus Kunden-
und Unternehmenssicht)
• Analyse dieser Situationen und Ausarbeitung der effektivsten
Reaktionsmassnahmen
• Umsetzung der erforderlichen Strukturveränderungen (Prozesse,
Organisationsstrukturen, Personalsystem)
• Erfolgskontrolle

Kontrolle der Kundenbeziehung

Kundenbeziehungsmanagement ist nicht billig. So belaufen sich in der


Telekommunikationsbranche die jährlichen Kosten je Kunde auf 30-50 DM. Solche
Investitionen müssen gerechtfertigt werden. Aber wie? Welche Messgrössen zeigen
den Erfolg des Kundenbeziehungsmanagements: Wenn der Kunde zufrieden ist? Wenn
eine lange Dauer der Geschäftsbeziehungen erreicht wird? Wenn ein hoher Ertrag je
Kunde erwirtschaftet wird? Und die Frage ist dabei immer: Welchen Anteil an diesem
Erfolg hat das Kundenbeziehungsmanagement?
Da die Auswirkungen eines Kundenbeziehungsmanagements erfahrungsgemäss erst
nach 2-3 Jahren richtig sichtbar werden, erweist sich ein kurzfristig angelegtes
Controlling als nicht zielführend. Und das Controlling auf eine Messgrösse, auf
vergangenheits- oder gegenwartsbezogene Messgrössen zu beschränken, wie dies
häufig in der Praxis erfolgt, ist ebenfalls nicht sinnvoll.
Eines der am häufigsten eingesetzten Elemente des Controlling-Mixes ist die Messung
der Kundenzufriedenheit. Kundenzufriedenheit ist aber nur Voraussetzung, nicht jedoch
ausreichend für den Erfolg. Gleiches gilt für andere Messgrössen wie Kundenbindung.
Sie sind notwendige und sinnvolle Indikatoren, ob das Beziehungsmanagement
bestimmte gewünschte Wirkungen erzielt hat. Letztendlich ist aber Erfolg erst dann
gegeben, wenn eine Umsetzung der Zufriedenheit in für das Unternehmen profitable
Kaufhandlungen erfolgt.
Controlling für das Beziehungsmanagement muss also umfassend sein, so wie auch
das Beziehungsmanagement ein holistischer Ansatz ist. Das System der Balanced
Scorecard eröffnet einen Rahmen zur Integration strategischer Massnahmen wie das
Beziehungsmanagement. Es enthält historische finanzielle Kennzahlen wie im
traditionellen Controlling. Aber es bindet daneben die Faktoren zukünftiger Leistungen
ein: Kunden, interne Geschäftsprozesse und Innovationen. Und Balanced Scorecard ist
mehr als ein Messsystem. Es kann als zentraler und organisatorischer Rahmen für die
gesamten Managementprozesse dienen.
Strategie

Strategie, die; -,-n 1. längerfristiger Plan zur Erreichung eines Zieles, der versucht,
äussere Faktoren und Reaktionen zu berücksichtigen und das weitere Vorgehen darauf
einzurichten 2. (mil.) für bestimmte Kriegssituationen festgelegte mil. Vorgehensweise
3. langfristig angelegte Vorgehensweise, Überlegung zur mittel- und längerfristigen
Entwicklung.
(aus Langenscheidts Fremdwörterbuch)

Im Kontext mit der Unternehmensführung ist Strategie - trotz seiner heutigen weiten
Verbreitung - ein junger Begriff. Erst nach 1980 wurde Strategie zu einem zentralen
Begriff im Management.

Abbildung: Einflussfaktoren der Unternehmensstrategie

Die Strategie wurde je nach dem gerade modischen Schlagwort mit Erfahrungskurve,
Portfolio, Wettbewerbspositionierung, Kernkompetenzen, Lean Management oder
Reengineering gleichgesetzt.
In Wirklichkeit ist Strategie etwas weit Komplexeres und Umfassenderes.
Was umfasst Strategie?

• Wissen, was man will.


Ohne Ziele benötigt es keine Strategie. Das wichtigste Element für eine
erfolgreiche Strategie ist das klare Ziel und der Wille dieses Ziel zu erreichen.
Jeder Mitarbeiter sollte mit seiner ganzen Persönlichkeit und Willenstärke hinter
diesem Ziel stehen. Wie bereits Antoine de Saint - Exupéry gesagt hat: "Wenn
Du ein Schiff bauen willst, so trommle nicht Leute zusammen, um Holz zu
beschaffen, Werkzeuge vorzubereiten, Aufgaben zu vergeben und die Arbeit
einzuteilen, sondern wecke in ihnen die Sehnsucht nach dem weiten, endlosen
Meer."

• Wissen,was man nicht will.


Nur eine eindeutige Position in dieser Frage vermeidet Ablenkung und ständige
Neuorientierung. Bill Gates hat hier eine seiner Stärken. In einem Interview aus
dem Jahr 1998 sagt er: "Wir werden weder den Besitz von Telekom-Netzen noch
Telefongesellschaften anstreben. Wir werden nicht in die Systemintegration
einsteigen und nicht in die Beratung auf dem Feld Informationssysteme." Nur wer
genau weiss, was er nicht will, kann sich voll auf das konzentrieren, was er will.

"Strategie muss immer mit Innovationen einhergehen"

• Etwas Neues schaffen.


Strategie muss immer mit Innovation einhergehen. Diese kann durchaus nach
innen gerichtet sein. Einer der grossen Irrtümer der meisten Strategen ist die
ständige Suche nach Gesetzmässigkeiten von Strategien. Sie studieren die
Erfolgsstorys von gestern, um sie zu imitieren. Nur Kreativität, Originalität und
Querdenken produzieren überlegene Strategien. "Find out what everybody else
is doing, then do it differently", lautet ein amerikanisches Motto. Das Problem
besteht nur darin, dass einem niemand sagt, was "differently" heisst, das kann
man nur selbst herausfinden.

• Externe Chancen und interne Kompetenzen integrieren.


Die Strategieansätze der vergangenen 30 Jahre zeichneten sich durch eine
jeweils einseitige Betonung aus. Entweder standen die externen Chancen im
Mittelpunkt (Portfolio, Wettbewerbsstrategie, Kundenzufriedenheit), oder die
internen Aspekte wurden einseitig betont (Erfahrungskurve, Kernkompetenzen,
Lean Management). Strategie erfordert jedoch die gleichgewichtige Behandlung
beider Seiten. Der Markt für Mobile Commerce mag zwar grossartige
Wachstumschancen bieten, das nutzt aber einer Firma, der die entsprechenden
Kompetenzen fehlen, absolut nichts. Diese banale Einsicht wurde und wird
ständig missachtet. Umgekehrt scheitert der beste Dampflokomotiven-Hersteller
der Welt trotz seiner tollen Kompetenzen, weil niemand mehr Dampflokomotiven
kauft.

• Durchhalten.
Strategie heisst durchhalten, heisst Ausdauer, nicht aufgeben. Man könnte das
Michelangelo Wort "Genius ist ewige Geduld" in "Strategie ist ewige Geduld"
abwandeln. Trotz der scheinbaren Schnelllebigkeit unserer Zeit und ihrer Märkte
entstehen dauerhafte Erfolgspositionen nicht in kurzer Zeit. Vielmehr erfordern
sie Visionen und Aktionen, die über Jahrzehnte reichen und einem konsistenten
Strategiemuster treu bleiben.
Kommunikation

10 Regeln für erfolgreiche Pressearbeit

1. Nur die echte Nachricht zählt. Nur glaubhafte Botschaften und interessante
Informationen haben eine Chance in der täglichen Presse-Flut.
2. Vertrauen gewinnen ist das Ziel. Zuerst auf der redaktionellen Seite und dann auf
den Seiten der Leser und Hörer.
3. Hände weg von unausgegorenen Nachrichten und überzogenen PR-Phrasen.
Sie schaden, denn Journalisten durchschauen Sie schneller als Ihnen lieb ist.
4. Nicht erst in einer Krise an PR, Presse- und Öffentlichkeitsarbeit denken. Nicht
erst dann die ersten Presse-Mitteilungen in der Hoffnung auf Konkursabwehr und
höheren Abverkauf versenden.
5. Kontinuität. Bemühen Sie sich,, regelmässig Informationen aus Ihrem Haus in die
relevanten Redaktionen zu schicken.
6. Bestimmen Sie jemanden in Ihrem Unternehmen, der für das Zusammentragen
von Informationen und Themen verantwortlich ist. Er (es) ist Bindeglied zwischen
Unternehmen und PR-Berater oder PR-Journalist. Je weiter oben Ihr
Beauftragter in der Unternehmenshierarchie angesiedelt ist, desto besser.
7. Aktualität zählt. Ende September interessiert sich kaum noch jemand für Ihre
Halbjahresbilanz.
8. Nutzen Sie Ihre Kontakte und bauen Sie diese aus. Der Kontakt zum
Journalisten sollte in der Hand des Unternehmens sein. Der Hauptgrund:
Journalisten wollen stets Informationen aus erster Hand und keinen PR-Berater,
der etwa in Fragen der Firmenpolitik oder –ausrichtung nie wirklich kompetente
Aussagen ad hoc treffen kann oder darf.
9. In der Anfangsphase gilt: Jede Veröffentlichung zählt, ist sie auch noch so klein.
Nicht ungeduldig werden. Und dies schon gar nicht die Redaktionen in
irgendeiner Form spüren lassen. Sie verscherzen sich so mühsam aufgebaute
Sympathien.
10. Verinnerlichen Sie: Kommunikation ist kein preiswertes Geschäft. Nur wenn Sie
bereit sind, auch langfristig in Ihre Vermarktung zu investieren, können Sie am
Ende auch messbare Ergebnisse erwarten.
Kommunikation

Bewertungskriterien für Kurzreden

Ziel

Ziel der Rede verstanden ++ + 0 - -- Ziel der Rede unklar


Er / sie überzeugt ++ + 0 - -- Er / sie lässt mich kalt

Gesamteindruck

wirkt sicher ++ + 0 - -- wirkt unsicher


zeigt Engagement ++ + 0 - -- wirkt unmotiviert

Aufbau

klarer Aufbau, logische


++ + 0 - -- Lücken, sprunghaft
Reihenfolge
angemessene Länge ++ + 0 - -- zu lang; zu kurz
passende Informationsauswahl ++ + 0 - -- zu ausführlich; zu wenig breit

Sprache

passt zum Publikum ++ + 0 - -- zu banal, zu viele Fachausdrücke


Schachtelsätze; abgebrochene
einfache Sätze ++ + 0 - --
Sätze
abwechslungsreich ++ + 0 - -- immer gleich

Stimme

Aussprache gut verständlich ++ + 0 - -- verschluckt Wörter, zu leise


zu schnell; zu langsam;
Tempo gut ++ + 0 - --
abgehackt
richtige Pausen ++ + 0 - -- zu wenig Pausen
Körper

unsicher, ablehnend,
sicherer Stand, zum Publikum hin ++ + 0 - --
verschlossen
steif, verkrampft; aufgesetzte
natürliche Gesten ++ + 0 - --
Gesten
regelmässiger Blickkontakt ++ + 0 - -- kein oder flüchtiger Blickkontakt

Besonderes

... ++ + 0 - -- ...
Kommunikation

Das Interview

Form und Funktion

Form Eine (prominente) Person wird von einem Interviewer befragt. In der
Regel kündet ein Moderator zuvor an, wer aus welchem Anlass zu
welchem Thema befragt werden soll (Anmoderation).

Funktion Das Publikum soll durch das Gespräch die befragte Person und ihre
Tätigkeiten, Erfahrungen und Meinungen kennenlernen.

Strukturmerkmale Der Interviewer ist über das Thema längst orientiert und kennt die
meisten Antworten bereits. Er stellt somit keine echten Fragen
(Fragen nach Dingen, die er nicht weiss), sondern vorbereitete, auf
das Publikum ausgerichtete Fragen, mit denen er ganz bestimmte
Informationen aus dem Befragten herausholen und ans Publikum
weiterleiten will.

Interviews können unterschiedlich stark vorstrukturiert sein. Während


ein Interview mit einem Skirennsieger spontan und - mindestens für
den Sportler - unvorbereitet geführt wird, sind "Interviews" in einer
Talkshow praktisch wortwörtlich abgesprochen.

Interviews können friedliche Gespräche sein, in denen der Begragte


ausführlich von sich erzählen kann (Musikstar als Gast in einer
Sendung), sie können primär der Informationsvermittlung dienen
(Expertenbefragungen), sie können aber auch zum Verhör ausarten
(Der heisse Stuhl, Rundschau).

Fragetechnik Fragen können sein: offen, kanalisierend, suggestiv, geschlossen.

Der Interviewer hat durch seine Fragen den Befragten absolut im


Griff. Wenn er will, kann er ihn völlig manipulieren, in eine ganz
bestimmte Richtung lenken, mit Anschuldigungen in die Verteidigung
drängen und ihm das Wort abklemmen. Wer ein Interview führt, trägt
eine grosse Verantwortung und sollte entsprchend vorbereitet sein.

Wer fragt, führt - Wer gefragt wird, wird geführt


Faire Fragen

Die folgenden Fragearten sind fair, weil sie dem Befragten die Möglichkeit geben, sein
Wissen und seine Meinung frei zu äussern.
Informationsfrage Alle W-Fragen: wer? was? wieviel? wo? welches? wann? warum?
Sachfrage Frage, auf die es eine "richtige" Antwort gibt: "Wie hoch ist der
Dollarkurs?"
Meinungsfrage Frage nach der persönlichen Meinung: "Was halten Sie davon?"
Kontraversfrage Frage mit oder: "Kann man das lernen oder muss das angeboren
sein?"
Ja-Nein-Frage Frage, die man mit Ja und Nein beantworten kann: "Ist das gut
so?"

Unfaire Fragen

Die folgenden Fragearten sind unfair, weil sie den Befragten in eine bestimmte Richtung
drängen oder ihm eine Meinung unterstellen.
Alternativfrage Gibt dem Befragten nur 2 Möglichkeiten: "Wollen Sie Rot- oder
Weisswein?"
Unterstellende Frage Die Frage: "Wie hoch sind die Raten für Ihr Auto?" unterstellt dem
Befragten, dass er sein Auto nicht bar bezahlt hat.
Ja/Nein-Falle Mit Ja und Nein setzt der Antwortende sich in die Nesseln:
"Haben Sie immer noch Schulden?" "Ja" = ich habe Schulden.
"Nein" = Ich hatte Schulden. Eine Solche Falle muss man
zurückweisen: "Ich hatte noch nie Schulden!"
Fangfrage Man will etwas anderes wissen, als man fragt. Mit "Haben Sie
einen Parkplatz gefunden?" erfährt man, ob der andere mit dem
Auto gekommen ist oder nicht.
Provokativfrage Lockt den Befragten aus der Reserve: "Wollen oder können Sie
keine Antwort geben?" (Kann bei lahmen Befragten nötig werden)
Suggestivfrage Der Befragte soll sich der Meinung des Interviewers anschliessen:
"Sie meinen doch auch...?", "Sie haben sicher schon...?".
Suggestivfragen muss man abklemmen: "Wie kommen Sie
darauf..."
Aber-Nicht Radioreporter-Krankheit: "Aber ist es nicht...", "Aber haben Sie
nicht...". Der Befragte kann nicht mehr antwortn, er muss sich
verteidigen!
Beispiele

Unfair Fair
Wollen Sie Rotwein oder Weisswein? Was möchten Sie trinken?
Fühlen Sie sich nicht elend in dieser Situation? Wie fühlen Sie sich in dieser Situation?
Meinen Sie nicht auch, dass Was sagen Sie zu der Aussage:"..."?
Können Sie keine Alternativen nennen? Können Sie Alternativen nennen?
Kommunikation
Das Statement

Statement (Kurzrede) = öffentliche Erklärung, Behauptung, Darlegung.

Anlässe

• Verkaufspräsentation
• Kongress, Seminar
• Pressekonferenz
• Vereinsversammlung
• Empfang, Apéro
• Feier
• Reise
• Podiumsgespräch

Ziele

• erläutern, darstellen
• begrüssen, eröffnen
• bewerten, analysieren
• Antrag stellen
• danken, gratulieren
• kritisieren, Frage stellen
• werben, auffordern
• Stellung nehmen
Aufbau

Abbildung: Aufbau eines Statements

Planung

1. Zwecksatz formulieren Was will ich mit meiner Rede erreichen?


2. Publikum analysieren Zu wem spreche ich? Vorwissen? Interessen?
3. Argumente sammeln pro, kontra
4. Reihenfolge festlegen erstens, zweitens; einerseits, andererseits...
5. guten Einstieg suchen vgl. unten
6. Stichwortkarte erstellen auf Zettel, Menukarte, Traktandenliste

Merksatz
Mit dem ersten Satz gewinnen Sie die Zuhörer.
Mit dem letzten Satz überzeugen Sie die Zuhörer.
Beispiele, Anregungen

Einstieg Ziel: Zuhörer packen, Aufmerksamkeit, Wohlwollen wecken.

Situationsbezug Wenn Sie sich in diesem Raum umschauen...


Wir sind hier zusammengekommen, um...
Bezug auf Vorredner Frau X hat vorhin behauptet...
Wir haben im Vortrag von Herrn X gehört...
Sie haben mich gefragt...
Aktualitätsbezug Ich habe heute in der Zeitung gelesen...
Themenformulierung Das Thema dieser Sendung lautet...
Wir müssen uns heute entscheiden, ob...
Sie sind hierher gekommen, um zu erfahren...
Fragen Haben Sie schon einmal...?
Was machen Sie, wenn...?
Fakten Jedes Jahr gibt es in Europa über 100'000 virenbefallene
Computer.
Beispiel, Bild Stellen Sie sich vor, Sie...
Schauen Sie sich einmal diesen Gegenstand an...
persönliches Erlebnis Letzte Woche bin ich nach New York geflogen. Da hat doch...
geistreiche Bemerkung Es ist noch kein Meist vom Himmel gefallen, sagt man. Beim
Gleitschirmfliegen ist das anders; da fallen selbst Meister vom
Himmel.

Schlechte Einstiegsvarianten: Entschuldigung (Ich bin kein guter Redner usw.), danken,
dass man reden darf, Schleife (Zuerst möchte ich bemerken), Ankündigung, man werde
es kurz machen, Weichmacher (Ich möchte), ziellose Polemik (Es ist doch einfach eine
Schweinerei...)

Hauptteil Ziel: darlegen und überzeugen


• Eingehen auf das, (was war), was ist, was sein sollte und vorschlagen, wie man
dorthin kommt
• Argumente pro und kontra, (bereits geäusserte) Meinungen gegeneinander
abwägen
• Behauptungen, Fakten, Beweisführung
• Beispiele, Bilder, persönliches Erlebnis
• eigene Meinung
Schluss Ziel: Zweck der Rede erreichen, Appell
• Kerngedanken bündeln, das Wichtigste wiederholen
• Bezug zum Einstieg herstellen (ich hatte die Frage gestellt...)
• persönliche Meinung nochmals unterstreichen
• Appell: machen Sie..., wählen Sie..., nehmen Sie...
• Wunsch (weiterhin guten Appetit, viel Vergnügen, alles Gute)

Schlechte Schlussvarianten: Ich habe geschlossen. Das wars.


Kommunikation

Der Vortrag

Das Schreiben der Rede


Abklärungen

Thema Genaues Thema? Von wem bestimmt?


Zeit Wieviel Redezeit?
Ort Anlass? Rahmen? Raum? Technische Einrichtung?
Publikum Wer? Wieviele? Freiwillig? Vorkenntnisse? Interessen?
Ziel Ziel der Rede?

Material sammeln

Wissen Informationen sammeln. Fundierte Einarbeitung ins Thema


Interesse Diskussion mit Bekannten. Eigeninteresse, persönliche Einstellung.
Schmuck Beispiele, Bilder, Zitate, Witze.

Grosszügig sammeln, jedoch ohne Ziel und Thema aus den Augen zu
verlieren.

Disposition

Auswahl Material zielgerichtet auswählen. Nie alles bringen!


Ordnung Informationen in logische Reihenfolge bringen. Passenden Schmuck
wählen.
Anfang, Schluss

In jedem Stadium der Arbeit schriftlich und laut redend arbeiten.

Manuskript • Für offiziellen Anlass wörtliches Manuskript erstellen.


• Aufbau der Rede hörbar machen.
• Einfache Sprache.
• Anschaulich bleiben, mit Bildern, Beispielen, konkreten
Wörtern.
• Redeschmuck einbauen: rhetorische Fragen,
Wiederholungen, Steigerungen, direkte Ansprache der
Zuhörer...
• Grosse Schrift, weite Zeilenabstände.
• Viele, sinnvolle Abschnitte mit grossem Abstand
dazwischen.
• Blätter einseitig bedrucken, nummerieren, nicht heften.
Stichwortkarten • Für einfacheren Vortrag Stichwortkarten erstellen.
• Aufbau der Rede sicht- und hörbar machen.
• Anfang, Schluss, Namen und Zitate wörtlich.
• A6, festes Papier, einseitig, nummeriert.
Kontrolle • Rede laut lesen. Zeitkontrolle!
• Inhalt, Logik und Zuhörerfreundlichkeit überprüfen.
• Rede evtl. kürzen und überarbeiten.

Visuelle Hilfsmittel erstellen

Visuelle Hilfsmittel sind sparsam einzusetzen. Sie sollen das Wort ergänzen,
unterstützen und vertiefen (nicht wiederholen, ersetzen oder davon ablenken). Sie
müssen qualitativ hochstehend sein und sich technisch und inhaltlich reibungslos in den
Vortrag einfügen lassen. Der Aufwand für die Herstellung darf nicht unterschätzt
werden.

Folien • Grosse Schrift! (mind. 18 Punkt)


• Wenig Text.
• Anschauliche, leicht lesbare Grafiken ("Milchkannen").
• Farben.
Dias • Wenige, passende, aussagekräftige Bilder.
• Nur einwandfreie, fotografisch gelungene Bilder
Papier Bei kleiner, im Voraus bekannter Teilnehmerzahl können wichtige
und/oder komplizierte Informationen (Zahlen, Diagramme,
Beispiele, Zitate, Literaturangaben, Namen und Adressen) auf
einem Blatt ausgeteilt werden.
Tafel, Flipcharts Für Vorträge nicht geeignet (->Konferenzen, Seminare)
Beim Zeigen mit Finger, Stift oder Stock weiterreden und zum Publikum gerichtet
bleiben. (Rede nicht unterbrechen, sich nicht im Profil oder mit Rücken zum Publikum
aufstellen)

Üben

• Der fertige Vortrag ist mindestens ein Mal laut vorzutragen, mit allen technischen
Hilfsmitteln!
• Die Handhabung der Folien und Dias ist speziell zu trainieren.
• Zeitkontrolle!
• Ideal ist eine Überprüfung mit Tonband oder Video und/oder einem kritischen
Zuhörer.
• Sprache, Mimik und Gestik überprüfen und trainieren.

Vorbereitungen

Äusseres

Kleidung Herren Anzug mit Hemd und passender Krawatte. Dunkle Schuhe.
Allenfalls Gilet oder Pulli statt Kittel. Keine Jeans, Jacken, Mützen
und Turnschuhe.
Kleidung Damen Hose / Jupe mit Bluse oder Zweiteiler. Stümpfe und flache
Schuhe. Keine Jeans, dicken Pullis, Socken und Stöckelschuhe.
Keine zu grossen Tücher oder Rollkragen um den Hals, Silhouette
wahren.
Frisur Muss absolut sitzen. Haare aus dem Gesicht. Keine
Extravaganzen.
Schmuck Dezenter Ohren- und Halsschmuck für Frauen empfehlenswert,
darf jedoch nicht baumeln und klimpern. Keine Armreife und nicht
zuviele Ringe. Wenn möglich keine Brille.
Schminke In künstlichem Licht Gesicht pudern. Frauen sollten Lippenstift
benützen.

Der Redner muss mindestens so gut gekleidet sein wie das Publikum.
Keine persönlichen Einstellungen demonstrieren.

Raum

Allgemein Stimmen Grösse und Sitzordnung? Genug Luft und Licht?


Sitzplatz des Organisators? Eigener Sitzplatz? Redeplatz?
Rednerpult Höhe einstellen. Fest verankert? Fangleiste? Genug Licht? Genug
Platz? Abstand zum Publikum?
Technik allgemein Bedienung von Licht und Fenstern? Kabel und andere
Stolperfallen? Mikrofon? Hilfe sicherstellen (Hausmeister).

Technik

Hellraumprojektor Standort festlegen (evtl. am Boden markieren). Leinwand oder


weisse Wand vorhanden? Wo ist die Steckdose? Ein- und
Ausschaltknopf? Gerät mit Folie ausprobieren und scharf
stellen! Ablagefläche für noch nicht / bereits gezeigte Folien
schaffen. Schreib- und Zeigestifte bereitlegen.
Diaprojektor und Video Standort festlegen (evtl. am Boden markieren). Leinwand oder
weisse Wand vorhanden? Gerät mit Dia oder Video scharf
stellen! Reihenfolge und Ausrichtung der Dias zwei Mal
überprüfen. Beherrschung des Gerätes sicherstellen.
Hilfsperson organisieren, die den Projektor bedient. Zeigestock
besorgen.
Mikrofon Wenn möglich ohne. Ansonsten: ausprobieren und einstellen!

Frühzeitig abklären, was vorhanden ist (inkl. Gerätetypen), allenfalls selber


mitbringen.

Auftritt

Zeitpunkt Ablauf der Veranstaltung mit Organisator nochmals durchgehen,


Zeitpunkt des eigenen Vortrags sicherstellen. Absolute
Pünktlichkeit!
Weg Von draussen? Von meinem Sitzplatz aus? Kürzester Weg?
Probelauf.
Vorstellung Sicherstellen, dass man richtig angekündigt und vorgestellt wird:
Name, Herkunft, evtl. Ausbildung und Tätigkeit, Beruf und Titel
des Vortrags dem Organisator frühzeitig schriftlich mitteilen.
Die Rede halten

Lampenfieber

Vorbeugen Perfekte Vorbereitung! Genug Zeit und Schlaf. Wenig essen,


keine Beruhigungs- und Aufputschmittel.
Bekämpfen Entspannungs- und Atemübungen. Spaziergang, abschalten.
Standhalten Ein bisschen Lampenfieber ist nötig, sonst fehlt die Energie.
Wissen: Es erwartet niemand eine fehlerfreie Leistung.

Einstimmung

Konzentration Rückzug (Gang, Ecke, Fensterbank, Klo) und 100% Konzentration


auf Thema und Ziel des bevorstehenden Vortrags.
Spannung Die nötige Körperspannung und Haltung aufbauen.
Begeisterung "Ich freue mich, hier zu sein. Ich freue mich, dass Sie hier sind.
Ich bin ganz für Sie da. Ich weiss, wovon ich spreche."

Los geht's

Auftritt Ruhig und fest nach vorne schreiten. Sich "aufbauen".


Blickkontakt Blickkontakt aufnehmen und halten bis zum Schluss!
Reden Voll bei der Sache sein und nur bei der Sache. Voll auf das
Publikum ausgerichtet sein und nur auf das Publikum. Mit Leib
und Seele dabei sein.

Die Rede sitzt, ist vorbereitet und einstudiert. Jetzt ist nicht der Moment,
um irgendetwas auszuprobieren oder zu üben.
Kommunikation

Die Podiumsdiskussion

Form und Funktion

Diskussionen dienen im Allgemeinen dazu, Informationen und Meinungen


auszutauschen sowie andere Leute für den eigenen Standpunkt zu gewinnen. Da man
nicht mit beliebig vielen Leuten diskutieren kann, benützt man das Podium als
Möglichkeit, einzelne, für das Thema besonders kompetente Personen stellvertretend
diskutieren zu lassen. Die Podiumsdiskussion siedelt sich an zwischen der Diskussion,
in der es um die Sache geht (Was ist besser?), und der Debatte, in der es um den Sieg
geht (Wer gewinnt?). Ziel ist meistens nicht, die "Wahrheit" zu finden, einen
Kompromiss zu erarbeiten oder gar Beschlüsse zu fassen, sondern den eigenen
Standpunkt glaubwürdig zu vertreten und dem Publikum beliebt zu machen.
Gesprächstechnisch zentral ist daher der Einsatz von Argumenten und
Gegenargumenten.
An einer Podiumsdiskussion nehmen teil ein Gesprächsleiter sowie je ein bis drei
Vertreter zweier kontroverser Meinungen zu einem Thema von allgemeinem Interesse.
Podiumsdiskussionen sind in der Regel öffentlich, was schriftliche Einladungen /
Anzeigen notwendig macht. Die Dauer der Veranstaltung wird vorher festgelegt,
ebenso, ob die Podiumsdiskussion am Schluss zu einer Forumsdiskussion mit allen
Anwesenden erweitert wird oder nicht.

Der Gesprächsleiter

Eröffnung Der GL begrüsst die Zuhörer und Teilnehmer.


Er stellt die Teilnehmer vor.
Er gibt das Thema der Veranstaltung bekannt.
Er orientiert über die Ausgangslage / die Hintergründe, die zum Thema
führten.
Er gibt allenfalls Gesprächsregeln bekannt (Worterteilung, Länge der
Beiträge)
Er legt die Dauer der Veranstaltung fest.
Er stellt eine Startfrage.

Die Startfrage muss offen sein, das heisst sie muss unterschiedliche Stellungnahmen
ermöglichen. Sie soll die Redenden nicht in eine bestimmte Richtung drängen. Sie darf
allenfalls leicht provozieren. Gute Fragen sind: "Wie stellen Sie sich die Entwicklung
des Internets in den nächsten 5 Jahren vor?" "Wie ist es Ihrer Meinung nach zu dieser
Situation gekommen?" "Die Gewerkschaft ist tot. Was sagen Sie zu dieser
Behauptung?" Keine Fragen, die man mit Ja oder Nein beantworten kann! Der GL muss
die Startfrage schriftlich vorbereitet haben.
Der GL erteilt das Wort und sorgt dafür, dass alle gleich viel zum Reden
Diskussionsteil
kommen.
Er fasst zusammen, hält Ergebnisse fest, wiederholt Kernaussagen.
Er führt neue Aspekte in die Diskussion ein, stellt zusätzliche Fragen.
Der GL unterbricht Dauerredner.
Er unterbricht und lenkt zum Thema zurück, wenn die Teilnehmer a)
abschweifen, b) sich in Details verlieren c) sich im Kreis drehen oder d)
persönlich werden.
Er blockt Provokationen ab und sorgt für Ruhe im Saal

Der GL muss die Diskussion nicht nur lückenlos verfolgen, sondern jederzeit im Griff
haben. Er notiert, wer was gesagt hat, damit er zusammenfassen und zum nächsten
Punkt überleiten kann. Er verliert das Thema und den von ihm geplanten Ablauf der
Diskussion nie aus den Augen!

Schluss Der GL kündet den Schluss an.


Er erteilt jedem Teilnehmer das Wort für ein Schlussvotum
Er fasst zusammen, zieht Schlussfolgerungen, weist auf die Zukunft hin.
Er bedankt sich bei den Teilnehmern und Zurhörer

Der GL hat absolute Neutralität zu wahren. Er darf zum Thema selber nicht Stellung
nehmen, er darf die Beiträge der Teilnehmer nicht bewerten ("interessant, was Sie da
sagen"), und er darf nicht Partei ergreifen.

Die Teilnehmer

Die Teilnehmer einer Podiumsdiskussion haben mit Organisation und


Gesprächsführung nichts zu tun. Sie haben sich jedoch geistig vorzubereiten: Gute
Kenntnis der Sache und gründliche persönliche Auseinandersetzung mit dem Thema.
Sie sollen sich in die Position des Gegners versetzen und überlegen, was seine
Anliegen sind und welche Argumente von seiner Seite zu erwarten sind. Eigene
Argumente, allenfalls Zahlen und Fakten, die man in der Diskussion einsetzen will, sind
schriftlich mitzubringen.
Eine Podiumsdiskussion soll nicht "gepflegt-einschläfernd" sein. Das lateinische Wort
"discutere" bedeutet immerhin "zerschlagen", "zerlegen". Eine gewisse Aggressivität ist
durchaus am Platz. Trotzdem sind die Teilnehmer gehalten, mit Argumenten zu streiten
und unfaire Taktiken zu unterlassen. Sie sollen Fragen beantworten und auf den
Gegner eingehen. Eine Diskussion bleibt ein Gespräch und ist keine Aneinanderreihung
von Monologen. Dazu ist aufmerksames Zuhören notwendig.
Abbildung: Notizenblatt für Teilnehmer und Gesprächsleiter

Argumente und Gegenargumente

Das Folgende ist lediglich, eine kleine Auswahl möglicher Argumentationstaktiken. Sie
sind in der Regel ethisch vertretbar, teilweise auch an der Grenze zu den unfairen
Taktiken.
Plus-Minus Bekannte Mängel werden (selber) benannt und zugegeben, die Vorteile
jedoch als überwiegend dargestellt.
Ja-Aber Dem Argument des Gegners wird zugestimmt, dann aber sofort mit
einem Gegenargument widersprochen. ("Natürlich kostet so ein
Weiterbildungskurs viel; wenn Sie aber bedenken, was...")
Beispiel Beispiele beweisen überhaupt nichts! Aber sie sind schwer zu
widerlegen...
Schweigen Wenn der Gegner als Antwort nur vielsagend schweigt, schiesst die
brillanteste Argumentation ins Leere...
Umkehrung Den Einwand zurückgeben. ("Sind Sie wirklich überzeugt, dass...?")
Mehrheit Die eigene Meinung wird als die Ansicht der Mehrheit dargestellt.
Gegner werden isoliert. ("Alle demokratisch gesinnten Bürger..." "Nur
der letzte Hinterwäldler glaubt heute noch...")
Umwertung Was vom Gegner als positiv dargestellt wurde, wird negativ umgedeutet
und umgekehrt. ("Gerade weil das Leben das höchste Gut ist, müssen
wir..." "Sie würden nicht hier sitzen, wenn wir nicht seit Jahren an ...
gearbeitet hätten.")
Fakten Gegen Zahlen, Statistiken und andere Fakten ist schwer anzukommen.
Entweder-Oder Man stellt die Situation dar, als gäbe es nur zwei Lösungen. ("Entweder
wir machen ... oder wir werden alle...")
Widersprüche Man weist dem Gegner Widersprüche in seinen Argumenten nach.
Definition Man lässt den Gegner seine Begriffe definieren, fragt nach Beispielen
und Beweisen, vor allem, wenn er sehr gescheit redet und abstrakte
Begriffe verwendet. ("Was verstehen Sie eigentlich unter E-Business?")
Analogie Man stellt den Gegner in eine Situation, in der er gegen seine
Überzeugung handeln müsste. ("Was würden Sie tun, wenn... ? Sie
würden wohl auch...")
Ad Absurdum Der Vorschlag des Gegners wird aufgenommen un in Gedanken
weitergesponnen, wobei herauskommt, dass der Vorschlag
unbrauchbar ist. ("Wenn wir..., dann passiert... und dann wird... Das
führt zwangsweise zu einem Chaos")
Bumerang Das Argument des Gegners wird gegen ihn selber gerichtet. ("Wenn
Sie ... durchsetzen wollen, müssen Sie die Hälfte Ihrer Abteilungsleiter
entlassen")

Einzelne Argumente können zu ganzen Strategien zusammengefügt werden:

Standpunkt 1. Standpunkt bekannt geben


2. Standpunkt begründen
3. Beispiel
4. Schlussfolgerung
5. Aufforderung, Standpunkt zu übernehmen oder mindestens zu
diskutieren
Problemlösung 1. Ist-Zustand schildern
2. Ursachen aufzeigen
3. Soll-Zustand schildern
4. Vorschlag zur Problemlösung entwickeln
5. Aufforderung, den Vorschlag anzunehmen oder mindestens zu
diskutieren
Zwei Positionen 1. Position A schildern
2. Position B schildern
3. Für eine Position Stellung beziehen oder beide ablehnen
4. Stellungnahme begründen bzw. dritte Position (Kompromiss)
vorschlagen
Reaktion: Mit Fragen nach Präzisierung und Ergänzung kann man Zeit gewinnen und
den Gegner manchmal schon verunsichern ("Sie meinen also...?"). Ansonsten gilt es,
Schwachstellen in der Argumentation zu finden: Geht er von Tatsachen aus oder von
Vermutungen? Wird die Lage objektiv beurteilt? Sind die Begründungen stichhaltig? Die
Beispiele an den Haaren herbeigezogen? Erwähnt er nur bestimmte Faktoren und lässt
andere gezielt weg? Sind seine Schlussfolgerungen logisch? usw.

Unfaire Taktiken

Schlagwort Einzelfälle werden verallgemeinert, statt Beweisen werden pauschale


Aussagen gemacht. ("Das war schon immer so"). Gleich unangebracht
sind Schlagworte ("Ohne Top Management kein Erfolg").
Autoritätenzitat Das Zitat einer Persönlichkeit wird anstelle eigener Beweise dazu
missbraucht, den Gegner zum Schweigen zu bringen. ("Schon Einstein
hat gesagt...")
Erfahrung Unter der Berufung auf die eigene Erfahrung wird jeder Vorschlag
abgeblockt. ("Das hat sich bis heute bewährt." "Junger Mann, da
können Sie...")
Emotion Mangels Gründen werden die Emotionen der Leute für die eigene
Sache missbraucht. ("Opfer sind wieder einmal die kleinen Kinder...")
Plausibilität Schwache Argumente werden mit dem Appell an den gesunden
Menschenverstand aufgemöbelt. ("Jeder vernünftige Mensch sieht
doch...")
Ausweichen In die Enge getrieben, weicht man auf ein anderes Thema aus.
("Übrigens...")
Isolierung Ein Aspekt aus der Argumentation des Gegners wird isoliert und
zerpflückt. Man kann den Aspekt auch aufbauschen und damit den
Teufel an die Wand malen.
Ad Personam Der Gegner wird persönlich angegriffen ("Davon verstehen Sie gar
nichts!")

Reaktion: Unfaire Taktiken muss man erkennen, um reagieren zu können. Man soll
ruhig, aber entschieden, allenfalls mit einer Prise Ironie reagieren: Die Taktik als solche
aufdecken, Fragen stellen, Beweise verlangen, Emotionales zurückweisen, die Dinge
richtigstellen.

Zuhören

Bei jedem Gespräch ist die Hör-Zeit bedeutend länger als die eigene Sprech-Zeit.
Trotzdem sind die meisten Menschen schlechte Zuhörer. Die Folgen:
Diskussionsteilnehmer sind unkonzentriert, warten gelangweilt auf "ihren" nächsten
Auftritt, wiederholen bereits Gesagtes, ohne es zu merken, gehen nicht auf Fragen ein,
zitieren die Diskussionspartner falsch, reden die längste Zeit aneinander vorbei.
Aktives Zuhören will gelernt und geübt sein. Aktiv zuhören heisst, Konzentration auf die
Gesprächspartner, Blickkontakt, den Gedankengängen der anderen bewusst folgen,
Rückmeldungen geben (nicken, "genau", "ach ja?"), Verständigungsfragen stellen,
notizen machen, schweigen.

Ohne das Zuhören verliert jede Diskussion ihren Sinn!

Vous aimerez peut-être aussi