Académique Documents
Professionnel Documents
Culture Documents
IT-Business-Informationen
für die IT-Berufe
IT-, ITS-Kaufmann /-frau
Fachinformatiker
o Business Reengineering
o Change Management
o Contentmanagement
o Customer Relationship Management CRM
o Data Warehouse
o Datenbank Management
o Enterprise Application Integration
o Enterprise Ressource Planning ERP
o Groupware und CSCW
o Informationspolitik
o IT Strategie
o Qualitätsmanagement in der Softwareentwicklung
o Software Reengineering
o Wissensmanagement
• IT-Kultur
o Computerethik
o Cyberculture
o Die Geschichte des Internets
o Die Zukunft des Internets
o Philosophie
o Recht
o Revolution
• Internet
• Hilfsmittel Methoden
! Brainstorming
! Brainwriting oder Methode 635
! Delphi
! Die morphologische Methode
! Inverses Brainstorming
! Synektik
• Sicherheit
o Computerviren
o Datenschutz
o Denial of Service
o Firewall
o Kryptographie
o Risikoanalyse
• Software
o Betriebssysteme
o Datenbanken
o Programmierung
o Software Eigenschaft
• Systeme Hardware
o Datenträger
o Der Rechner
o Eingabe
o Mobile Devices
o Prozessor
o Client
o Das OSI
o Middleware
o Netzwerk
o Netzwerkprotokolle
o Telekommunikation Hardware
• Wissen
o Führung
o Globalisierung und Informationstechnologie
o Komplexität
o Kunden
o Strategie
• Kommunikation
Fundamental
Radikal
Aus dem Lateinischen Begriff radix (Wurzel) ableitend betonen Hammer und Champy,
dass das BPR-Konzept keine oberflächliche Schönheitskorrektur sei, sondern an die
Wurzeln der Unternehmung rühre. Es gehe den Dingen dabei stets auf den Grund,
breche radikal mit der Vergangenheit und erziele durch eine völlige Neugestaltung mehr
als die blosse Modifizierung bestehender Geschäftsabläufe.
Verbesserung um Grössenordnungen
Hammer und Champy versprechen bei richtiger Umsetzung des BPR-Konzepts eine
erhebliche Verbesserung um Grössenordnungen. Leistungssteigerungen um
beispielsweise 10% werden dabei nicht als Ziel des BPR verstanden. Die Autoren
propagieren hingegen die Realisierung "von ganzen Quantensprüngen".
Geschäftsprozess - Kerngeschäftsprozesse
Unter einem Geschäftsprozess versteht man eine Reihe von strukturierten Aktivitäten,
die für den Kunden zu einem wert- und nutzenvollen Ergebnis führen sollen und die
Wertschöpfung eines Unternehmens steigern (Wertschöpfungskette). Die Schaffung
von Kundennutzen steht dabei im besonderen Blickpunkt der BPR-Massnahmen.
Zu den Kerngeschäftsprozessen eine Unternehmens zählt man dabei z.B. die
Eingangslogistik, die Produktion, den Vertrieb, die Ausgangslogistik und den
Kundendienst, die durch sogenannte unterstützende Prozesse wie die Beschaffung und
den Einkauf begleitet werden. Im Zuge der Implementierung von BPR ist es von
besonderer Bedeutung die jeweils kritischen Geschäftsprozesse zu identifizieren, also
diejenigen, die für das Gesamtziel des Unternehmens nachhaltig und langfristig wichtig
sind. Weitere Merkmale kritischer Geschäftsprozesse können z.B. die hohe Bedeutung
eines Prozesses für die Problemlösung und Zufriedenheit interner oder externer
Kunden, die starke Auswirkung eines Prozesse auf die
Kostenintensität/Kapitalbindungsdauer, die durchschlagende Wirkung eines Prozesses
auf die Produktqualität oder die vergleichsweise lange Dauer eines Geschäftsprozesses
sein. Je nach Unternehmensbranche sowie den angestrebten Wettbewerbszielen wie
Kostenführerschaft oder Differenzierung können im BPR andere Geschäftsprozesse
eines Unternehmens als kritische Prozesse bestimmt werden.
Kernkompetenzen
Induktives Denken
Hammer und Champy verweisen darauf, dass die meisten Führungskräfte sehr gut in
der Lage seien, durch Deduktion vorliegende Probleme zu lösen. Sie seien brillant
darin, Probleme zu definieren, verschiedene Lösungsansätze zu bewerten und dabei
nach geeigneten Lösungen zu suchen. Gerade im Zusammenhang mit dem Einsatz
modernster Informationstechnologie, wie es das BPR vorsieht, kommt es nach Ansicht
der Autoren jedoch viel stärker darauf an, eine Lösung zu erkennen, für die man das
entsprechende Problem im Unternehmen erst aufspüren muss, um es dann damit lösen
zu können. Als Beispiel führen Hammer und Champy das weltweit bekannte
Unternehmen Xerox an, das in den späten 50er Jahren seinen ersten kommerziellen
Kopierer nur unter erheblichen Problemen auf den Markt bringen konnte. Kein
potentieller Käufer hatte damals erkannt, dass dieses Gerät, der sog. "914", ein
Problem lösen konnte, das bis dahin noch niemand bewusst verspürt hatte: Die
Möglichkeit, beispielsweise ein Skript, Handout oder Protokoll an eine grössere Anzahl
von Zuhörern oder Beteiligten direkt austeilen zu können, war damit entstanden und
erwuchs innerhalb kürzester Zeit zu einem nicht mehr fortzudenkenden Anspruch und
Bedürfnis. Nach Hammer und Champy liegt demnach die wahre Kraft induktiven
Denkens in Verbindung mit neuesten, technologischen Möglichkeiten darin, Antworten
auf Probleme zu finden, von denen der Mensch bzw. der Markt (noch) gar nicht weiss,
dass er sie überhaupt hat.
Visionen
Visionen stehen am Anfang des BPR. Sie definieren das Fernziel, das sich die
Unternehmung für seine Zukunft vorstellt. Es handelt sich bei Hammer und Champy
"sowohl um eine qualitative wie auch quantitative Beschreibung, auf die das
Unternehmen immer wieder vor und während des Reengineering zurückgreifen kann,
als Erinnerung an die Zielsetzung des BPR, als Massstab, um den Fortschritt zu
messen, und als Ansporn für die Fortführung des Reengineering-Projekts."
Structure follows Process
Die Organisation eines Unternehmens wird üblicherweise in die Ablauf- (Prozess) und
die Aufbauorganisation (Struktur) unterteilt. Zwischen Prozess und Struktur ergeben
sich eine grosse Anzahl an Wechselwirkungen, wobei in traditionellen Unternehmen,
die Prozesse nur im Rahmen der vorgegebenen Strukturen ablaufen können und sollen.
BPR verkehrt nach Koenigsmarck dieses Prinzip in sein Gegenteil: die Struktur folgt
den Ansprüchen der im Unternehmen ablaufenden (erfolgs)kritischen
Geschäftsprozesse. Die gegebene Aufbaustruktur wird danach beurteilt, ob und
inwieweit sie effiziente und effektive Prozesse vor allem in Bezug auf eine starke
Orientierung an Kundenbedürfnissen zulässt.
Change Management
Fragt man Mitarbeiter in Unternehmen zu ihrer Einstellung zum Wort Veränderung, ist
festzustellen, dass die meisten Mitarbeiter negative Einstellungen oder
Wahrnehmungen gegenüber diesem Begriff haben. Die Antworten und Aussagen
reichen von Verlust des Arbeitsplatzes, der Stellung oder der sozialen Sicherheit bis zur
Befürchtung einer höheren Belastung am Arbeitsplatz.
Die Auswirkungen von Veränderungen auf die meisten Angestellten, sowohl in Linien-
als auch in Leitungsfunktionen sowie die Auswirkungen auf das allgemeine
Leistungsniveau sind in der Regel negativ. Die Auswirkungen umfassen Sorgen, Stress,
Frustration und eine generelle Ablehnung der Veränderung.
Die meisten Mitarbeiter im Unternehmen haben eher einen Widerstand gegenüber
Veränderungen als die Veränderung als Chance zur Verbesserung zu begrüssen. Das
halbvolle Glas ist eher halbleer als halbvoll. Sie befürchten, etwas zu verlieren, weil zum
Teil Informationen darüber fehlen, was die veränderte Zukunft bringen wird, was
passieren wird und welche Anforderungen und Aufgaben dann an sie gestellt werden.
Führt die Veränderung gar zum Abbau von Arbeitsplätzen, haben diejenigen, die "übrig
geblieben" sind, immer noch eine Ablehnung gegenüber der Veränderung. Ursache
dafür sind unter anderem die gestiegenen Verantwortungsbereiche und die neuen
Aufgabenfelder. Andere Mitarbeiter können sich sogar schuldig dafür befinden, dass sie
die "Überlebenden" des Veränderungsprozesses sind und andere "verloren" haben. Die
emotionalen Einstellungen können zusätzlichen Stress im Unternehmen erzeugen.
Diese Probleme der Wirkungen von Veränderungsprozessen müssen beachtet werden,
um die positiven und angestrebten Effekte der Veränderung zu erreichen. Dabei hängt
der Erfolg der Veränderung massgeblich von der Fähigkeit des Unternehmens ab, seine
Mitarbeiter in den Veränderungsprozess vollständig zu integrieren.
Contentmanagement
Das Internet wächst ständig und damit auch die Anzahl der auf den Servern
bereitgestellten Dokumente. Durch die steigende Zahl dieser Online-Publikationen und
die zunehmende Kombination mit Datenbankdaten wird die manuelle Verwaltung immer
schwieriger. Auch wird es immer wichtiger, Inhalte in verschiedenen Formaten
mehrfach verwenden zu können sowie zusätzliche Präsentationskanäle (html, pdf usw.)
adäquat zu bedienen. Hier greifen Content Management Systeme (CMS) ein. CMS
sollen Inhalte für verschiedene Ausgabemedien und Zielgruppen aktuell und strukturiert
zur Verfügung stellen sowie deren Erstellung von Anfang an organisieren. Dabei
bezeichnet Content gleichermassen alles, was in digitaler Form publiziert werden kann:
Texte, Grafiken, Audio und Video.
Für kleinere Sites dürfte der Einsatz eines professionellen CMS nach wie vor unrentabel
sein, selbst wenn sich mittlerweile einige Anbieter genau dieser Zielgruppe zuwenden.
Werden die zu verwaltenden Inhalte jedoch umfangreicher, vielfältiger oder funktionaler
ist eine effektive Organisation gefragt. Kundenorientierte, speziell angepasste Lösungen
oder flexible Systeme nach dem Baukastenprinzip sollen hier auch individuellen
Anforderungen gerecht werden.
Die Einführung eines CMS bietet sich vor allem bei folgenden Merkmalen an:
Diese Checkliste soll lediglich ein erster Anhaltspunkt bei der Beschäftigung mit CM-
Systemen sein. Mit zunehmendem Projektumfang und steigenden Anforderungen an
das CMS ist eine professionelle Beratung unumgänglich.
Folgende Funktionen und Eigenschaften sollten jedoch in jedem Fall beachtet werden:
Workflow Das CMS sollte in der Lage sein, die Arbeitsabläufe innerhalb
eines Teams abzubilden.
CRM-Ziele
Daten sind in keinem Unternehmen Mangelware. Und mit jedem Bestell- oder
Liefervorgang, jeder Buchung, jeder Transaktion werden es mehr. Gigantische
Datenbanken aufzubauen und zu füllen, ist schon lange keine Kunst mehr. Eine wahre
Kunst ist es aber, die gesammelten Daten auch gewinnbringend zu nutzen: dazu gehört
es, wichtige Informationen aus dem Datenberg zu filtern und sie zu
unternehmensrelevantem Wissen anzureichern. und so eine Wissensgrundlage zu
schaffen, auf der sich gesicherte strategische Entscheidungen fällen lassen.
Die Konsequenz: Wer aus Daten Informationen ziehen will, muss die unterschiedlichen
Datenquellen zusammenfassen, in die für Datenanalyse geeignete Form aufbereiten
und den Anwendern verfügbar machen. Das alles kann ein Data Warehouse. Als
zentrale Datenbank sammelt es regelmässig Einträge aus den operativen Systemen,
ordnet und verdichtet sie und versieht sie mit beschreibenden Zusatzinformationen,
sogenannten Metadaten.
Bei der Übernahme der Daten ins Data Warehouse sorgen Transformationsprogramme
für Einheitlichkeit. So entsteht eine konsistente Datengrundlage, bereinigt von
Unstimmigkeiten, wie zum Beispiel eventuelle Fehler in der Datenstruktur,
Falscheinträge, oder unterschiedliche Schlüssel für gleiche Kundengruppen. W.H.
Immon, einer der Väter der Data Warehouse Idee schätzt, dass 80 Prozent der
Anstrengung in die Datenextraktion, also beispielsweise Zugriff und Säuberung
investiert werden müssen.
Planung
Ein Data Warehouse stellt die Ordnung her, die nötig ist, um in dem Datendickicht eines
Unternehmens die Informationen zu finden, die man benötigt. Als schlüsselfertige
Standardlösung ist es nicht zu kaufen. Grösse und Konzept sind von
Unternehmensstruktur und Anforderungen der Benutzer abhängig. Wer einsteigt, muss
allerdings nicht sofort ein ganzes Einkaufszentrum planen. "Think big, start small",
lautet der Ratschlag vieler Experten. So kann ein modularer Aufbau sinnvoll sein. Man
startet mit sogenannten Data Marts, vergleichbar mit einzelnen Fachabteilungen
innerhalb des Data Warehouses.
Und auch ein Unternehmen, dessen Datenvolumen sich im Vergleich mit einem
Handelsriesen winzig ausnimmt, sollte über den Einsatz eines Data Warehouses
nachdenken. Ab wann sich der Aufbau eines Data Warehouses lohnt, sollte man nicht
an der Unternehmensgrösse fest machen sondern an zwei anderen Faktoren: der Zahl
der Kunden in Kombination mit der Zahl der Transaktionen.
Nicht jedes Grossunternehmen braucht ein Data Warehouse, und wer eines braucht,
muss nicht unbedingt ein Grossunternehmen sein.
Bei den Werkzeugen zur Analyse des strukturierten Datenbestands im Data Warehouse
tauchen verstärkt zwei Begriffe auf: OLAP und Data Mining.
OLAP (Online Analytical Processing) ist mit einer stark erweiterten Tabellenkalkulation
vergleichbar. Die Daten werden in einem multidimensionalen Datenwürfel
zusammengefasst und dann in Berichten mit Tabellen und Grafiken angezeigt. Der
Nutzer kann sich die Kriterien, die für ihn interessant sind, auswählen und miteinander
kombinieren.
So kann der Marktforscher die Faktoren Zeit, Gebiet und Produkt in einem Datenwürfel
kombinieren, um das gewinnträchtigste Produkt zu ermitteln. Innerhalb dieser Analyse
kann er die einzelnen Bezugsgrössen beliebig verändern, beispielsweise die
Umsatzzahlen wochen-, tages- oder stundenweise vergleichen.
Internet- und Intranet erweitern die Fähigkeiten von OLAP. So bieten viele OLAP-
Werkzeuge die Möglichkeit, Reports über das Internet oder ein Intranet durchzuführen.
Der Mitarbeiter kann über einen Browser auf den OLAP-Server seines Unternehmens
zugreifen, erhält die notwendigen Daten und erstellt ortsunabhängig und flexibel die
gewünschten Analysen.
Während OLAP die Antwort auf gezielte Fragen gibt, schürfen Data Mining-Tools nach
unbekannten Zusammenhängen innerhalb der Unternehmensdaten. Dazu nutzen sie
neuronale Netze und genetische Algorithmen.
Ein bekanntes Beispiel, das den Nutzen des Schürfens in der Datenmine zu
verdeutlicht, handelt von einer Handelskette, die durch das Analyse-Instrument
entdeckte, dass am frühen Abend häufig Bier und Windeln gemeinsam in einem
Einkaufskorb landen. Warum? Die Verantwortlichen zerbrachen sich die Köpfe, bis sie
die Antwort fanden. Nach Feierabend kaufen viele junge Väter noch schnell die
benötigten Windeln und belohnen gleichzeitig ihren Einsatz für Haushalt und Familie mit
ein paar Flaschen Bier. Das Handelsunternehmen zog aus dieser Erkenntnis
Konsequenzen: Beide Produkte wurden nebeneinander plaziert.
Die meisten Data Mining-Werkzeuge verwenden die folgenden Suchstrategien:
• Assoziationen suchen nach Mustern, bei denen das Auftreten einer Sache das
Auftreten einer anderen impliziert. Beispiel: "Käufer von Taucheraustrüstungen
sind gute Kandidaten für Urlaubsreisen nach Australien"
• Sequentielle Muster sind zeitliche Zusammenhänge. Beispiel: "Wenn der Preis
von Aktie X um 10% steigt, sinkt der Preis von Aktie Y eine Woche später um
15%"
• Clustering sucht nach Gruppierungen und Klassifikationen auf hoher Ebene.
Beispiel: "Über 70% der Wechselwähler haben ein Einkommen von über 60'000
Dollar, sind zwischen 40 und 50 Jahre alt="" und leben in der Nähe von XYZ."
Datenbank Management
Datensatz (record): ein Datensatz ist die Vertretung und Darstellung eines materiellen
oder immateriellen "Objekts". Ein Datensatz enthält verschiedene Attribute (attribute),
die die Beschreibung entsprechender Eigenschaften des Objekts sind (z.B. Name, Titel
...) sich selbst beschreibend: eine Datenbank soll ihre eigene Struktur beschreiben.
Diese Beschreibung der Struktur einer Datenbank nennt man Meta-Daten (meta-data)
(Daten über die Daten).
Eine Datenbank besteht aus Daten und Meta-Daten. Die Meta-Daten sind in einem
Bereich der Datenbank gespeichert, der data dictionary oder system catalog heisst. Der
data dictionary (system catalog) beschreibt und definiert die Tafeln, Kolumnen, Indices
usw., die die Struktur der Datenbank bilden integriert: eine Datenbank enthält nicht nur
unverbundene Datensätze, sondern ermöglicht auch, die Beziehungen zwischen
Datensätzen zu erfassen (die Datensätze sind aufeinander bezogen, in ein Ganzes
integriert).
Eine Datenbank besteht aus:
• Daten: den integrierten Datensätzen
• Software: dem Datenbank Management System (DBMS)
Unter Datenbank Management System verstehen wir einen Satz von Programmen, die
dazu dienen, Datenbanken und die mit ihnen verknüpften Anwendungen zu definieren,
verwalten und zu bearbeiten. Das DBMS ist die Software, die zwischen den
spezifischen Anwendungen (z.B. Akzessionsverwaltung) und den Daten vermittelt.
Ein DBMS umfasst typischerweise folgende Leistungsmerkmale:
• eine Data Definition Language (DDL): enthält die Befehle zum Erstellen,
Modifizieren oder Löschen einer Datenbank
• eine Data Manipulation Language (DML): enthält die Befehle zum Unterhalt einer
Datenbank, d.h. zum Eintragen, Ändern oder Auswählen von Daten aus einer
Datenbank. Ein wichtiger Bestandteil der DML ist eine Query Language, die das
Auffinden und Aussuchen von Daten ermöglicht.
• eine Data Control Language (DCL): enthält die Befehle zur Sicherheit einer
Datenbank. Bestandteile dieser Sicherheit sind u.a.:
o security system: Zugangskontrolle: verhindert, dass nicht dazu
Bevollmächtigte zu Daten Zugang haben oder Daten bzw. die Datenbank
verändern können.
o integrity system: Sicherung der Unversehrtheit der Daten
o concurrency control system: Regelung von gleichzeitigem Zugang zur
Datenbank
o recovery control system: Mittel zur Wiederherstellung der Datenbank im
Falle von Hardware- oder Softwareproblemen
o user-accessible catalog: Nutzer-zugängliche Beschreibung der Daten
• einen View Mechanism, der es jedem Nutzer erlaubt seine eigenen Sichteweisen
(views) der Datenbank zu schaffen.
Ein DBMS verwaltet die physischen Details der Datenspeicherung, sodass sich die
Anwendungsprogramme nur um die logische Struktur der Daten und ihrer Beziehungen
kümmern muss, nicht darum, wie diese Daten gespeichert sind. Ein DBMS, das auf
verschiedenen Arten von Computern (Mainframes, Minicomputer, PCs) läuft, nennt man
skalierbar (scaleable). Dies ist besonders wichtig für Netzwerke, die verschiedenste
Arten von Computern (vom Supercomputer bis zum Notebook und PDA) enthalten.
Datenbank-Modelle
Das Netzwerk-Modell
Das Hauptmerkmal einer relationalen Datenbank ist, dass die Daten in Tabellen
(tables), akademisch Relationen (relations) genannt, organisiert sind, die voneinander
weitgehend unabhängig sind. Eine Tabelle / Relation ist ein zweidimensionales Gebilde
aus Reihen (rows) und Spalten (columns). Alle Einträge in einer bestimmten Spalte
haben dieselbe Bedeutung (z.B. Titel, Untertitel ...). Jede Spalte repräsentiert ein
bestimmtes Attribut (attribute) der durch die Tabelle repräsentierten Objekte. Jede
Reihe enthält die Attributs eines einzigen Objektes der Tabelle. Die Reihenfolge der
Reihen und Spalten in einer Tabelle ist ohne Bedeutung. Verschiedene Tafeln sind
dadurch direkt verknüpft, dass sie jeweils mindestens eine Spalte mit demselben
Attribut enthalten. Über direkt verknüpfte Tafeln lassen sich indirekte Vernüpfungen
herstellen.
Der Hauptvorteil des relationalen Datenbankmodells ist, dass die Struktur der
Datenbank verändert werden kann (indem man Tabellen hinzufügt oder entfernt), ohne
dass deswegen Anwendungen geändert werden müssen, die sich auf die ältere Struktur
gründeten. Ein weiterer Vorteil des relationalen Modells ist, dass man beliebig viele
Sichtweisen (views) oder virtuelle Tabellen (virtual tables) der Daten mit
unterschiedlichster logischer Struktur schaffen kann, indem verschiedene Tabellen bzw.
Teile von Tabellen kombiniert werden. Dazu muss die Datenbank physisch nicht
verändert werden.
Die Meta-Daten der Struktur der ganzen Datenbank und ihrer Tabellen wird in
sogenannten Schemas (schemas) definiert und gespeichert. Der Bereich der Werte, die
ein Attribut (d.h. ein Eintrag in einer bestimmten Spalte) annehmen kann, nennt man
Wertebereich (domain) des Attributes. Dieser Wertebereich wird durch
Einschränkungen (constraints) näher bestimmt.
Das relationale Datenbankmodell wurde 1970 von E. F. Codd bei IBM entworfen. 1979
erschien dann mit Oracle die erste kommerzielle Implementierung. Heute gibt es über
100 relationale DBM's.
Datenbank-Design
Die Grundlage einer guten, brauchbaren Datenbank bleibt auch trotz aller
Erleichterungen durch moderne Hilfsmittel beim Entwurf und der Erstellung einer
Datenbank ein gutes Datenbank-Design, d.h. vor allem, dass man sich klar ist, wozu
eine Datenbank dienen soll, welche Zwecke sie erfüllen soll. Dies ist eine sachliche
Aufgabe, die immer die Nutzer, ihre Bedürfnisse, Eigenarten, Schrullen usw., im Auge
behalten muss.
Man unterscheidet beim Datenbank-Design folgende Ebenen:
• Konzeptionelles Design: Design der Datenstrukturen, des Gebrauchs der
Daten usw. ohne Rücksicht auf ein bestimmtes Datenbank Management System
(DBMS)
• Logisches Design: Umwandlung des konzeptionellen Designs auf die
Strukturen des vorgesehenen Datenbank Management Systems (DBMS)
• Physisches Design: Design der Implementierung
Enterprise Application Integration (EAI)
EAI-Lösungen bilden das Fundament für die Integration von Anwendungen. Die
verfügbaren EAI-Konzepte unterscheiden sich von existierenden Middleware-
Produkten, Applikationsservern und Gateways aufgrund ihres grösseren
Leistungsumfangs. Neben dem Transport von Daten aus der einen in die andere
Lösung werden auch betriebswirtschaftliche Anforderungen berücksichtigt.
Applikationsprofile Applikationen, die mit anderen integriert werden müssen, können in
zwei Gruppen eingeteilt werden:
• Standardanwendungen mit einer festgelegten API und einer unterstützten
Connection Middleware Nicht-Standardanwendungen, die eine API haben
können, aber über keine gängige Connection Middleware verfügen.
Standardapplikationen ermöglichen leichten Zugriff durch Client-Software-
Komponenten. Beispiel hierfür ist SAP R/3, das eine RPC-basierte API
verwendet.
• Nicht-Standardanwendungen werden meist als Legacy- oder Individual-
Applikationen bezeichnet. Um eine Integration mit diesen Anwendungen zu
ermöglichen, muss ihnen eine "Softwareschicht" oder ein Wrapper zugefügt
werden. Dieser Wrapper erzeugt eine Art Standardschnittstelle.
Weitere Informationen:
• Kriterienliste für die EAI-Produktauswahl, Richard Nussdorfer
• Competence Center zum Thema EAI-Systeme
Enterprise Ressource Planning ERP
Als Enterprise Ressource Planning (ERP) Software bezeichnet man eine Sammlung
von Applikationen, die Abteilungen mit Finanz- und Personalressourcen automatisieren
und Herstellern helfen Aufgaben wie Bestellungsabwicklung und Produktionsplanung zu
erfüllen. Diese Systeme sind hoch komplex, und ein Einsatz dieser Software erfordert
oftmals eine Änderungen der internen Prozesse des Kunden.
Die Einsatzgebiete von ERP Systemen werden immer vielfältiger und die Anbieter von
ERP Software stossen in neue Gebiete wie Supply Chain Management (SCM) oder
Customer Relationship Management (CRM) vor.
Finanz - Module für Buchhaltung und zur Überwachung des Zahlungsverkehrs. Als
Beispiele:
• Hauptbuch: Beinhaltet zentralisierte Kontenpläne und Firmenbilanz
• Debitoren: Überwacht Kundenzahlungsn und Aussenstände
• Kreditoren: Überwacht Zahlungenstermine an Lieferanten
• Anlagevermögen: Verwaltet Abschreibungen und Kosten die mit Gebäuden,
Eigentum und Ausstattung zusammenhängen
• Finanzverwaltung: Überwacht und analysiert den Kassenbestand,
Finanzverträge und Investitionsrisiken
• Kostenkontrolle: Analysiert Gemeinkosten und Kosten von Produkten und
Produktionsaufträgen
Kapazitätsplanung
Die konstante Produktion von Gütern. Sie erlaubt dem Produzenten unter nahezu voller
Auslastung ohne Spitzen und Tiefen in der Auslastung
Kostenstellenrechnung
Prozess um Gemeinkosten verschiedenen Geschäftsobjekten zuzuordnen. Die
Gemeinkosten inkludieren (Gehälter, Gebäudeinstandhaltung und andere Kosten, die
nicht direkt produzierten Gütern zuordenbar sind)
Anlagevermögen
Inkludiert Gebäude, Möbel, Maschinen, Fahrzeuge und anderes physisches Eigentum,
das für Aufgaben wie zB. Abschreibung und Wartung verwaltet werden muss.
Just-in-time Produktion
Lieferung vom Materialien zu einer Produktionsstätte zu dem Zeitpunkt, in dem sie
gebraucht werden um den Lageraufwand zu verringern.
Logistikverwaltung
Verwaltet Operationen der Produktion, wie Vertrieb, Werksdisposition und Transport.
Herstellungsressourcenplanung
Koordiniert den Produktionsprozess. Sie erlaubt eine Vernetzung verschiedener
Funktionen, wie Planung, Produktion, Vertrieb und Disposition
Neben den Bedingungen für kooperatives Arbeiten können nach Piepenburg noch drei
z.T. dichotom ausgeprägte Dimensionen von Kooperation unterschieden werden:
• Bilaterale vs. multiple Kooperation
• Konjunktive vs. disjunktive Kooperation
• Unmittelbare vs. mittelbare Kooperation
Die erste Dimension bezieht sich auf die Anzahl der Kooperationspartner - Kooperation
unter Beteiligung von zwei oder mehreren Partnern ("bilaterale vs. multiple
Kooperation"). Die zweite Dimension bezieht sich auf die Art und Weise, in der
Kooperationspartner das gemeinsam zu erreichende Arbeitsergebnis herbeiführen. Im
Gegensatz zur konjunktiven reicht es bei der disjunktiven Kooperation aus, wenn
lediglich nur einer der Beteiligten den Handlungsablauf bis hin zum Kooperationsziel
vollzieht.
Die dritte Dimension von Kooperation bezieht sich auf die räumliche und zeitliche
Distanz der Beteiligten. Eine unmittelbare Kooperation findet statt, wenn sich alle
Kooperationspartner zur gleichen Zeit am gleichen Ort aufhalten. Mittelbare
Kooperation bezieht sich auf die übrigen Formen, die sich durch die Kombination der
beiden Kriterien Zeit und Ort ergeben.
Kommunikation als Mittel für kooperatives Arbeiten
CSCW ist nach dem bisherigen Erkenntnisstand eine noch nicht einheitlich verwendete
Sammelbezeichnung für ein Forschungsgebiet, auf dem sich Wissenschaftler
verschiedener Disziplinen mit der Untersuchung der Zusammenhänge zwischen
Informations- und Kommunikationstechnologien sowie kooperativem Arbeiten
auseinandersetzen. CSCW-Forschungsarbeiten bilden demnach die Grundlage für die
Entwicklung von Groupware-Anwendungen. Der hier vorgestellte Rahmen dient zur
Einordnung einzelner CSCW-Forschungsaktivitäten und hebt die Multidisziplinarität von
CSCW hervor.
Bei der Ausarbeitung von Ansätzen und Konzepten der CSCW-Systementwicklung
dominieren heute vor allem Forschungsarbeiten aus der Informatik und anderen
Computerwissenschaften, die in der Praxis zu einer Vielzahl von Kommunikations-,
verteilten Multimedia-Systemen sowie von Multi-User-Interfaces geführt haben. Diese
Systeme sind die technischen Grundlagen, auf denen heute Groupware-Anwendungen
basieren können. Zum Verständnis von Gruppenarbeit tragen vor allem empirische
Forschungsarbeiten aus den Sozialwissenschaften, der Psychologie, den
Kommunikations- und Organisationswissenschaften etc. bei.
Für die Entwicklung von Groupware müssen in Zukunft die Abhängigkeiten der drei sich
beeinflussenden Forschungsschwerpunkte von CSCW, wie sie in der vorhergehenden
Abbildung dargestellt sind, beachtet werden. Daher ist es offensichtlich, dass
Forschungsarbeiten nicht auf der Ebene von Werkzeug- und
Konzeptimplementierungen beginnen dürfen, sondern auf einer objektiven Analyse des
Arbeitsumfelds der Gruppe basieren müssen.
Aus diesem objektiven Wissen über Gruppenmechanismen und aus den von
verschiedenen Gruppenmitgliedern zu erledigenden Aufgaben müssen
Gestaltungsansätze und konzeptionelle Grundlagen für die Entwicklung von Groupware
abgeleitet werden. Zu den Gruppenmechanismen gehören soziale und funktionale, auf
die Gruppe und ihre einzelnen Mitglieder einflussnehmende Faktoren. Bei empirischen
Forschungsarbeiten über Gruppen mit CSCW-Erfahrung müssen auch
Vergleichsstudien zu früheren Forschungsarbeiten über Gruppen ohne CSCW-
Erfahrung durchgeführt werden, um die Wirksamkeit von Groupware sowie die
Akzeptanz neuer Anwendungen durch die Gruppenmitglieder objektiv beurteilen zu
können.
Das aus frühen wissenschaftlichen Untersuchungen resultierende Gruppenverständnis
ist dahingehend zu untersuchen, welche Formen an Computerunterstützung mit
welchen Eigenschaften zum Untersuchungszeitpunkt zur Verfügung standen und ob
das damals (z.T. vor zwanzig Jahren) erarbeitete Wissen auch für die gegenwärtig
soziale und technische Umwelt noch Gültigkeit hat. Bei der Untersuchung der Nutzung
von Groupware muss auch beachtet werden, dass Gruppen in der Regel nicht nur
kurzfristig und einmalig zusammenarbeiten, sondern auch über längere Zeit hinweg
bestehen. Dieser Untersuchungsaspekt, der von der bisherigen Groupware-Entwicklung
nicht ausreichend beachtet worden ist, betont, dass von einer einmaligen
Zusammenarbeit zwischen kooperierenden Informationsarbeitern nicht automatisch und
zeitunabhängig auf fortlaufende Gruppenprozesse geschlossen werden darf. Auch
müssen "natürliche" Gruppen in die Forschungsarbeit miteinbezogen werden, damit
nicht nur, von Forschern gestellte künstliche Aufgaben, sondern auch jene aus einer
praxisorientierten Arbeitsumwelt bearbeitet werden können.
Informationspolitik
Informationswissenschaft
Informationswissenschaft befasst sich mit der Klärung des Informationsbegriffs und des
Informationsverständnisses und seiner/ihrer erkenntnistheoretischen, historischen,
sozialen, ökonomischen, genetisch/biologischen und technischen Zusammenhänge. Sie
befasst sich weiterhin mit Theorie und Praxis des Informationsmanagements in allen
seinen Erscheinungsformen. In ihrer modernsten Ausprägung schliesst sie die Bereiche
Bibliothekswesen, Archivwesen und Museologie ein und arbeitet eng mit den
Nachbardisziplinen Betriebswirtschaft, Bildungswissenschaften, Design,
Ingenieurwissenschaften, Informatik, Kommunikationswissenschaft,
Kulturwissenschaften, Linguistik, Sozialwissenschaften, Verhaltenswissenschaften und
Volkswirtschaft zusammen. Durch Forschung und Lehre sowie durch permanente
Zusammenarbeit mit Informationspolitik und Informationspraxis leistet sie
unverzichtbare Beiträge zum technischen und sozialen Fortschritt und zur humanen
Gestaltung des Lebens.
Aufgabe der Informationswissenschaft, wie aller Wissenschaft, ist neben den Aufgaben:
• Aufstellen einer neuen Theorie
• Ermittlung neuer Grunderkenntnisse
• neue Thesen als Detaillierung von Grunderkenntnissen
• neue Thesen als Kombination von Grunderkenntnissen verschiedener
Disziplinen
• neue Thesen durch Anwenden neuer Methoden
• Quantifizierung bisher qualitativ beschriebener Zusammenhänge
• Interpretation begrenzter Einzelerscheinungen
• Materialerschliessung und -zusammenstellung nach bestimmten Aspekten
• Überblicke über Themenproblematiken nach bestimmten Aspekten
auch die Aufgabe, praktische Probleme durch Angabe konkreter Lösungswege zu
lösen. Dies geschieht - konventionell - in drei Schritten:
• Erkennen der Problemsituation und Darstellung des Problems (Stadium der
Problemerstellung)
• Analyse der Bedingungen und Methoden, die eine Problemlösung gestatten
(Stadium der Problembarbeitung)
• Aufstellung von Hypothesen und ihre Überprüfung in der Praxis (Stadium der
Problemlösung)
Informationspraxis
Die Fähigkeit zur schnellen Reaktion auf sich verändernde Märkte und die
Beherrschung zunehmender Komplexität - sowohl in den vernetzten Prozessen als
auch in der innovativen Produktgestaltung - entscheiden über die Wettbewerbsfähigkeit
der Finanzdienstleistungsunternehmen in der Zukunft. Diese Entwicklung - in der
Fertigungsindustrie bereits weitgehend vollzogen - erzwingt den strategischen Einsatz
des Produktionsfaktors Information.
Die Optimierung und Weiterentwicklung der Informationsverarbeitungssysteme zur
Sicherstellung der Wettbewerbsfähigkeit des Unternehmens ist unabdingbar. Dabei
gewinnt die effiziente Rollenverteilung bei der Gestaltung der Informationssysteme an
Bedeutung. Neben der Organisations-, Produkt- und Marketingstrategie ist die IT-
Strategie der entscheidende Träger der Unternehmensstrategie.
Die IT-Abteilung wandelt sich zu einem Dienstleister mit Beratungsfunktion. Sie liefert
und integriert Softwarebausteine aufgrund gemeinsam abgestimmter Regeln.
Fachbereiche und Betriebsorganisationen leisten eigenständig qualitativ hochwertige
Entwicklungsarbeit und kombinieren auf der Grundlage dieser Regeln Produkte und
Prozesse flexibel aus den gelieferten Softwarebausteinen. Diese Sichtweise hat
Konsequenzen - auf die Zusammenarbeit zwischen den Bereichen ebenso wie auf die
Prozesse innerhalb der IT-Abteilung. Fachbereiche und Betriebsorganisation müssen
als Auftraggeber verbindlich das Bausteinprinzip und die Regeln zu dessen Nutzung
anerkennen und in ihrer täglichen Arbeit berücksichtigen! Dazu zählt auch die
vollständige formale Spezifikation ihrer Anforderungen. Die IT-Abteilung muss in
strenger Kundenorientierung die Entwicklungsarbeit bei ihren Auftraggebern
unterstützen und die geforderten Softwarebausteine und Beratungsleistungen in der
vereinbarten Qualität termin- und aufwandsgerecht liefern. Eine hohe Stabilität der
Grundlagen dieser Zusammenarbeit im Zeitverlauf ist unabdingbar für den dauerhaften
Erfolg.
Produktorientiertes Qualitätsmanagement
Statische Qualitätssicherung
Die statische Qualitätssicherung umfasst alle Aktivitäten, die Informationen über ein
Prüfobjekt bereitstellen, ohne es dynamisch auszuführen. Ein typisches Beispiel der
statischen Qualitätssicherung sind Inspektionen. Dabei wird ein Objekt durch ein Team
von drei bis sieben Teilnehmern überprüft. Das Team versucht, durch gemeinsames
Lesen des Prüfobjekts und mit Hilfe von Checklisten Fehler zu entdecken. Prüfobjekte
können z. B. Anforderungsdokumente, Daten- oder Ablaufmodelle oder Softwarecode
sein.
Typische Fragen, die im Rahmen einer solchen Sitzung überprüft werden, sind:
• Stimmt das Objekt mit der Spezifikation überein?
• Ist das Objekt vollständig?
• Ist die gewünscht Funktionalität korrekt implementiert worden?
• Enthält das Objekt nur die Funktionen / Inhalte, die es enthalten soll?
• Sind relevante Richtlinien, Normen und Standards eingehalten worden?
Einer der Vorteile der statischen Qualitätssicherung besteht darin, dass bereits in den
frühen Phasen der Softwareentwicklung Zwischenprodukte systematisch überprüft
werden können. Das Testen hingegen erfordert ablauffähigen Softwarecode. Ein
weiterer Vorteil der statischen Qualitätssicherung besteht darin, dass Fehler direkt - und
nicht nur anhand ihrer Auswirkungen wie beim Testen - erkannt werden können.
Das Softwaretesten scheint in der Praxis im Vergleich zur statischen Qualitätssicherung
verbreiteter zu sein. Das ist vor allem deshalb unverständlich, weil verschiedene
empirische Untersuchungen zeigen, dass z. B. Code-Inspektionen im Vergleich zum
Testen deutlich effizienter sind. Setzt man den Gesamtaufwand ins Verhältnis zur
Anzahl der gefundenen Fehler, so ist mit Code-Inspektionen häufig eine deutlich höhere
Wirtschaftlichkeit erreicht worden.
Das produktorientierte Qualitätsmanagement hat den Nachteil, dass Fehler in der Regel
erst nach der Realisierung eines (Zwischen-)Produktes entdeckt werden können. Im
prozessorientierten Qualitätsmanagement versucht man dagegen, die
Softwareentwicklung so zu gestalten, dass die Wahrscheinlichkeit, Fehler zu begehen,
reduziert wird.
Prozessorientiertes Qualitätsmanagement
Die Entwicklung der ISO 9000-Normenfamilie begann Ende der 70er Jahre, um die
verschiedenen damals bereits existierenden nationalen und branchenspezifischen
Normen zur Qualitätssicherung zu vereinheitlichen. 1987 wurde die ISO 9000-Familie
weltweit veröffentlicht und seit dem in verschiedenen Stufen überarbeitet. Parallel dazu
glichen verschiedene nationale Normungsinstitute ihre Normen an die Vorgaben der
ISO 9000 an.
Die Übertragung der Empfehlungen und Forderungen der branchenunabhängigen ISO
9000-Normenfamilie fiel besonders Dienstleistungsunternehmen und Software
entwickelnden Organisationen schwer. Deshalb wurden verschiedene
branchenspezifische Auslegungen und Konkretisierungen der Normen erstellt. Für
Dienstleistungsunternehmen ist das z. B. die ISO 9004-2, für die Softwareentwicklung
die inzwischen überarbeitete ISO 9000-3.
Die ISO 9000-Normenfamilie besteht aus verschiedenen Normen:
• In der ISO 8402 werden die der ISO 9000-Familie zugrundeliegenden Begriffe
definiert.
• Die ISO 9000-1 ist ein Leitfaden zur Auswahl und Anwendung der ISO 9000
Normen. Sie gibt ausserdem eine Einführung in die Grundgedanken der
Normenfamilie.
• Die ISO 9004-1 gibt Empfehlungen zur Gestaltung des Qualitätsmanagements
bzw. zum Aufbau eines Qualitätsmanagementsystems. Der Begriff
"Qualitätsmanagementsystem (QM-System)" bezeichnet die "zur Verwirklichung
des Qualitätsmanagements erforderliche Organisationsstruktur, Verfahren,
Prozesse und Mittel".
• Die ISO 9001 beschreibt Anforderungen für die Zertifizierung von QM-Systemen.
• Die ISO 9000-3 ist ein Leitfaden für die Anwendung der ISO 9001 auf die
"Entwicklung, Lieferung und Wartung von Software". Die Verfasser der ISO
9000-3 haben versucht, die branchenunabhängig formulierten Begriffe der ISO
9001 in eine in der Softwareentwicklung übliche Terminologie zu übersetzen.
• Die Normen der "10000-er Reihe", die ebenfalls zur ISO 9000-Familie gerechnet
werden, gehen auf einzelne Elemente des Qualitätsmanagements ein, z. B. auf
die Durchführung von Audits oder die Erstellung von Qualitätsmanagement-
Handbüchern.
Inhaltlich geben die Normen in erster Linie Empfehlungen zur Dokumentation, zur
Qualitätssicherung, zum Konfigurationsmanagement, zur Verantwortung der Leitung
einer Organisation sowie zu den Aufgaben von Qualitätsbeauftragten. Der Ruf der ISO
9000 Normenfamilie hat in der Softwarebranche – vermutlich in erster Linie wegen der
Zertifizierungspraxis – gelitten. Allerdings haben viele Softwareunternehmen durchaus
positive Erfahrungen mit der Gestaltung ihrer Softwareentwicklung gemäss den
Empfehlungen der Norm gemacht.
Das Capability Maturity Modell (CMM) wird seit 1986 am Software Engineering Institute
(SEI) der Carnegie Mellon University in Pittsburgh, USA entwickelt. Das US-
amerikanische Verteidigungsministerium finanziert die Arbeiten am CMM, da es das
Modell als Hilfsmittel zur Beurteilung und Auswahl von Lieferanten für Softwaresysteme
benötigt.
Das wesentliche Strukturierungsmerkmal des CMM sind die sogenannten "Reifegrade"
("Maturity levels"). Reifegrad 1 ("initial") beschreibt "unreife" Gestaltungen der
Softwareentwicklung. Reifegrad 5 ("optimizing") beschreibt den höchsten Reifegrad.
"Reife" im Sinne des CMM bezeichnet das Ausmass, in dem die Softwareentwicklung
definiert und beschrieben ist, und in dem sie geplant, gesteuert und kontrolliert wird. Mit
steigendem Reifegrad wird die Erwartung verbunden, dass Termine, Kosten- und
Qualitätsziele besser geplant und eingehalten werden können. Gleichzeitig - so die
Verfasser des CMM - sinke das Risiko, dass einzelne Projekte ihre Ziele nicht
erreichen.
Die Verfasser des CMM stellen ausserdem einen Zusammenhang zwischen der Reife
und der Effektivität der Softwareentwicklung her. Sie behaupten, je reifer die
Softwareentwicklung sei, desto höher sei die Qualität der entwickelten Produkte, desto
kürzer seien die Entwicklungszeiten und desto niedriger die Kosten. Die fünf Reifegrade
bauen aufeinander auf. Jeder Reifegrad unterscheidet sich von dem vorhergehenden
dadurch, dass zusätzliche Fähigkeiten beherrscht werden.
Am 1. Januar 1996 führt die Deutsche Telekom neue Tarife für die Abrechnung von
Telefonaten ein. Durch einen Fehler werden dabei 11 Millionen Kunden überhöhte
Gebühren in Rechnung gestellt. Nachdem der Abrechnungsfehler bekannt wird,
entschliesst sich die Telekom, den Fehler zu beheben und die Kunden zu entschädigen.
Es wird geschätzt, dass dem Unternehmen dadurch ein Schaden von mehr als 70
Millionen DM entstanden ist.
Am 14. September 1993 versuchen die Piloten eines Airbus A-320 der Deutschen
Lufthansa bei schlechtem Wetter in Warschau zu landen. Nach dem Aufsetzen auf der
Landebahn lässt sich zunächst die Schubumkehr des Airbus nicht betätigen. Neun
Sekunden lang rast das Flugzug mit nahezu unverminderter Geschwindigkeit über die
Landebahn. Als die Schubumkehr wieder funktioniert ist es zu spät. Der Airbus kommt
nicht rechtzeitig zum Stehen, bohrt sich in einen Erdwall und fängt Feuer. Zwei
Menschen werden getötet, 52 schwer und fünf leicht verletzt.
Am 25.02.1991, während des letzten Golfkrieges, verfehlt in Dharan (Saudi-Arabien)
eine Patriot-Abwehrrakete eine irakische Scud-Rakete. Die Scud-Rakete trifft eine
Mannschaftsunterkunft US-amerikanischer Soldaten. 28 Personen werden getötet, 90
weitere zum Teil schwer verletzt.
So unterschiedlich diese Beispiele auch sind, allen drei Fällen ist gemeinsam, dass
mangelnde Softwarequalität massgeblich zu den Schäden beigetragen hat. Solche
spektakulären Fälle mit zum Teil katastrophalen Folgen sind eine Facette mangelnder
Softwarequalität. Eine andere Facette sind die vielen Fehler, die sich in
Betriebsystemen und Anwendungssoftware verbergen. Obwohl diese Fehler nur selten
zu spektakulären Folgen führen, sind ihre Auswirkungen – volkswirtschaftlich gesehen -
ebenfalls erheblich. Das kann man sich leicht klar machen, wenn man errechnet, wie
viele Arbeitsstunden alleine in Deutschland an einem Tag dadurch verloren gehen, dass
Benutzer nach Softwareabstürzen ihre Systeme neu starten und dabei eventuell Daten
neu eingeben müssen.
Qualitätsmanagement in der Softwareentwicklung ist nicht in der Lage, das Auftreten
von Softwarefehlern zu verhindern. Es kann aber einen Beitrag dazu leisten, dass
Software mit weniger Fehlern ausgeliefert und dass das mit den verbleibenden Fehlern
verbundene Risiko vermindert wird. Qualitätsmanagement kann auch dazu beitragen,
dass die Anforderungen der Benutzer an die Software in höherem Masse erfüllt wird.
Ein richtig verstandenes prozessorientiertes Qualitätsmanagement kann ausserdem zu
einer Reduktion von Entwicklungskosten und Projektlaufzeiten beitragen.
Produkt- und prozessorientiertes Qualitätsmanagement sind keine Alternativen,
sondern sich ergänzende Massnahmenbündel. Im Total Quality Management (TQM)
versucht man, beide Perspektiven zu vereinen. Dabei wird besonderer Wert auf die
Ausbildung und Motivation der Mitarbeiter gelegt. Denn eines ist klar: Weder Prüfungen
von Produkten noch Verbesserungen von Prozessen können ihre Wirkung voll
entfalten, wenn sie nicht von engagierten Mitarbeitern getragen werden.
Weitere Informationen
• Software Engineering Institut
• DIN
• ISO
IT-Kultur
o Computerethik
o Cyberculture
o Die Geschichte des Internets
o Die Zukunft des Internets
o Philosophie
o Recht
o Revolution
Computerethik
In der Computerwelt ist wie im richtigen Leben: Ohne ein Mindestmass an gegenseitiger
Rücksichtnahme ist ein effizientes Arbeiten nicht möglich.
Um dies in prägnanten und kurzen Sätzen eindrucksvoll darzustellen, wurden die 10
Regeln der Computerethik zusammengestellt, die oft auch als die 10 »Gebote« der
Computerethik bezeichnet werden:
1. Du sollst nicht deinen Computer benutzen, um anderen Schaden zuzufügen.
2. Du sollst nicht anderer Leute Arbeit am Computer behindern.
3. Du sollst nicht in anderer Leute Dateien stöbern.
4. Du sollst nicht den Computer zum Stehlen benutzen.
5. Du sollst nicht den Computer benutzen, um falsches Zeugnis abzulegen.
6. Du sollst nicht Software benutzen oder kopieren, für die du nicht die Nutzungs-
oder Kopierrechte erworben hast.
7. Du sollst nicht anderer Leute Ressourcen ohne deren Erlaubnis verwenden.
8. Du sollst nicht anderer Leute geistig Werk als deines ausgeben.
9. Du sollst über die sozialen Konsequenzen deiner Programme nachdenken.
10. Du sollst den Computer so benutzen, dass du Verantwortung und Respekt
zeigst.
Cyberculture
Digitale Revolution
Ein vielgebrauchtes Synonym für die Chancen, die neue Technik für jeden einzelnen
und damit für alle zusammen haben soll, ist das Internet. Schnell wird da in den
einschlägigen Branchenblättern von einer " Digitalen Revolution" geredet, die uns von
den Übeln des 20. Jahrhunderts mit einem Geniestreich befreien wird. So manche/r
wünscht sich - wie vor kurzem Monica Brandis an dieser Stelle - genau das: Ein Ende
der bürgerlichen, hierarchisierten, zentralisierten und patriarchalischen Welt.
Und ist enttäuscht, dass sich dem Fachmann wie dem Laien bislang so wenig davon zu
erkennen gibt im Netz der Netze. Denn leider, leider ist die bisherige Entwicklung des
Internets zwar explosionsartig, aber alles andere als politically correct verlaufen. Der
Unmenschengeist des vergangenen Jahrtausends, der Profit, Profit und abermals Profit
sucht, und an vierter Stelle eine Möglichkeit zur eitlen Selbstdarstellung, hat sich in
Windeseile auch der Welt der binären Datenströme bemächtigt und so das Neue in den
Sumpf des Alten herabgezogen.
Musste das denn wirklich so kommen? Müssen denn die Nutzniesser dieser
grossartigen Quelle von Information und globaler Brüderlichkeit schon wieder männlich,
weiss, wohlhabend und gymnasial gebildet sein? Hat denn nicht auch die Erfindung des
Buchdrucks (und was sind Bücher aus Papier und Tinte schon im Vergleich zu rasant
anwachsenden 100 Millionen URLs im Net?) die europäische Gesellschaft grundlegend
verändert, folgte ihm nicht die Renaissance, die Entdeckungen, der Humanismus, die
Reformation? Dürften wir denn nicht eigentlich mindestens das gleiche erwarten vom
dritten Jahrtausend und seiner digitalrevolutionierten, lieblich kommunikativen
Gesellschaft?
Herrschaft im Internet?
Nein. Dürften wir nicht. Davon wird nichts Wahrheit werden. Und nicht nur das:
Diejenigen, die solches fordern, versprechen oder lautstark erhoffen, sind nichts
anderes als Heuchler. Die Wortführer der "Digitalen Revolution", die Vor- und Andenker
der "Demokratisierung übers Netz", die die bürgerliche Moderne am Ende sehen, sind
nämlich selber genau diejenigen, die solchen Prozessen als erste im Wege stehen.
Denn nur sie sind für all das auf einmal Beweinte eigentlich verantwortlich. Die
Menschen, weiblich oder männlich, die schon bisher in Politik und Medien das Sagen
(und Schreiben) hatten, meinen nun, darob plötzlich ein ganz niedliches und
gehätscheltes schlechtes Gewissen zu brauchen.
In der Tat symptomatisch ist es, dass sich ausgerechnet die Frankfurter Allgemeine,
publizistische Speerspitze der Beharrungskräfte, über die elitäre Struktur der
Internetkultur mokiert. Das Credo lautet also: " Nicht die gleichen Fehler nochmal
machen. Es sollte doch bitte alles anders sein im interaktiven Internet. Aber trotzdem
schon hübsch anzusehen, bitte." Und weiter geht es wie bisher.
Und genau so wird es immer sein. So muss es sogar sein, seitdem es die arbeitsteilige
Gesellschaft gibt und die Idee, dass nicht jeder alles tun sollte. Es gestaltet nämlich nur
derjenige, der nicht nur nimmt, sondern auch etwas von sich gibt. Derjenige, der ein
Talent hat oder Ehrgeiz oder Wagemut oder Phantasie. Der sich nicht stillschweigend
über seine Umwelt ärgert, sondern etwas dagegensetzt. Und dieses, was er
dagegensetzt, ist nichts Mystisches und auch keine kriminelle Energie. Er braucht keine
Verschwörung mit anderen ebenso Übelgesinnten, die seine Zwingherrschaft über die
in unverschuldeter Knebelung Dahinvegetierenden auf alle Ewigkeit absichert. Er setzt
dagegen: Das überzeugende Wort, den eloquenten Text und das eindrucksvolle Bild.
Aber auch im Digitalen Zeitalter fällt einem nichts davon in den Schoss. Man muss es
sich häufig genug geradezu abringen. Wie es eben immer war.
Informationsgesellschaft
Sollte es daher in den nächsten Jahren und Jahrzehnten tatsächlich zur Ausprägung
irgendeiner Art von neuer "Informationsgesellschaft" kommen, die über das Spezifikum
der potentiellen Verfügbarkeit sämtlicher Informationen hinausgeht - was ich nicht
glaube -, wird sie weder von neuer Technik noch vom anderen Menschen aus der
Wiege gehoben und getragen werden. Kein Modem und kein Mausklick nimmt
demjenigen, der Einfluss nehmen will, die Verpflichtung ab, mit seinen Worten und
Taten im ganz klassischen Sinne überzeugend zu sein.
Im Gegenteil: In einer Welt - einem Web - voller irreführender Bilder, in der technisch
alles darstellbar ist und ein jeder das weiss, sehnt sich der Mensch ganz besonders
nach dem klaren, unmissverständlichen, stilsicheren Wort aus unkomplizierten,
vertrauten Zeichen - das Internet ist ein viel literarischeres Medium als das Fernsehen.
Vielleicht ist es bedauerlich, dass diese Fähigkeit zur Formulierung in gewissem Grade
erlernbar ist und darum vor allem von Profis ausgeübt wird: Politikern, Werbemachern
und Journalisten. Aber so ist es nun einmal. Diese sind es bereits und werden es auch
in Zukunft sein, die die Inhalte und das Gesicht des WWW bestimmen. Und es hat nicht
den geringsten Sinn, auf etwas anderes zu hoffen.
Digital Age
Dass nämlich, wie z.B. Monica Brandis anscheinend glaubt, ein Mehr an verfügbarer
Information auch bessere Informiertheit vieler nach sich zöge, ist anthroposophisches
Wunschdenken. Und dass - von der technischen Seite aus betrachtet - neue Formen
auch neue Inhalte generieren müssen, die wiederum neue "Köpfe" brauchen, ist
ohnehin das grosse Ammenmärchen der Computerkids zwischen 15 und 35.
Wer sich die selbstpostulierten positiven Grundüberzeugungen der "Netizens" durchliest
(Toleranz, Pluralismus, Eigenverantwortung, Gewinnstreben, Sozialdarwinismus,
Popkultur, Rationalismus) erkennt sofort, dass diese haargenau identisch sind mit dem,
was jeder halbwegs gebildete und erfolgsorientierte Mittzwanziger auf der westlichen
Hemisphäre seit jeher als seine Werte angeben würde. Selbst, wenn er an seinem
Rechner zu Hause kaum den Einschaltknopf findet. Das ist ganz natürlich so, denn
auch im Digital Age wächst kein Mensch ohne starke Bezüge zu "alten Autoritäten" auf;
anderes zu behaupten ist populistischer Individualismuskult.
Konstruktive Kommunikation
ARPA
In vielen Dokumentationen des Internets wird die Geschichte des ARPANets mit einer
gleichzeitig stattgefundenen Entwicklung verwechselt: Im Jahre 1964 entwickelte Paul
Baran von der Firma RAND Corporation [ http://www.rand.org/ ] für die US Air Force
eine neuartige Netzwerkstruktur, das sogenannte Dezentrale Netzwerk.
In diesem Netzwerk sollten einzelne Rechner mit mehreren Verbindungen gleichzeitig
an anderen Rechnern angeschlossen werden, was ein maschendrahtähnliches Gebilde
ergab. Diese Netzwerkstruktur sollte anhand eines paketorientierten
Übertragungsprotokolls eine effizientere Datenübertragung ermöglichen. Ausserdem
(und dies war der interessanteste Punkt für die Air Force) war ein solches Netzwerk
gegenüber äusseren Störungen, z.B. Zerstörung einzelner Rechner durch Atomschläge,
weit unempfindlicher, da einzelne defekte Datenleitungen nicht unbedingt einen
kompletten Zusammenbruch des Netzes zur Folge hatten.
Geplant war, die Rechner der Air Force mit solch einem Dezentralen Netzwerk zu
verbinden, um einen Betrieb auch bei grösseren Ausfällen des Netzes aufrecht zu
erhalten. Das Vorhaben wurde jedoch nie begonnen, da das US-
Verteidigungsministerium auf eine einheitliche Lösung für die gesamten US-Streitkräfte
bestand. Die Idee des Dezentralen Netzwerkes und der paketorientierten
Datenübermittlung floss jedoch in ein anderes Projekt ein: Das ARPANet.
Das ARPANet
Da die ARPA zur damaligen Zeit ein relativ knappes Budget hatte, machte man sich vor
der Anschaffung neuer Grossrechner Gedanken, da man nicht jeder
Forschungseinrichtung einen Grossrechner spendieren konnte. 1966 wurde die Idee
geboren, die ARPA-eigenen Rechner zu vernetzen und somit einzelne
Grossrechneranlagen kostengünstig allen angeschlossenen Rechnern zugänglich zu
machen.
Diese geniale Idee wurde bis Ende 1969 mit dem ARPANet realisiert, dass zunächst
vier Forschungseinrichtungen in Los Angeles (University of California), Menlo Park
(Stanford Research Institute), Santa Barbara (University of California) und Salt Lake
City (University of Utah) über gemietete Telefonstandleitungen miteinander verband.
In allen vier teilnehmenden Forschungseinrichtungen standen vier verschiedene und
zueinander völlig inkompatible Systemplattformen, so dass ein neuartiger Weg zum
Vernetzen gegangen wurde: Man schloss jeden Rechner an einen sogenannten IMP
("Interface Message Processor") an, der als Zwischenglied zwischen Netzwerk und
Rechner diente. Die IMP waren wiederum mit mindestens zwei anderen IMP innerhalb
des ARPANets verbunden. Die gemieteten Telefonleitungen hatten eine Bandbreite von
50 kbps. 1970 kamen die Havard University und das Massachusetts Institute for
Technology in Boston dazu, 1971 bildeten schon fast vierzig Einrichtungen das
ARPANet.
Das grundlegende Übertragungsprotokoll im ARPANet war das NTP ("Network Transfer
Protocol"), dass eine paketorientierte Übertragung vornahm. Eine Datei wird beim
Absender in viele kleine Päckchen zerlegt. Jedes Päckchen enthielt unter anderem
Absender- und Ziel-Adresse und wurde einzeln von IMP zu IMP übertragen, die Route
wurde je nach aktueller Leitungstopologie von jedem IMP autark bestimmt.
Die ersten beiden Dienste im ARPANet waren Telnet und FTP ("File Transfer
Protocol"). Mit Telnet wurde es ermöglicht, einen anderen Rechner per Netzverbindung
zu steuern und mit ihm zu arbeiten. FTP wurde zur Datenübertragung jeglicher Art
genutzt. Mit diesen beiden Protokollen war zwar das bequeme Arbeiten mit entfernten
Rechnern möglich, jedoch nicht mit anderen Wissenschaftlern. Es fehlte eine interaktive
Kommunikationsplattform, die mit der Erfindung der eMail ("Electronic Mailing") 1971
schlagartig erschlossen wurde. Innerhalb weniger Monate schoss das
Datenaufkommen der versendeten eMails in immense Höhen, Mailinglisten
ermöglichten die Bildung von Benutzergruppen.
Ab Mitte 1968 trafen sich regelmässig Mitarbeiter der damals vier teilnehmenden
Computerzentren, um ihre Aktivitäten zu besprechen und zu koordinieren. Diese
Gruppe nannte sich NWG ("Network Working Group") und zeichnete für viele Projekte
und Dienste des ARPANets verantwortlich. Die NWG war auch Begründer der RFC-
Reihe ("Request For Comments"), mit der technologische Fragen und Spezifikationen
festgelegt und der Internet-Gemeinschaft präsentiert wurden. Noch heute tragen alle
RFC in der ersten Zeile die Kennung "Network Working Group".
Schon nach wenigen Jahren zeigte sich, dass das bisherige Übertragungsprotokoll NTP
den Anforderungen nicht mehr gewachsen war. Gerade die Integration von
verschiedensten Netztechnologien war nahezu unmöglich, weshalb Anfang der
siebziger Jahre verstärkt nach einer neuen Übertragungstechnik geforscht wurde, die
ebenfalls paketorientiert arbeiten sollte. Dazu wurde 1973 von der IPTO das "Internet
Program" ins Leben gerufen, das ein einheitliches Übertragungsprotokoll entwickeln
sollte, damit verschiedenste Netze unter einem einheitlichen Protokoll arbeiten und
miteinander verbunden werden konnten.
Das Ergebnis war TCP ("Transmission Control Protocol"), das für die fehlerfreie
Paketübertragung sorgte, indem der Versand jedes Pakets überwacht wurde. Zu
Beginn war TCP auch für die Adressierung im Netz zuständig, erst 1980 wurde für die
Adressierung ersatzweise das leistungsfähigere IP ("Internet Protocol") eingeführt.
Schon 1974 versuchte die ARPA, das ARPANet in private Hände abzugeben, da die
organisatorischen und finanziellen Möglichkeiten langsam aber stetig der ARPA über
den Kopf wuchsen. Auch machte sich das US-Verteidigungsministerium über die
Offenheit des ARPANets Sorgen, da auch militärische Anlagen im ARPANet zugänglich
waren.
Diese Sorge wuchs, als auch das NSFNet Zugriff auf das ARPANet hatte. Deshalb
trennte man 1983 das ARPANet in zwei Teilnetze: Das erste Netz behielt den Namen
ARPANet und das zweite wurde das MILNet, dass alle militärischen Einrichtungen
verband und den gesamten militärischen Datenverkehr übernahm.
Da die angeschlossenen Netze immer weiter wuchsen und das NSFNet immer mehr
Funktionen des ARPANets übernahm, beschloss die ARPA 1990, das inzwischen
äusserst organisations-, pflege- und kostenintensive ARPANet-Projekt einzustellen. Das
ARPANet hörte auf zu existieren, jedoch war die Philosophie und die Technik des
ARPANets fest im Internet verankert.
Dienste, Dienste, Dienste
Genau diesen Gedanken hatte der Brite Tim Berners-Lee, damals Informatiker am
"CERN", dem Institut für Teilchenphysik in Genf, als er im März 1989 einen neuartiges
Hypertextsystem für das hauseigene Intranet vorschlägt: Das World Wide Web bietet
eine gut durchdachte Bedienoberfläche, die mit speziellen Programmen, den Browsern
angezeigt werden kann.
Besonders hervorstechend sind die Fähigkeiten des WWW, Text, Grafik, Töne und
Videos zu multimedialen Präsentationen zu verbinden. Eine weitere Neuerung stellen
die Hyperlinks dar, mit denen aus jedem WWW-Dokument zu einer anderen Ressource
im Internet verwiesen werden kann. Erstmals ist es möglich, ohne grösseres
Fachwissen einen Dienst zu bedienen und eigene Informationen aufzubereiten und im
Internet zu veröffentlichen.
Gerade durch den neuen "Medienstar" World Wide Web erregt das Internet in der
Öffentlichkeit ungeahnte Aufmerksamkeit. Der Boom beginnt ab März 1991, 5 Monate
nach Einführung des World Wide Webs, als Fachmagazine und Tageszeitungen immer
regelmässiger über das Internet und insbesondere das WWW berichten.
In rasend schnellem Tempo schiessen Online-Dienste und ISP ("Internet Service
Provider") aus dem Boden, die den Markt entdeckt haben, preisgünstig einen Zugang
zum Internet zu verkaufen, während die Werbewirtschaft das World Wide Web als
ideale Werbeplattform entdeckt. Das "Web" breitet sich immer mehr aus und entwickelt
sich zum am weitesten verbreiteten Dienst im Internet und überholt im Laufe des Jahres
1996 das Datenaufkommen aller FTP-Verbindungen.
Doch die Entwicklung geht weiter: Besonderes Augenmerk wird dem NC, dem
"Netzcomputer" geschenkt, der kein eigenständiger Computer mehr ist und seine
Software direkt aus dem Internet bezieht. Auch ein vorrangiges Ziel ist die Telefonie
und das Telefaxen über das Internet, dass ebenfalls den endgültigen Durchbruch des
Internets bescheren könnte. Immense Kosteneinsparungen wären hier das Ergebnis, da
keine teuren Fernverbindungen mehr zum Telefonieren aufgebaut werden müssten,
sondern die bestehende Infrastruktur des Internets genutzt werden kann. Auch die
vernetzte Waschmaschine muss kein unsinniger Traum bleiben, denn auf die Weise
könnte z.B. die Betriebssoftware vollautomatisch immer auf dem aktuellsten Stand
gehalten werden.
Das Internet ist auf dem besten Wege, immer unentbehrlicher für das tägliche Leben zu
werden.
Die Zukunft des Internets
An dieser Stelle sei es mir gestattet, einige "philosophisch" anmutende Gedanken zur
Zukunft des Internets abzulassen. Nicht dass Sie am Ende der Meinung sind, dass
Internet "sei nur eine Modeerscheinung", wie ein Unternehmensberater einmal
selbstsicher verlautbaren liess...
Informationsfülle en masse
Vielleicht könnte schon in wenigen Jahren der Traum der Menschheit in Erfüllung
gehen, dass alles Wissen der Menschheit praktisch auf Knopfdruck von jedem Internet-
Zugang der Welt abrufbar ist. Viele Regierungen und Forschungseinrichtungen arbeiten
mit Hochdruck daran, Bibliotheken zu digitalisieren und online verfügbar zu machen.
Eine Schattenseite dieser Informationsflut ist die schnelle Vergänglichkeit von
Information im Internet. Während ein gedrucktes Buch einen unvergänglichen
Schnappschuss einer Informationsmenge enthält, können online verfügbare Medien
regelrecht "leben" und sich immer wieder weiterentwickeln. Dies birgt die Gefahr, dass
falsche, veraltete oder vermeintlich uninteressant gewordene Information überschrieben
wird und nachfolgenden Generationen nicht mehr zur Verfügung steht. Schon heute
warnen viele Wissenschaftler davor, dass die ersten Jahrzehnte des
Informationszeitalters durch fehlende Dokumentation glänzen werden und womöglich
ein wichtiges Kapitel der Menschheitsgeschichte in den Geschichtsbüchern fehlen
könnte.
Das Internet ist in seiner Struktur noch zu klein und langsam, um modernen
Anwendungen, wie z.B. qualitativ gute Video- und Audioübertragungen in Echtzeit
nachzukommen. Um diese und zukünftige Anwendungen zu ermöglichen, ist eine weit
höhere Bandbreite notwendig, die gleichzeitig effizienter genutzt werden muss.
Ein Meilenstein zu diesem Ziel ist durch die Einführung eines neuen TCP/IP-Protokolls
vorgelegt, das zum einen die Header der IP-Päckchen verkleinert und allgemein die IP-
Päckchen "intelligenter" macht: Beispielsweise können Übertragungsrouten
vorbestimmt oder bestimmte IP-Päckchen mit höherer Priorität behandelt werden.
Auch in Sachen Übertragungskapazitäten wird sich in den nächsten Jahren einiges tun:
Dank Glasfasertechnik werden Gigabit-Standleitungen die Kontinente verbinden und
auch die Forschungen auf dem Gebiet der Terabit-Übertragungen laufen auf vollen
Touren. Schon jetzt ist absehbar, dass solche Kapazitäten unbedingt notwendig sind,
will man nicht schon in wenigen Jahren in gigantischen Daten-Staus versinken.
Spöttisch wird heute (noch) über die vernetzte Waschmaschine gewitzelt, obwohl dies
nicht mehr lange Utopie sein muss und handfeste Vorteile hat: Ein Hersteller von
Waschmaschinen kann dann z.B. neue Waschprogramme vollautomatisch in Ihre
Waschmaschine einspielen und so das Gerät auf dem neuesten Stand halten. Genauso
würde das für Videorecorder einen Durchbruch bringen, die z.B. die aktuelle
Programmübersicht online erhalten könnten und kinderleicht zu programmieren wären.
Selbst eine Fernsteuerung oder Ferndiagnose bei Störungsfällen wäre denkbar.
Schon jetzt kristallisieren sich äusserst interessante Anwendungsgebiete für die
Steuerung und Pflege von Maschinen über das Internet heraus, so dass mittelfristig
über das Internet auch immer mehr diagnostische und supporttechnische Aufgaben
übertragen werden.
Getrennte Wege
Getrennte Wege gehen in den USA schon Wissenschaft und Kommerz: Die US-
amerikanische Regierung, Universitäten und namhafte Sponsoren betreiben einen
TCP/IP-basierten "Super-Highway" nur für Bildungseinrichtungen und
Forschungsinstitute, auf dem ungestört neue Technologien für und um das Internet,
aber auch für andere wissenschaftliche Zwecke getestet werden können.
Das Internet2 [ http://www.internet2.edu/ ] entstand auf die Weise ganz nach der
Tradition des ideelen Vorläufers ARPANet und wird, ebenfalls wie beim historische
Vorbild, auch ausländischen Einrichtungen angeboten.
Auch im Bereich des World Wide Webs sind noch längst nicht alle technischen
Möglichkeiten ausgereizt. Sehr viele Erwartungen werden hierbei auf HTML und seinen
Nachfolger XML ("EXtended Markup Language") gelegt, das noch einige überwindbare
Kinderkrankheiten hat. Reine HTML-Seiten sind viel zu statisch, um vollkommene
Interaktivität zu ermöglichen. Zwar gibt es schon heute interaktive und multimediale
Elemente, jedoch ist dazu in der Regel immenser Programmier- und Rechenaufwand
nötig.
Mit XML wird die Programmierung von WWW-Seiten grundsätzlich nicht einfacher,
jedoch ist eine einheitlichere Standardisierung als bei HTML möglich. Dies bedeutet
auch, dass XML deutlich empfindlicher gegenüber fehlenden oder falschen Befehlen ist
und, ähnlich wie die "Mutter aller Auszeichnungssprachen" SGML, sehr strenge
Typisierungsregeln hat. HTML bleibt jedoch auch in Zukunft eine
Auszeichnungssprache, die von den meisten Browsern verstanden und als ein wichtiger
Wegbereiter in die moderne Informationsgesellschaft in die Geschichte eingehen wird.
Ein anderes, grosses Entwicklungsfeld sind sichere Online-Zahlungssysteme. Erst
wenn über das Internet nicht nur bestellt, sondern mit einem einheitlichen
Zahlungssystem auch gleich gefahrlos und sicher bezahlt werden kann, wird sich das
Online-Shopping, das sogenannte eCommerce, gegenüber herkömmlichen
Vertriebswegen durchsetzen können. Dann wird jedoch wahrscheinlich auch ein Teil
aller bisher freien Angebote (z.B. Datenbanken, Bibliotheken, Bildersammlungen)
kostenpflichtig werden.
Philosophie
Der Informationskanal, der in den Häusern der Bürgerinnen und Bürger endet, eröffnet
viele neue, positive Möglichkeiten. Die Menschen der Welt werden zu einer "Global
Community", zu einer Weltgesellschaft zusammenwachsen. Die Organisation des
täglichen Lebens wird durch Serviceangebote aus der Mediensteckdose bequemer
werden, die Auswahl des Unterhaltungsprogrammes individueller. Im Zusammenleben
aller Menschen wird intelligenter Einsatz der neuen Technologien bei der Lösung
aktueller Aufgaben und Probleme wie beispielsweise der Steuerung der
Informationsflut, der Reduzierung der Luftverschmutzung, der Müllvermeidung und -
sortierung oder der Sicherung von Produktionsanlagen helfen.
Die Verfügbarkeit von Information wird in der Informationsgesellschaft zu einer
Grundfrage der Demokratie, denn vorhandenes Wissen gehört zu den wertvollsten
Gütern eines Volkes. Es ist deshalb eine gesellschaftliche Aufgabe der Bibliotheken und
der Dokumentation, ihre Kollektion für das Volk zu erschliessen und kostengünstig zur
Verfügung zu stellen. Eine funktionierende Infrastruktur, die den Zugang zur Information
für alle Menschen im Staat gleichberechtigt möglich und bezahlbar macht, ist
unverzichtbar.
Bei der Organisation des Wissens spielen bisher Verlage eine entscheidende Rolle. Sie
selektieren Information, beschäftigen sich mit der Präsentation, dem Bekanntmachen
und Verbreiten der Information. Was von Verlagen publiziert wird, durchläuft in der
Redaktion einen Qualitätskontrollprozess. Die verlegte Information sollte nach den
geltenden Regeln geprüft, original, integer, authentisch und überall identisch sein.
Unsere Rechtsordnung schützt Kreativität und Originalität von Publikationen als
geistiges Eigentum. Für die dauerhafte Festlegung von Meinungen, Entscheidungen,
Ergebnissen, Methoden, Verfahren, Diagnosen, Standards, Gesetzen usw. wird
deshalb eine formelle Dokumentation gebraucht. Für sie setzt man immer noch sehr
häufig Papier ein. Neue Datenträger wie digitale Tonbänder (DAT), CD-ROM oder das
elektronische Notizbuch mit Kommunikationsfähigkeiten (Palm- oder Handhelds/PDAs)
stellen derzeit meist nur ein ergänzendes Medium dar, das die alten Inhalte neu
zugänglich macht.
Aussagen, die im Druck publiziert werden, werden durch die Publikation zum "public
record", zur einer öffentlich dokumentierten, unveränderbaren Meinungs- oder
Erkenntnisäusserung, die damit der gesamten Bevölkerung aktuell und später in
Bibliotheken, Patentauslegestellen, Dokumentationszentren usw. zur Verfügung steht.
Bereits heute sind viele der Dokumente, die in Datennetze eingespielt werden,
ungeprüft. Überdies können die Schriftstücke im Netz relativ leicht manipuliert, die
ursprünglichen Aussagen verändert werden. Auch ohne Korrektur der Autorenzeile.
Jede elektronisch verbreitete Information im Netz oder auf wiederbeschreibbaren
Medien ist manipulierbar. Fragen der Integrität, Authentizität und Verifikation sind
ungelöst. Für die Verwendbarkeit von Information sind jedoch Datensicherheit und
Dokumentation von entscheidender Bedeutung.
Ein wesentlicher Aspekt der Informationskultur ist deshalb die Schaffung von
Qualitätsstandards für das elektronische Publizieren. Neue Kriterien müssen definiert
werden für die Prüfung von Qualität, Integrität, Originalität und Zuverlässigkeit der im
Netz verbreiteten Informationen, ohne dass dabei Grundrechte von Demokratie und
Meinungsfreiheit verletzt werden.
Es soll hier kein falscher Eindruck entstehen: Die Informationsgesellschaft mit all ihren
Chancen wird von den Mitgliedern des Gesprächskreises Informatik durchaus begrüsst.
Doch aus den internationalen Medienangeboten, aus dem neuen System der globalen
Kommunikation, ergeben sich eine Menge ethischer und sozialer Fragen. Unsere
Gesellschaft muss sie rechtzeitig bewältigen, will sie die Chancen gewinnbringend zur
wirtschaftlichen und kulturellen Weiterentwicklung nutzen. Es gilt, gesellschaftliche
Erschütterungen, wie sie früher bedeutende technische Erfindungen begleiteten, (etwa
des Webstuhls, der Dampfmaschine oder des Elektromotors), zu vermeiden.
Rechtzeitig und umfassend müssen deshalb Antworten für folgende Fragen erarbeitet
werden:
• Welche gesellschaftlichen Konsequenzen sind aus der Tatsache zu erwarten,
dass derzeit nicht alle Bürgerinnen und Bürger (sowohl von der verfügbaren
Technik, wie von ihrem Bildungsstand her) den gleichen Zugang zur Information
haben? Wie kann allen ein gleichberechtigter Zugang zur Information gesichert
werden?
• Fördert der multikulturelle Kommunikationsraum Europa/Welt die Verständigung
oder verstärkt er Sprach- und Kulturbarrieren? Wie kann sich die Bevölkerung
darauf vorbereiten?
• Fördert die moderne Informations- und Kommunikationstechnik nicht auch die
soziale Isolierung des Individuums? Telespiele und Telekommunikation weisen
auf entsprechende Tendenzen im Freizeitbereich sowie Teleworking im
Arbeitsleben.
• Lähmt erhöhtes Medienangebot die Kreativität, fördert es die geistige und
emotionale Verflachung bis hin zur Verrohung? Vermehrt es die Kriminalität
ursächlich, wie das am Rande von Strafprozessen heute im Bezug auf das
Fernseh-Angebot bereits diskutiert wird?
• Gefährdet die überwiegende Kommunikation in Bildern und Symbolen die
Fähigkeit, sich durch Sprache vernünftig auszudrücken?
• Wie will man mit der Suggestivwirkung von Bildern und Sprache umgehen?
• Soll jeder Informationen anbieten dürfen?
• Wer verantwortet die Inhalte?
• Wie verhindert man, dass Menschen durch gezielte Desinformation über Medien
manipuliert werden?
• Müssen wir uns vom bestehenden Copyright, dem Schutz des geistigen
Eigentums, verabschieden, weil es unkontrollierbar wird?
Weitere Informationen:
• Deutsches Informations- und Kommunikationsdienstegesetz
• Juristisches für Internet-Praktiker
• IT Rechtsprobleme
• Selfhtml - Recht und Links? Selfhtml kämpft gegen den Abmahnwahn!
• Freedom for Links
Revolution
Die Digitale Revolution ist zur Zeit in aller Munde, und kaum einer weiss, wovon er
eigentlich spricht, wenn er das Zauberwort in den Mund nimmt. In Amerika wird die
Digitale Revolution - oder das, was man gerade darunter zu verstehen wünscht - viel
und als Allheilmittel für alle gesellschaftlichen Übel gepriesen, in Europa dagegen wird
sie geschmäht, und wenn man sie überhaupt für einen Wandel verantwortlich machen
will, dann natürlich für einen ins Negative. Schaut man sich amerikanische Web-Sites
an, bekommt man leicht den Eindruck, dort die Hohepriesterschaft einer neuen Religion
zu sehen, deren Mysterium Digital Revolution heisst, blickt man dagegen ins
europäische Netz, fährt einem der eiskalte Hauch des zweifelnden Protestantismus ins
Gesicht: Gutenberg , das sei noch eine Revolution gewesen, meint z.B. Christoph
Räthke, aber Gates? Gates sei reines Blendwerk.
Die Digitale Revolution, an der die Geister sich so scheiden, ist in den Pamphleten und
Diskussionen schlecht umrissen. Wie bei den meisten Religionsstreitigkeiten,
konzentriert sich das Gros der Eiferer auf kleine Punkte. Sie sehen, sozusagen, vor
lauter Gefechtfeuer die Revolution nicht.
Beliebt ist, die Digitale Revolution mit dem Internet gleichzusetzen und die Wirksamkeit
je nach Konfession entweder daran zu messen, inwieweit Wort und Schrift als Medium
verdrängt werden, oder inwieweit eine weltumfassende, allseligmachende Demokratie
entsteht. Vergleichbar ist so ein Ansatz vielleicht mit der Reformation: Auch zu Zeiten
Luthers hatte die abendländische Religion weiterreichende Ansprüche als den Verkauf
von Ablassbriefen.
Das Internet
Die Digitale Revolution beschränkt sich nicht auf das Internet, den Desktop-Computer
oder die Dominanz einer nordwestamerikanischen Softwarefirma auf dem Jahrmarkt
der Betriebssysteme. Vielmehr schliesst sie nahezu alle Lebensbereiche ein, in denen
elektrische Geräte zum Einsatz kommen: Vom Toaster über den Bankautomaten bis
zum Überschallflugzeug. Wie alle Revolutionen beginnt auch die Digitale bei ganz
banalen Dingen. Dass der Küchentoaster, der zum Frühstück das Brot goldgelb röstet,
von einem digitalen Timer gesteuert wird, findet eigentlich niemand revolutionär. Toast
gab's schon immer, und mit ein bisschen Erfahrung entlockte man auch Grossmutters
Vorkriegsmodell ausgezeichnete Resultate. Ähnlich ist es mit dem Auto: Auch ohne die
Vielzahl von Steuereinheiten, die Einspritzung, ABS, Innentemperatur und Airbags
kontrollieren, kam man im analogen Zeitalter von A nach B - und das, wenn man
Grossvaters Käfer mit dem eigenen Opel Astra vergleicht, oft mit erheblich weniger
Komplikationen.
Überhaupt ist an dem, was wir tun, wenig revolutionär - und war es nie. Etwa seitdem
unsere entfernten Vorfahren den zweibeinigen Gang entwickelten, hat sich das, was wir
tun, nicht entscheidend verändert: wir essen, verdauen, schlafen, kommunizieren und
bewegen uns. Nur wie wir das alles tun, hat sich so sehr verändert, dass Lucy oder
auch Ötzi es kaum wiedererkennen würden. Diese Veränderung, das Wie, ist es, was
die Revolutionen ausmacht, nicht etwa das Was. Auch vor der Erfindung des
Buchdrucks durch Gutenberg wurden Bücher zu Tausenden kopiert und gelesen; jeder
gebildete Mitteleuropäer kannte zu dieser Zeit Homer, Horaz, das Neue Testament und
Augustinus. Gutenberg hat lediglich das Produktionsverfahren vereinfacht (und auch
noch lange nach Gutenberg haben nicht mehr Leute lesen gelernt). Ebenso war es mit
der Dampfmaschine: auch vorher gab es industrielle Produktion und Transportation.
Der Dampfdruck hat nur den Produktionsmechanismus entscheidend verändert.
Ähnlich ist es mit der Digitalen Revolution. Auch sie wird uns nicht auf höhere
Bewusstseinsstufen bringen oder die Basis für ein optimales Gesellschaftssystem sein.
Trotzdem verändert sie radikal, wie wir die Dinge tun, die wir tun. Das fängt an beim
idealgebräunten Toast, geht über das vom Schreibtisch vollzogene Bankgeschäft und
endet noch lange nicht bei der im PC entwickelten Boeing.
Die Digitale Revolution wird die Welt mindestens so verändern, wie Buchdruck und
Dampfmaschine es getan haben. Allerdings darf man diese Veränderungen nicht auf
dem falschen Gebiet erwarten: Wer denkt, die Digitalisierung würde die
Demokratisierung (oder Totalisierung) vorantreiben, die Schrift ausrotten (oder ihr zu
einem neuen Höhepunkt verhelfen) oder eine neue Welle der Aufklärung (oder
Gegenaufklärung) auslösen, der wird wahrscheinlich enttäuscht sein. Natürlich werden
digitale Medien in all diesen Prozessen, die in der Zukunft zu erwarten sind, mitwirken,
aber auslösen werden sie sie nicht.
Trotzdem wird die Digitale Revolution tief in viele menschliche Prozesse eingreifen und
tut es ja schon: seit Entwicklung der digitalen Nachrichtenübermittlung haben sich nicht
nur die Nachrichten, sondern mit ihnen die gesellschaftliche Auffassung von politischen
Prozessen sehr verändert. Das Resultat ist ein weitverbreiteter Skeptizismus und
Zynismus (Man erinnere sich nur an die Tagesschau der 70er Jahre, wo jedes Wort und
Bild als reines Gold der Wahrheit aufgefasst wurde). Nahezu jeglicher
wissenschaftlicher Fortschritt der letzten 30 Jahre ist direkt oder indirekt mit digitalen
Computern verbunden, die Gen-Tomate ebenso wie die Fortschritte in der
Quantentheorie, AZT genauso wie das Human Genome Project. Schon heute, ganz am
Anfang der Digitalen Revolution, sind viele Wirtschaftszweige völlig von Computern
abhängig. Die meisten gab es zwar schon vor der Digitalisierung, aber durch Computer
hat sich die Art, wie Geschäfte gemacht werden, so sehr verändert, dass sie ohne
digitale Unterstützung gar nicht mehr denkbar sind.
Paradigmatisch für die Digitale Revolution ist schliesslich der Siegeszug des Internets.
Vor fünf Jahren hatte es etwa 20 Millionen geschätzte - zu einem grossen Teil
akademische - Benutzer. Heute sind es ein Vielfaches. Das allein ist keine Revolution,
und wer meint, jetzt schon vor dem Ergebnis der Internet-Revolution zu stehen, befindet
sich wahrscheinlich in einer ähnlichen Situation wie ein Jakobiner, der 1789 meinte, die
Französische Revolution sei vollendet, ohne dass er Napoleon antizipierte oder gar die
Demokratien des 20. Jahrhunderts vorhergesehen hätte.
Obwohl die endgültigen Veränderungen, die ein globales Computernetzwerk, wie das
Internet, bewirken kann, noch gar nicht abzusehen sind, sind wir doch schon Zeugen
von echten Neuerungen, die man nicht unterschätzen darf: Das Internet hat in den
wenigen Jahren seiner Existenz schon mehr literarische Genres hervorgebracht als das
ganze 20. Jahrhundert zuvor. Email, Usenet-messages, IRC und Homepages sind völlig
neuartige und äusserst lebendige Formen, in denen Text und Text&Bild auf ganz neue
Weise komponiert werden. Briefe gab es zwar schon vorher, keine Frage, aber wer von
den Lesern schreibt eine Email denn so, wie er einen Brief schreiben würde? Wer hat
vor dem Internet eine Darstellungsform gebraucht, die der Homepage ähnlich wäre?
Und wer hat überhaupt so viele Nachrichten ausgetauscht, wie er es heute tut, bevor er
online ging? Diese Veränderungen im Wie sind bereits eine Revolution für sich, und nur
ein kleiner Teil der grossen Digitalen Revolution.
Alle Veränderungen, die die Digitale Revolution mit sich bringen wird und schon
gebracht hat, hier aufzuzählen, wäre unmöglich und absurd. Es ist auch nicht nötig,
abzuwägen, ob die Revolution denn eine gute oder eine böse sei - die Revolution stellt
uns Fragen, die mit den Kategorien der Religion nicht zu beantworten sind. Die
Digitalisierung vieler Prozesse ist einem Werkzeug vergleichbar: Zwar war die
Erfindung des Hammers der Menschheit ein Segen, da er das Bauen erleichterte. Aber
nicht nur ersetzte der Hammer viele Bauarbeiter an einer bestimmten Stelle des
Produktionsprozesses, er konnte auch als gefährliche Waffe dienen. Gut oder böse?
Das ist vielleicht eine anthropologische Frage. Wer sie sich wirklich in Bezug auf digitale
Instrumente stellen möchte, sollte sie vielleicht ausweiten und auf den Menschen selbst
beziehen.
Auch Gretchens ursprüngliche Frage beantwortet man vielleicht am besten mit den
Worten Fausts: "Lass das, mein Kind! Du fühlst, ich bin dir gut." Wer da ein anderes
Gefühl hat, der denke an dieser Stelle doch bitte an Gretchens Ende und lasse die
Zweifel.
Internet
o Architektur des Internets
o Contentmanagement (s.h. IT-Grundlagen)
o Das Portal
o Dienste
o eBusiness und eCommerce
o Internet Organisation
o Standards im Internet
o Suchmaschinen
o W3C Standards
o Webserver
Architektur des Internets
Die Vorstellung eines umfassenden Dienstes ist wichtig, aber diese allein kann nicht
alle Ideen erfassen, die eine Forschergruppe für ein einheitliches Internet im Kopf hat,
weil viele Ausführungen eines umfassenden Dienstes möglich sind. In diesem Ansatz
soll die darunterliegende Internetarchitektur vor dem Benutzer verborgen werden. Und
zwar deshalb, weil nicht von den Benutzern oder Anwendungsprogrammen verlangt
werden soll, dass sie die Details der Hardwareverbindungen verstehen müssen, um das
Internet benutzen zu können. Ausserdem wird keine bestimmte
Netzwerkverbindungstopologie gefordert. Insbesondere soll das Anbinden eines neuen
Netzwerks an das Internet nicht das Verbinden mit einen zentralen Knotenpunkt oder
gar das Hinzufügen direkter physikalischer Verbindungen zwischen dem neuen
Netzwerk und allen bestehenden Netzwerken erfordern. Es soll möglich sein, Daten
durch Netzwerke zu senden, auch wenn diese nicht unmittelbar mit dem Quell- oder
Zielrechner verbunden sind. Jeder Rechner im Internet soll eine einheitliche Kennung
besitzen (die man sich als Name oder Adresse vorstellen kann).
Diese Vorstellung eines einheitlichen Internets enthält überdies die Idee der
Netzwerkunabhängigkeit der Benutzerschnittstelle. Das erfordert, dass der Befehlssatz,
der verwendet wird, um Kommunikation herzustellen oder Daten zu übertragen,
unabhängig von der darunterliegenden Netzwerktechnologie und der des Zielrechners
ist. Sicherlich sollte ein Benutzer nicht die Netzwerkverbindungstopologie verstehen
müssen, um Anwendungsprogramme für die Kommunikation zu schreiben.
Internetarchitektur
Abbildung: Vier Netzwerke, die durch drei Router miteinander verbunden sind.
Der Vorteil, Verbindung auf Netzwerkebene herzustellen, wird nun deutlich. Weil
Anwendungsprogramme, die via Internet kommunizieren nicht die Details der
darunterliegenden Verbindungen kennen müssen, können sie ohne Veränderung auf
jedem Rechner benutzt werden. Weil die Details der physikalischen
Netzwerkverbindungen eines jeden Rechners in der Internetsoftware versteckt sind,
muss nur diese Software verändert werden, wenn neue physikalische Verbindungen
hinzukommen oder alte verschwinden. Tatsächlich ist es sogar möglich, die internen
Strukturen des Internets durch Verändern der physikalischen Verbindungen zu
optimieren, ohne Anwendungsprogramme neu zu kompilieren.
Ein weiterer Vorteil der Kommunikation auf Netzwerkebene ist von geringerer
Bedeutung. Die Anwender müssen nicht verstehen oder sich daran erinnern, wie
Netzwerke miteinander verbunden sind oder welchen Datenverkehr sie bewältigen. Es
können Anwendungsprogramme geschrieben werden, die unabhängig von der
darunterliegenden physikalischen Verbindung miteinander kommunizieren. Tatsächlich
ist es den Netzwerkmanagern möglich, einzelne Komponenten der darunterliegenden
Netzwerkarchitektur zu wechseln, ohne die Anwendungssoftware auf den meisten
Rechnern, die ans Internet angeschlossen sind, zu verändern (selbstverständlich muss
die Netzwerksoftware rekonfiguriert werden, wenn ein Rechner an ein neues Netzwerk
angeschlossen wird).
Wie Bild 3b zeigt, stellen Router nicht zwischen allen Netzwerkpaaren direkte
Verbindungen her. Es kann notwendig sein, dass Daten, die von einem Rechner zu
einem anderen geschickt werden, verschiedene dazwischenliegende Netzwerke
passieren. Dazu ist es nötig, dass jedes Netz sich damit einverstanden erklärt,
Datentransitverkehr abzuwickeln im Austausch zu dem Recht Daten überall ins Internet
zu senden. Typische Anwender werden vom zusätzlichen Datenverkehr auf ihrem
lokalen Netzwerk nicht beeinflusst und bemerken diesen nicht.
Zusammenfassung
Ein Internet ist mehr als eine Anhäufung von Netzwerken, die durch Rechner
miteinander verbunden sind. Internetworking bedeutet, dass die miteinander
verbundenen Systeme Konventionen berücksichtigen, die es jedem Rechner erlauben,
mit jedem anderen zu kommunizieren. Insbesondere erlaubt ein Internet zwei Rechnern
miteinander zu kommunizieren, auch wenn der Kommunikationspfad zwischen ihnen
ein Netzwerk durchläuft, an das keiner von beiden direkt angeschlossen ist. Eine solche
Zusammenarbeit ist nur möglich, wenn die Rechner eindeutige Kennungen und Befehle
verwenden, um Daten an ihren Bestimmungsort zu schicken.
In einem Internet werden die Verbindungen zwischen Netzwerken durch Rechner
hergestellt, die IP Router oder IP Gateways genannt werden und die an zwei oder mehr
Netzwerke angeschlossen sind. Ein Router befördert Pakete zwischen Netzwerken,
indem er diese aus einem Netzwerk empfängt und in ein anderes sendet.
Das Portal.
Das Portal ist eine Einstiegsseite und erster Anlaufpunkt, über den der Zugang zu
weiteren Websites erfolgt. Informationen und Dienstleistungen werden einem offenen
oder geschlossenen Userkreis zugänglich gemacht. Das vertikale Portal ist ein
Internetangebot, das sich an eine klar umrissene Zielgruppe wendet. Sie konzentriert
sich auf das Thema und geht eher in die Tiefe als in die Breite. Vertikale Portale sind
vor allem im B2B-Bereich wichtig. Im Gegensatz dazu richtet sich ein horizontales
Portal an eine sehr breite Nutzerschicht mit allgemeinen Interessen. Ein Business-
Portal ist ein auf eine Branche spezialisiertes vertikales Portal, welches ausschliesslich
geschäftlichen Zwecken dient, wie etwa ein Internetangebot für die Holz verarbeitende
Industrie, über das man zu den einzelnen Anbietern oder zu einem digitalen Marktplatz
kommt.
• Suchmaschinen - google.com
• Meta-Suchmaschinen - profusion.com
• Internet Verzeichnisse - yahoo.de
• Portale - t-online.de
• Firmensites
• private Homepages
• Community-Sites - community.ican.at
• News-Sites - news.ch
• Filesharing - gnutella.wego.com
• E-Business
• E-Commerce
• E-Government
• E-Procurement
• Auktionen - ricardo.de
• Co-Shopping - letsbuyit.com
• Internet Banking
• Online Brokering
• Shopping-Mall
• Infomediäre / Agents - ask.com
• Collaborative Filtering
• Personalisierung
• Profile Filertering
• Profiling
• Prosuming
• Crosslinking
• Cross-Selling
• One-to-One Marketing
• Permission Marketing
• Interruption Marketing
Dienste
Das World Wide Web (WWW) ist der Senkrechtstarter unter den Internet-Diensten und
enhält u.a eine gewaltige Sammlung an Texten, Bildern oder Sounds. Die einzelnen
Dateien sind auf Millionen von Web-Servern verteilt und über sogenannte Links
miteinander verbunden, der Anwender kann diese Daten mit einem Browser abrufen.
Trotz der Bezeichnung Web ist das WWW kein eigenständiges Netz wie das Internet,
sondern es benutzt das Internet zur Übertragung der Daten.
Im WWW gibt es einen eigenen Übertragungsstandard, der die Kommunikation
zwischen Browser (Client) und Anbieter (Server) regelt, dies ist das "Hypertext Transfer
Protocol" (HTTP). Übertragen werden Dateien, die in "Hypertext Markup Language"
(HTML) geschrieben sind. HTML ist eine einfache Sprache mit Struktur- und
Funktionselementen, die unter anderem die Formatierung von Text, Einbindung von
Grafiken oder Verlinkung mit anderen HTML-Dokumenten erlaubt. Jede auf einem
WWW-Server gespeicherte Datei hat eine weltweit eindeutige Adresse, URL genannt
(Unified Resource Locator).
URLs bestehen im Wesentlichen aus 3 Teilen und geben an, wie und von wo Daten aus
dem Internet angefordert werden. Der erste Teil gibt das Übertragungsprotokoll an (zB.
"http://"), der zweite Teil die Adresse des Servers (zB. itmanager.info) und der dritte Teil
die Datei, die angefordert werden soll (zB. index.htm im Verzeichnis internet). Die
komplette Adresse wäre in diesem Fall http://itmanager.info/internet/index.htm
Mit den Browsern kann auch auf andere Internet-Dienste zugegriffen werden, in solchen
Fällen wäre dann der erste Teil der jeweiligen Adresse (URL) "ftp://" für den Internet-
Dienst FTP, "gopher://" für Gopher usw.
Die elektonische Post (E-Mail, Electronic Mail) gehört neben dem World Wide Web zu
den meistgenutzten und populärsten Diensten im Internet. Der Umgang mit E-Mail ist
einfach, unkompliziert und sehr effizient.
Vergleichbar ist dieser Dienst mit einem Fax oder der normalen Post. Ein elektronisch
verfasster Brief kann über das Internet direkt an einen anderen Netz-Teilnehmer
geschickt werden, innerhalb von Minuten landet die verschickte E-Mail im Postfach des
Empfängers, egal ob dieser in Europa oder in den USA ist.
Um eine E-Mail zu schreiben, muss man sich im Wesentlichen um folgende 3
Bestandteile kümmern:
• Empfängeradresse
• Betreff (Subject)
• den eigentlichen Inhalt (Body)
Die E-Mail-Adressen sind sehr einfach aufgebaut und bestehen meistens aus einem
Namen gefolgt vom Zeichen @ ("at" oder Klammeraffe) und dem Namen der Domäne.
Ein Beispiel wäre info@itmanager.info. Eine solche E-Mail-Adresse ist weltweit
eindeutig.
Im Betreff wird schlagwortartig auf den Inhalt hingewiesen, der Body enthält den
eigentlichen Inhalt der Mail. Weiters besteht die Möglichkeit, beliebige Arten von
Dateien an eine Mail anzuhängen (Attachments) und zu verschicken.
Usenet / Newsgroups
FTP gehört zu den ältesten Internet-Diensten, für die Übertragung wird das File
Transfer Protocol verwendet. Es ist möglich, Dateien per FTP aus dem Internet
downzuloaden oder auch ins Internet zu kopieren, zum Beispiel alle Dateien eines Web-
Angebotes.
Normalerweise können die heutigen Web-Browser auf FTP-Server zugreifen und auch
Programme downloaden, es gibt aber auch eigene FTP-Programme, die auch für den
Upload von Dateien ins Internet notwendig sind.
TelNet
TelNet setzt sich aus den beiden Wörtern Telecommunication und Network zusammen
und ist einer der ältesten Internet-Dienste. TelNet bietet die Möglichkeit, auf unterster
Ebene mit anderen Computern zu kommunizieren. Klassische Einsatzbeispiele von
TelNet sind das Abfragen von Datenbanken oder das Ausführen lassen von
Rechenoperationen auf fremden Grossrechnern. Für die Benutzung des TelNet ist ein
eigener TelNet-Client notwendig. Heute ist der Bereich Telebanking ein typisches
Beispiel, wo auch der private Internet-User über TelNet einen zentralen Host bedienen
kann.
Internet Relay Chat (IRC)
IRC ist ein Internet-Dienst, der es ermöglicht, per Tastatur gleichzeitig mit mehreren
Netzteilnehmern zu kommunizieren. Es hat sich der Name Chat (Plaudern)
eingebürgert.
Chat-Teilnehmer müssen sich bei einem IRC-Server einloggen, der dann die
Tastatureingaben jedes einzelnen sofort an die anderen Chat-Teilnehmer weiterleitet.
Die Benutzung des IRC erfolgt mit eigenen Programmen, alternativ dazu gibt es die
Java-Applets für den Chat, die das Chatten auch mit einem Browser ermöglichen.
Gopher
Gopher ist ein ähnliches Informationssystem wie das World Wide Web, sozusagen der
Vorläufer des WWW. Normale Text-Dateien sind hierarchisch abgelegt, ähnlich wie
beim Dateimanager von Windows. Durch einfaches Anklicken können diese Text-
Dateien angesehen werden. Im Gegensatz zum World Wide Web gibt es bei Gopher
keinerlei Formatierungen und keine multimedialen Fähigkeiten.
Wais
Wais (Wide Area Information Service) ist ein junger Internet-Dienst, ein System zur
Volltextsuche in Dokumenten und Datenbanken. Kombinationen von Suchbegriffen sind
erlaubt, wodurch die Treffsicherheit erhöht wird.
Archie
Archie ist ein Suchdienst, um nach Dateien auf öffentlichen FTP-Servern zu suchen.
Auf eigenen Archie-Servern werden in umfangreichen Datenbanken die Inhalte der
FTP-Server verwaltet. Inzwischen ist Archie veraltet, die Indexierung von FTP-Servern
wurde mittlerweile von Suchmaschinen im World Wide Web übernommen.
eBusiness und eCommerce
Business-to-Business (B2B)
Business-to-Consumer (B2C)
B2C bezieht sich auf die Beziehung zwischen Händler und Privatkunden (auch
eRetailing genannt). Diese Geschäfte werden meist über das offene Internet
abgewickelt. Diese Kategorie erlebt durch das WWW einen grossen Aufschwung.
Online Shops und Shopping Malls sind ein beliebtes Thema in den Medien und
entstehen in allen möglichen Sparten und Erdteilen. Aber erst mit Web-TV,
Screenphones und anderen Frontend Anwendungen in den Haushalten oder Kiosken
werden hier in den nächsten Jahren betriebswirtschaftliche Erfolge zu verzeichnen sein.
Mehr Erfolg haben Marketinginformationen und PR-Aktivitäten, wie Shareholder
Informationen, Beschwerdemanagement und -analyse, welche die Kommunikation
Unternehmen Kunden fördern und damit Loyalität sowie Kundenzufriedenheit
verbessern. Natürlich hat sich aufgrund der administrativen Kostensituation im
Finanzbereich online banking auch in dieser Kategorie immer mehr durchgesetzt.
Consumer-to-Consumer (C2C)
Administration
Auch bei den Ministerien gibt es den Versuch die Formularflut zwischen öffentlichen
Einrichtungen und Unternehmen elektronisch abzuwickeln. Diese Transaktionen fallen
in den Bereich Administration-to-Business (A2C). Administration-to-Consumer (A2C) ist
das 24-Stunden-Amt für den Bürger und wenn die Behörden untereinander elektronisch
kommunizieren oder Daten austauschen, ist das Administration-to-Administration (A2A).
Diese drei Transaktionsformen nennt man auch eGovernment und führen zu einer
Erhöhung der Leistungsfähigkeit und Kostenoptimierung in der Verwaltung - der
Wunschtraum jedes Politikers und Steuerzahlers.
Kategorien
eProcurement
Domainnamen wie www.itmanager.info sind nichts anderes als Gedächtnishilfen für den
Menschen am Computer -- die Computer selbst benutzen zur Kommunikation IP-
Adressen: Codes, die derzeit aus vier Zahlen zwischen 0 und 255 bestehen. Erst ein
DNS-Server verwandelt die vom Menschen eingetippte Zeichenfolge
www.itmanager.info in die IP-Adresse 192.168.34.65. IP bedeutet dabei Internet
Protocol.
Mittels einer IP-Adresse lässt sich ein bestimmter Nutzer aber nicht zweifelsfrei
identifizieren, da oftmals IP-Adressen dynamisch vergeben werden: Beispielsweise
kann ein Zugangsprovider über eine ganze Reihe von IP-Adressen verfügen und einem
Nutzer die jeweils nächste freie IP-Adresse zeitweilig zuweisen. Auf der anderen Seite
führt ein Domainname oftmals zu einer Reihe von Servern mit jeweils eigenen IP-
Adressen.
Eine Webadresse wie www.itmanager.info lässt sich in drei Abschnitte unterteilen, die
von hinten nach vorne gelesen werden. .ch steht für die Schweiz und ist einer von über
240 Ländercodes. Solche Domainnamen werden als country-code Top-Level-Domains
bezeichnet, kurz ccTLD. Für die Einrichtung des Domainnamens icannchannel.de ist
nicht ICANN, sondern die Vergabestelle des jeweiligen Landes zuständig (für
Deutschland: DE-NIC). Über die Einrichtung von www.itmanager.info,
mail.itmanager.info oder irgendwas.itmanager.info entscheidet schliesslich der
Domaininhaber selbst.
Ausser den Ländercode-Domainnamen gibt es generische Top-Level-Domains, die mit
gTLD abgekürzt werden. .com ist die am häufigsten verwendete gTLD, dazu kommen
.net und .org. Ursprünglich sollten .net-Domains im Zusammenhang mit dem
Netzwerkbetrieb und .org-Domains für Organisationen verwendet werden. Weitere
gTLDs sind .edu (Bildungseinrichtungen), .gov (US-Regierung), .mil (US-Militär) und .int
(internationale Organisationen).
Die Abkürzung steht für Internet Corporation for Assigned Names and Numbers. ICANN
ist eine private Internet-Organisation mit Sitz in Marina del Rey, Kalifornien, die
bestimmte zentrale Koordinierungsaufgaben im Internet übernimmt. Es geht dabei um
folgende Bereiche:
• IP-Adressen: ICANN koordiniert das IP-Adressensystem, und ist die oberste
Instanz, die IP-Adressenblöcke vergibt. Die Blöcke werden an die regionalen IP-
Registries vergeben, die sie dann weiter verteilen.
• Domainnamen-System: ICANN koordiniert das Domainnamen-System (DNS)
und ist insbesondere die Instanz, die über die Einrichtung von Top-Level-
Domains entscheidet.
• Internet-Protokolle: ICANN koordiniert die Zuweisung von Parametern mit
Internet-Bezug und ist z.B. für die Vergabe von IP-Port-Nummern zuständig.
• Rootserver System: In diesem Punkt hat ICANN eine deutlich geringere Rolle
als in den anderen Bereichen. ICANN überwacht zwar den Betrieb des
Rootserver-Systems, bislang scheint die US-Regierung jedoch nicht bereit zu
sein, die letzte Aufsicht darüber völlig abzugeben.
ICANN hat weder die Kompetenzen noch den Etat oder das Personal, eine Welt-
Internetregierung zu stellen. Über viele Aspekte des Internets wird an anderer Stelle
beraten und entschieden, z.B. bei G-8 und WTO (e-Commerce) oder bei IETF und W3C
(Standards). Dennoch ist ICANN derzeit das Gremium im Internet, auf das sich viele
Akteure -- von Regierungen über Unternehmen bis zu Bürgerrechtlern -- konzentrieren.
ICANNs technische Entscheidungen können starke politische und wirtschaftliche
Auswirkungen haben.
In Ermangelung eines besseren Begriffes wird bei ICANN Channel daher vorwiegend
der Begriff Internet-Verwaltung verwendet. Das sollte jedoch nicht über die Bedeutung
von ICANN hinwegtäuschen: Das Domainnamen-System ist zu einem Rückgrat des
Internets geworden, und ICANN ist dabei die Stelle, an der die Spielregeln aufgestellt
werden.
ICANN ist keine internationale Organisation, die von Staaten gebildet wurde, sondern
eine private Organisation nach kalifornischem Recht. Es gibt jedoch ein Gremium, an
dem Regierungsvertreter aller Staaten teilnehmen können: Das Governmental Advisory
Committee (GAC) . Es handelt sich dabei jedoch um ein beratendes Komitee, dessen
Beschlüsse für das ICANN-Direktorium rechtlich nicht bindend sind. Bislang gab es
allerdings auch keinen ernsthaften Konflikt zwischen GAC und dem Direktorium.
Darüber hinaus hat die US-Regierung weiterhin die letzte Aufsicht über den
Rootserver A.
TCP/IP-Protokoll
TCP/IP ist der kleinste gemeinsame Nenner des gesamten Datenverkehrs im Internet.
Erst durch dieses Protokoll wurde historisch gesehen aus einem begrenzten Netz ein
Netz der Netze. Egal, ob Sie WWW-Seiten aufrufen, E-Mails versenden, mit FTP
Dateien downloaden oder mit Telnet auf einem entfernten Rechner arbeiten: stets
werden die Daten auf gleiche Weise adressiert und transportiert. TCP bedeutet
Transmission Control Protocol (Protokoll für Übertragungskontrolle), IP bedeutet
Internet Protocol.
Wenn Sie eine E-Mail verschicken oder eine HTML-Datei im WWW aufrufen, werden
die Daten bei der Übertragung im Netz in kleine Pakete zerstückelt. Jedes Paket enthält
eine Angabe dazu, an welche Adresse es geschickt werden soll, und das wievielte
Paket innerhalb der Sendung es ist.
Die Adressierung besorgt das IP. Dazu gibt es ein Adressierungsschema, die
sogenannten IP-Adressen.
Dass die Datenpakete auch wirklich beim Empfänger ankommen, und zwar in der
richtigen Reihenfolge, dafür sorgt das TCP. Das TCP verwendet Sequenznummern für
die einzelnen Pakete einer Sendung. Erst wenn alle Pakete einer Sendung vollständig
beim Empfänger angekommen sind, gilt die Übertragung der Daten als abgeschlossen.
Jeder Rechner, der am Internet teilnimmt, ist mit einer IP-Adresse im Netz angemeldet.
Rechner, die ans Internet angeschlossen sind, werden als Hosts oder Hostrechner
bezeichnet. Wenn Sie also mit Ihrem PC im WWW surfen oder neue E-Mails abholen,
sind Sie mit einer IP-Adresse im Internet angemeldet. Ihr Zugangs-Provider, über
dessen Hostrechner Sie sich einwählen, kann feste IP-Adressen für Sie einrichten.
Grosse Zugangs-Provider, etwa Online-Dienste wie CompuServe oder AOL, vergeben
auch personenunabhängig dynamische IP-Adressen für jede Internet-Einwahl. Damit
ein Rechner am Internet teilnehmen kann, muss er über eine Software verfügen, die
das TCP/IP-Protokoll unterstützt. Unter MS Windows ist das beispielsweise die Datei
winsock.dll im Windows-Verzeichnis.
IP-Adressierung
Typische IP-
Netztyp IP-Adressierung
Adresse
Klasse-A-Netz xxx.xxx.xxx.xxx 103.234.123.87
Klasse-B-Netz xxx.xxx.xxx.xxx 151.170.102.15
Klasse-C-Netz xxx.xxx.xxx.xxx 196.23.155.113
Die oberste Hierarchiestufe bilden die sogenannten Klasse-A-Netze. Nur die erste Zahl
einer IP-Adresse ist darin die Netzwerknummer, alle anderen Zahlen sind
Hostnummern innerhalb des Netzwerks. Bei Netzwerknummern solcher Netze sind
Zahlen zwischen 1 und 126 möglich, d.h. es kann weltweit nur 126 Klasse-A-Netze
geben. Eine IP-Adresse, die zu einem Klasse-A-Netz gehört, ist also daran erkennbar,
dass die erste Zahl zwischen 1 und 126 liegt. Das amerikanische Militärnetz ist
beispielsweise so ein Klasse-A-Netz. Innerhalb eines Klasse-A-Netzes kann der
entsprechende Netzbetreiber die zweite, dritte und vierte Zahl der einzelnen IP-
Adressen seiner Netzteilnehmer frei vergeben. Da alle drei Zahlen Werte von 0 bis 255
haben können, kann ein Klasse-A-Netzbetreiber also bis zu 16,7 Millionen IP-Adressen
an Host-Rechner innerhalb seines Netzes vergeben.
Die zweithöchste Hierarchiestufe sind die Klasse-B-Netze. Die Netzwerknummer
solcher Netze erstreckt sich über die beiden ersten Zahlen der IP-Adresse. Bei der
ersten Zahl können Klasse-B-Netze Werte zwischen 128 und 192 haben. Eine IP-
Adresse, die zu einem Klasse-B-Netz gehört, ist also daran erkennbar, dass die erste
Zahl zwischen 128 und 192 liegt. Bei der zweiten sind Zahl Werte zwischen 0 und 255
erlaubt. Dadurch sind etwa 16.000 solcher Netze möglich. Da die Zahlen drei und vier in
solchen Netzen ebenfalls Werte zwischen 0 und 255 haben dürfen, können an jedem
Klasse-B-Netz bis zu ca. 65.000 Hostrechner angeschlossen werden. Klasse-B-Netze
werden vor allem an grosse Firmen, Universitäten und Online-Dienste vergeben.
Die unterste Hierarchie stellen die Klasse-C-Netze dar. Die erste Zahl einer IP-Adresse
eines Klasse-C-Netzes liegt zwischen 192 und 223. Die Zahlen zwei und drei gehören
ebenfalls noch zur Netzwerknummer. Über zwei Millionen solcher Netze sind dadurch
adressierbar. Vor allem an kleine und mittlere Unternehmen mit direkter Internet-
Verbindung, auch an kleinere Internet-Provider, werden solche Adressen vergeben. Da
nur noch eine Zahl mit Werten zwischen 0 und 255 übrig bleibt, können in einem C-Netz
maximal 255 Host-Rechner angeschlossen werden.
Ob dieses Adressierungs-Schema den Anforderungen der Zukunft noch gerecht wird,
bezweifeln manche. Es gibt bereits Ideen zu einer Neustrukturierung der Adressierung
von Netzen und Hostrechnern.
Client-Server-Technologie
Für die einzelnen Internet-Dienste wie World Wide Web, Gopher, E-Mail, FTP usw.
muss auf einem Hostrechner, der anderen Rechnern diese Dienste anbieten will, eine
entsprechende Server-Software laufen. Ein Hostrechner kann einen Internet-Dienst nur
anbieten, wenn eine entsprechende Server-Software auf dem Rechner aktiv ist, und
wenn der Rechner "online" ist.
Server sind Programme, die permanent darauf warten, dass eine Anfrage eintrifft, die
ihren Dienst betreffen. So wartet etwa ein WWW-Server darauf, dass Anfragen
eintreffen, die WWW-Seiten auf dem Server-Rechner abrufen wollen.
Clients sind dagegen Software-Programme, die typischerweise Daten von Servern
anfordern. Ihr WWW-Browser ist beispielsweise ein Client. Wenn Sie etwa auf einen
Verweis klicken, der zu einer HTTP-Adresse führt, startet der Browser, also der WWW-
Client, eine Anfrage an den entsprechenden Server auf dem entfernten Hostrechner.
Der Server wertet die Anfrage aus und sendet die gewünschten Daten. Um die
Kommunikation zwischen Clients und Servern zu regeln, gibt es entsprechende
Protokolle. Client-Server-Kommunikation im WWW etwa regelt das HTTP-Protokoll. Ein
solches Protokoll läuft oberhalb des TCP/IP-Protokolls ab.
Dass ein Client Daten anfordert und ein Server die Daten sendet, ist der Normalfall. Es
gibt jedoch auch "Ausnahmen". So kann ein Client nicht nur Daten anfordern, sondern
auch Daten an einen Server schicken: zum Beispiel, wenn Sie per FTP eine Datei auf
den Server-Rechner hochladen, wenn Sie eine E-Mail versenden oder im WWW ein
Formular ausfüllen und abschicken. Bei diesen Fällen redet man auch von Client-Push
("Client drängt dem Server Daten auf").
Ein anderer Ausnahmefall ist es, wenn der Server zuerst aktiv wird und dem Client
etwas ohne dessen Anforderung zuschickt. Das nennt man Server-Push ("Server
drängt dem Client Daten auf"). Neue Technologien wollen diesen Ausnahmefall zu einer
Regel erheben: die sogenannten Push-Technologien. Diese Technologien sollen
ermöglichen, dass ein Client regelmässig Daten empfangen kann, ohne diese eigens
anzufordern. Dadurch sind Broadcasting-Dienste wie aktuelle Nachrichten usw.
realisierbar. Netscape und Microsoft Internet Explorer (beide ab Version 4.0) haben
entsprechende Schnittstellen, um solche Dienste in Anspruch zu nehmen.
Computer können mit Zahlen besser umgehen, Menschen in der Regel besser mit
Namen. Deshalb hat man ein System ersonnen, das die numerischen IP-Adressen für
die Endanwender in anschauliche Namensadressen übersetzt.
Dazu hat man ein System geschaffen, das ähnlich wie bei den IP-Adressen
hierarchisch aufgebaut ist. Eine Namensadresse in diesem System gehört zu einer Top-
Level-Domain und innerhalb dieser zu einer Sub-Level-Domain. Jede Sub-Level-
Domain kann nochmals untergeordnete Domains enthalten, muss es aber nicht. Die
einzelnen Teile solcher Namensadressen sind wie bei IP-Adressen durch Punkte
voneinander getrennt. Eine solche Namensadresse ist beispielsweise itmanager.info.
Top-Level-Domains stehen in einem Domain-Namen an letzter Stelle. Es handelt sich
um einigermassen sprechende Abkürzungen. Die Abkürzungen, die solche Top-Level-
Domains bezeichnen, sind entweder Landeskennungen oder Typenkennungen.
Beispiele sind:
de = Deutschland
at = Österreich
ch = Schweiz
it = Italien
my = Malaysia
com = Kommerziell orientierter Namensinhaber
org = Organisation
net = Allgemeines Netz
edu = amerikanische Hochschulen
gov = amerikanische Behörden
mil = amerikanische Militäreinrichtungen
Jede dieser Top-Level-Domains stellt einen Verwaltungsbereich dar, für die es auch
eine "Verwaltungsbehörde" gibt, die für die Namensvergabe von Sub-Level-Domains
innerhalb ihres Verwaltungsbereichs zuständig ist. Wenn Sie beispielsweise einen
Domain-Namen wie MeineFirma.de beantragen wollen, muss der Antrag an das DE-
NIC (Deutsches Network Information Center) gestellt werden. Kommerzielle Provider
erledigen das für Sie, wenn Sie dort einen entsprechenden Service in Anspruch
nehmen. Ihren Wunschnamen erhalten Sie aber nur, wenn die Namensadresse noch
nicht anderweitig vergeben wurde. Schlaufüchse sind daher auf die Idee gekommen,
Namen grosser Firmen, die noch keine eigene Domain beantragt haben, für sich zu
reservieren, um sie dann, wenn auch die grosse Firma die Zeichen der Zeit erkennt,
teuer an diese weiterzuverkaufen. Mittlerweile sind solchen Machenschaften Riegel
vorgeschoben. Dennoch kommt es immer wieder zu Rechtsstreitereien wegen
attraktiven Domain-Namen. Wenn etwa zwei zufällig gleichnamige Firmen, die sonst
nichts miteinander zu tun haben, den gleichen Domain-Namen reservieren lassen
wollen, kann nur eine der Firmen den Zuschlag erhalten. Um Streitigkeiten dieser Art zu
reduzieren, gibt es mittlerweile auch neue Top-Level-Endungen.
Inhaber von zweiteiligen Domain-Namen können nochmals Sub-Level-Domains
vergeben. So gibt es beispielsweise eine Domain namens seite.net. Die Betreiber
dieser Domain haben nochmals Sub-Domains vergeben, wodurch Domain-Adressen
wie java.seite.net oder javascript.seite.net entstanden.
Im Internet als dem Netz der Netze ist es zunächst nur innerhalb des eigenen Sub-
Netzes möglich, Daten direkt von einer IP-Adresse zu einer anderen zu schicken. In
allen anderen Fällen, wenn die Daten an eine andere Netzwerknummer geschickt
werden sollen, treten Rechner auf den Plan, die den Verkehr zwischen den Netzen
regeln. Solche Rechner werden als Gateways bezeichnet. Diese Rechner leiten Daten
von Hostrechnern aus dem eigenen Sub-Netz an Gateways in anderen Sub-Netzen
weiter und ankommende Daten von Gateways anderer Sub-Netze an die darin
adressierten Host-Rechner im eigenen Sub-Netz. Ohne Gateways gäbe es gar kein
Internet.
Das Weiterleiten der Daten zwischen Sub-Netzen wird als Routing bezeichnet. Die
Beschreibung der möglichen Routen vom eigenen Netzwerk zu anderen Netzwerken
sind in Routing-Tabellen auf den Gateway-Rechnern festgehalten.
Zu den Aufgaben eines Gateways gehört auch, eine Alternativ-Route zu finden, wenn
die übliche Route nicht funktioniert, etwa, weil bei der entsprechenden Leitung eine
Störung oder ein Datenstau aufgetreten ist. Gateways senden sich ständig Testpakete
zu, um das Funktionieren der Verbindung zu testen und für Datentransfers
"verkehrsarme" Wege zu finden.
Wenn also im Internet ein Datentransfer stattfindet, ist keinesfalls von vorneherein klar,
welchen Weg die Daten nehmen. Sogar einzelne Pakete einer einzigen Sendung
können völlig unterschiedliche Wege nehmen. Wenn Sie beispielsweise von
Deutschland aus eine WWW-Seite aufrufen, die auf einem Rechner in den USA liegt,
kann es sein, dass die Hälfte der Seite über den Atlantik kommt und die andere über
den Pazifik, bevor Ihr WWW-Browser sie anzeigen kann. Weder Sie noch Ihr Browser
bekommen davon etwas mit.
Selbstorganisation im Internet
Dieses Schema ist eine Idealisierung: In der Praxis haben Suchmaschinen oft noch
zusätzliche Komponenten, welche ihre besonderen Features verwirklichen, oder haben
aus technischen Gründen ihre Datenstrukturen anders organisiert. Im allgemeinen
jedoch lässt sich eine Suchmaschine auf diese Kernkomponenten abbilden.
URL Server
Der URL Server verwaltet die URLs, welche noch aus dem Internet geholt, indiziert und
verarbeitet werden müssen. Er gibt diese weiter an die Crawler, sobald diese neue
Kapazitäten frei haben.
Da man im allgemeinen Fall nicht davon ausgehen kann, das gesamte Internet
indizieren zu können (ausser man möchte nur einen Teil erfassen, z.B. alle Seiten eines
bestimmten Servers), ist es wichtig zu entscheiden, in welcher Reihenfolge die URLs
abgearbeitet werden sollen. Diese Entscheidung wird im URL Server getroffen und wird
später in dieser Arbeit genauer beschrieben.
Unabhängig von der Reihenfolge besteht hierbei aber das Problem, dass nur Seiten
erfasst werden können, auf die auch Links existieren. Isolierte Seiten oder Teilgraphen
des WWW, auf die keine Kante führt, werden auf diesem Wege nicht gefunden. Aus
diesem Grund bieten die meisten Suchmaschinen an, URLs manuell dem URL Server
zu übergeben, z.B. durch die Möglichkeit der Anmeldung von Seiten.
Crawler
Der Crawler ist die Komponente einer Suchmaschine, die dafür zuständig ist, eine
gegeben URL aus dem Internet zu holen. Zuerst wandelt er mit Hilfe des Domain Name
Service (DNS) die URL in eine IP-Adresse um. Dann versucht er, zu dem
entsprechenden Server mittels HTTP eine Verbindung zu öffnen. War der
Verbindungsaufbau erfolgreich, verlangt er vom Server über das GET-Kommando die
entsprechende Seite und wartet dann auf dessen Erhalt. War die Übertragung
erfolgreich, übergibt er die geholte Seite dem Parser.
Da bei dieser Prozedur lange Latenzzeiten entstehen, bearbeitet der Crawler immer
mehrere URLs gleichzeitig. So kann beim Transfer einer Seite von einem Server zum
Crawler schon die Verbindung zu einem weiteren Server aufgebaut oder der DNS
befragt werden und so die Effizienz gesteigert werden. In der Tat ist es bei grossen
Suchmaschinen, die einen möglichst umfassenden Index erzeugen wollen, sinnvoll,
gleichzeitig mehrere Crawler auf verschiedenen Systemen laufen zu lassen. In wird
berichtet, dass ein Crawler typischerweise 300 Verbindungen gleichzeitig offen hat und
das Gesamtsystem in Spitzenzeiten mit 4 Crawlern etwa 100 Seiten pro Sekunde
erfasst.
Problematisch bei dieser Komponente ist die enorme Netzlast, welche besonders beim
Crawlersystem und bei den Zielservern entsteht. Während das Crawlersystem
naturgemäss mit hohen Bandbreiten ausgestattet ist, kann des Durchlaufen komplexer
Seitenstrukturen auf einem Server diesen durchaus für einige Zeit lahmlegen. Auch ist
mit Reaktionen der betroffenen Betreiber zu rechnen, die nicht immer wissen, was ein
Crawler ist. In wird beschrieben, wie täglich dutzende Emails und Telefonanrufe
eingingen, die ihre Freude über das anscheinende Interesse an ihren Seiten
ausdrücken wollten oder verhindern wollten, dass bestimmte Seiten ihres Servers
indiziert werden. Für letzteres Problem existiert das Robots Exclusion Protocol, welches
aber nicht allen Betreibern bekannt ist.
Und schliesslich muss sich der Designer eines Crawlers mit dem Umgang mit
temporären Problemen beschäftigen. So kann der Versuch, eine bestimmte URL zu
holen, zu einer bestimmten Zeit fehlschlagen, da Teile des Netzes überlastet sind. Hier
muss sich der Crawler entscheiden, ob der die URL zurückstellt und es zu einem
späteren Zeitpunkt noch einmal versucht und wenn ja, wie oft er dies macht.
Parser
Nachdem eine Seite aus dem Internet geholt wurde, muss sie vom Parser zur Analyse
vorbereitet werden. Alle WWW-Seiten sind in der Hypertext Markup Language (HTML)
geschrieben und der Parser erstellt nun aus jeder Seite einen Ableitungsbaum. Diesen
übergibt er dann dem Repository zur Verarbeitung.
Der Parser kann sehr komplex werden, da im Internet eine Vielzahl von HTML-
Versionen existieren zusammen mit mehreren Dialekten (so haben Netscape und
Microsoft eigene, nicht dem Standard entsprechende Schlüsselwörter der Sprache
hinzugefügt und durch ihre Browser populär gemacht), welche alle korrekt interpretiert
werden müssen. Hinzu kommt, dass eine erstaunlich grosse Zahl von Seiten Fehler
enthalten. So finden sich Tippfehler in HTML-Schlüsselwörtern oder es werden
geöffnete Blöcke nicht geschlossen. All dies fällt im Browser nicht auf, da diese WWW-
Seiten so gut darstellen wie sie können und alles nicht erkannte einfach weglassen.
Dem Designer eines Parsers fällt also die Aufgabe zu, diesen möglichst fehlertolerant
zu gestalten.
Store Server
Die Aufgabe des Store Servers ist es, aus den vom Parser erhaltenen
Ableitungsbäumen die für die Suchmaschine wichtigen Informationen zu extrahieren.
Zum einen sind dies Links auf andere Seiten, die dem URL Server übergeben werden.
An dieser Stelle ist es möglich eine Auswahl zu treffen, welche URLs überhaupt geholt
werden sollen. Soll beispielsweise eine lokale Suchmaschine für alle Seiten von IT-
Intelligence erstellt werden, so kann ein Filter eingebaut werden, der nur URLs an den
URL Server übergibt, welche mit "../../" anfangen. Dadurch werden alle Links, welche
auf Seiten anderer Server führen, übergangen.
Bei der Auswahl der URLs muss besonderen Wert darauf gelegt werden, dass keine
dynamisch generierten Seiten angefordert werden. Es wäre fatal für die Suchmaschine,
wenn sie sich in der Anfragemaske einer anderen Suchmaschine oder in dynamisch
generierten Seiten eines Online-Spiels verfangen würde. Dies kann oft daran erkannt
werden, dass die URL Elemente des Common Gateway Interface (CGI) enthält.
Im Text der geholten WWW-Seite wird dann nach neuen Wörtern gesucht und bei
Bedarf das Lexicon erweitert. Zu jedem Wort der Seite wird in den Hit Lists vermerkt,
wie oft es in dieser Seite vorkommt, und schliesslich wird ein Teil der Seite im
Repository abgespeichert.
Lexicon
Im Lexicon sind alle Wörter gespeichert, die im Netz angetroffen wurden und nach
denen der Benutzer suchen kann, ausgenommen die Wörter, die einem Satz keinen
Inhalt beisteuern (Artikel, und, oder usw.). Jedes Wort enthält einen Zeiger auf die
entsprechende Hit List.
Da auf diese Datenstruktur beim Suchen sehr oft zugegriffen werden muss, ist ein
Designziel, eine möglichst effiziente Datenstruktur zu verwenden, die möglichst
komplett in den Hauptspeicher passt. Für schnellen Zugriff bietet sich eine Hashtabelle
an, und die Betreiber der Suchmaschine Google berichten, dass ihr Lexicon etwa 14
Millionen Wörter umfasst und in den Speicher eines Rechners mit 256MB
Uauptspeicher passt.
Hit Lists
Die Hit Lists enthalten zu jedem Wort des Lexicons eine Menge von Zeigern auf die
Seiten im Repository, in denen es vorkommt. So kann bei einer Suchanfrage zu einer
gegebenen Menge von Suchwörtern schnell die entsprechende Ergebnismenge an
URLs berechnet werden.
Hier können auch noch andere Informationen abgespeichert werden, z.B. wie oft das
Wort im entsprechenden Dokument vorkommt, ob es in einer Überschrift oder im Titel
steht, in welcher Schriftart es gesetzt ist usw. Dies kann bei der Berechnung der
Relevanz helfen, ohne zeitaufwendig auf die gespeicherten Daten im Repository
zurückgreifen zu müssen (wenn diese Daten überhaupt dort gespeichert wurden).
Repository
Im Repository werden die Informationen aller indizierten Seiten gespeichert, welche zur
Ausgabe der Ergebnisse oder, wenn die Informationen in den Hit Lists nicht ausreichen,
zur Suche benötigt werden. Manche Suchmaschinen speichern nur den Titel, andere
die ersten 20 Zeilen und mittlerweile geht man immer mehr dazu über, die gesamte
Seite zu speichern.
Werden grosse Teile der Seiten gespeichert (im Extremfall Volltext), ist es nötig die
Daten zu komprimieren. Eine wichtige Designentscheidung dabei ist die Abwägung
zwischen Qualität und Geschwindigkeit der Kompression. In den seltensten Fällen kann
die beste Kompression gewählt werden, da dies für die Mange an anfallenden Daten
einfach zu langsam wäre und auch das Suchen zu lange dauerte.
Searcher
Der Searcher ist der Teil der Suchmaschine, den der Anwender zu Gesicht bekommt.
Er ist ein Webserver, welcher das Frontend für die Datenbank darstellt und bietet auf
der Startseite die Anfragemaske. Die Suchanfragen werden meist über CGI an den
Searcher übermittelt, selten auch mittels Java.
Hat der Searcher die Suchanfrage erhalten, erstellt er mit Hilfe des Lexicons und der Hit
Lists die Ergebnismenge, welche mit Hilfe eines Ranking-Algorithmus sortiert wird.
Dabei bekommen im einfachsten Fall die Seiten das höchste Ranking, welche die
meisten Suchwörter am häufigsten enthalten; Verbesserungen für Ranking-
Algorithmen, werden später in dieser Arbeit vorgestellt.
Die Links auf die als relevant eingestuften Seiten werden zur besseren Übersicht des
Anwenders dann mit Informationen aus dem Repository angereichert.
W3C Standards
Das Internet-Protokoll HTTP (Hypertext Transfer Protocol), das oberhalb des TCP/IP-
Protokolls (der "Socket-Verbindung") aufsetzt, und die einheitliche, hypertextfähige
Dokumentauszeichnungssprache HTML (Hypertext Markup Language) sind die beiden
Säulen des Internets. Weder das HTTP-Protokoll noch die HTML-Sprache sind bis
heute sonderlich ausgereift. Das HTTP-Protokoll hat Sicherheitslücken und unterstützt
im Gegensatz etwa zum Xanadu-System keine Möglichkeit eines Tantiemensystems für
Informationsbereitsteller. HTML verdankt seine Weiterentwicklungen, aber auch seine
Probleme bei der Festsetzung eines verbindlichen Standards dem Machtkampf
zwischen den führenden Browser-Anbietern Microsoft und Netscape - und dem
geringen Leistungsumfang, den die Initiatoren des W3-Konsortiums der Sprache
zunächst mit auf den Weg gegeben haben.
Text zu Text Verbindung als schematische Darstellung, Theodor Holm Nelson, 1965
Modell von verlinkten Textfenstern, Xanadu Projekt, 1972
Hypertext im Internet ist strikt nach Authoring und Browsing getrennt. Die Abschirmung
erfolgt durch das Client-Server-Modell des Internet. Anbieter von HTML-Dateien können
die Dateien auf Internet-Server-Rechnern ablegen, die das HTTP-Protokoll
unterstützen. Der Anwender benötigt neben der Software für die Internet-Verbindung
einen Browser, um im Internet zur Verfügung stehende HTML-Seiten aufzurufen.
HTML-Dateien oder HTML-generierende Programme, die auf Server-Rechnern
abgelegt sind, können dort von keinem Anwender geändert werden. Jedoch kann der
Anwender übertragene Dateien auf seinem Client-Rechner ablegen, manipulieren und
an anderer Stelle wieder ins Internet hochladen. Dies ist vielen Anbietern ein Dorn im
Auge, hat aber mit dazu beigetragen, dass sich HTML so stark verbreiten konnte und so
vielen Menschen zugänglich wurde.
Das Internet ist kein Hypertext, sondern eine weltweite und öffentliche Plattform für
Hypertext-Projekte mit der Möglichkeit, auch direkt aufeinander zu verweisen. In
welchem Umfang das Internet in Zukunft jedoch echten Hypertext bieten wird, hängt
stark davon ab, wie weit sich das Bewusstsein von Informationsanbietern entwickelt,
dass sie sich in einem Netz befinden und nicht in einer wahllosen Internet-
Adressenlandschaft.
Weitere Informationen:
• HTML 4.01, W3C, 24.12.1999
• HTML-Dateien selbst erstellen (Selfhtml)
• Das XANADU-Projekt
XHTML - XML-based Hypertext Markup Language
XHTML ist eine Erweiterung von HTML 4.01. Gemäss W3C wird in Zukunft nur noch
XHTML weiterentwickelt - HTML nicht mehr. Dokumenttypen von XHTML sind XML
basierend und letztlich bestimmt, um in Verbindung mit XML-basierenden
Benutzeragenten zu arbeiten. Ein XHTML-Dokument muss wohlgeformt und gültig sein,
sprich eine saubere Struktur haben. Das erleichtert dem Browser das Parsen und
Darstellen der Seite und erleichert auch die Übertragung auf andere Geräte (Handys,
PDA usw.).
XHTML 1.0 ist der erste Dokumenttyp der XHTML Familie. Es ist eine Reformulierung
der drei HTML Dokumenttypen als Anwendungen von XML. Es ist beabsichtigt, dass er
als Sprache für Inhalte verwendet wird, die sowohl XML-konform sind und, wenn einige
einfache Richtlinien befolgt werden, in HTML konformen Benutzeragenten
funktionieren. Entwickler, die die Inhalte ihrer Seiten auf XHTML 1.0 umstellen, werden
die folgenden Vorteile feststellen:
• XHTML Dokumente sind XML konform. Als solche können sie ohne weiteres mit
Standard-XML-Werkzeugen betrachtet, bearbeitet und validiert werden.
• XHTML Dokumente können so geschrieben werden, dass sie genauso gut oder
besser in bestehenden HTML 4 Benutzeragenten funktionieren wie in neuen,
XHTML 1.0 konformen Benutzeragenten.
• XHTML Dokumente können Anwendungen nutzen (z.B. Skripte oder Applets) die
entweder vom HTML Dokumentobjektmodell oder vom XML
Dokumentobjektmodell (DOM) abhängig sind.
• Sowie sich die XHTML Familie weiterentwickelt, werden XHTML 1.0 konforme
Dokumente eher zusammen mit und innerhalb verschiedener XHTML
Umgebungen arbeiten können.
Die XHTML Familie ist der nächste Schritt in der Weiterentwicklung des Internets.
Indem Inhaltsentwickler heute auf XHTML umsteigen, können sie in die XML-Welt mit
allen dazugehörigen Vorteilen einsteigen, während sie sich auf die Abwärts- wie auch
die zukünftige Kompatibilität ihrer Inhalte verlassen können.
Weitere Informationen:
• XHTML 1.0, W3C, 26.01.2000
• XHTML 1.0 in Deutsch
Weitere Informationen:
• CSS Übersicht, W3C
• CSS 2.0, W3C, 12.05.1998
• Introduction to CSS, Dave Ragett
• Einführung in CSS (Deutsch), Bernhard Friedrich
Ungefähr in den 60er-Jahren, als die durch den Computer unterstützte Textverarbeitung
noch in den Kinderschuhen steckte, kam zum ersten mal der Gedanke auf, die
Formatierung eines Textes von ihrem Inhalt zu trennen. In dieser Zeit unterstützte die
Graphic Communications Association of America diesen Gedanken, indem Seminare
und Arbeitstagungen zu diesem Thema ins Leben gerufen wurden. Auf diese Initiative
ist das Konzept von GenCode zurückzuführen. Hierbei handelt es sich um ein
allgemeines Codier-Schema für die grafikverarbeitende Industrie.
1969 entwickelten Charles Goldfarb, Edward Musher und Raymond Lorie für IBM GML
(Generalized Markup Language - vielleicht kam ja GML auch von den
Anfangsbuchstaben ihrer Nachnamen?). In den 70er-Jahren ging die
Internationalisierung und die Standardisierung vornehmlich von den Vereinigten Staaten
aus. SGML wurde eine Sprache, mit der man jedes Dokument in jeder Sprache
darstellen konnte.
In den 80er-Jahren entstand mit Desktop-Publishing die Möglichkeit, das Aussehen
eines Dokuments grundlegend zu manipulieren. Diese Desktop-Publishing Werkzeuge
haben sich in den letzten Jahren in ihrer Leistungsfähigkeit sehr stark weiterentwickelt.
Allerdings trat damit auch die Schwierigkeit der Standards auf. Die Möglichkeit der
Weiterverarbeitung älterer Dokumente war auf nicht viel mehr als die Lebensdauer der
Formatierungs-Codierung oder auch der Rechnergattung beschränkt. Immer mehr
wuchs der Wunsch, den Dokumentenaustausch zwischen Rechnern zu normen, die
Formatierung rechnerunabhängig zu machen, so dass ein aktuelles Dokumentenarchiv
auch noch in zehn Jahren seine Gültigkeit hat.
Genormt wurde SGML erst 1986 unter einem Open System Interchange (OSI) Standard
von der International Standards Organisation (ISO) unter der Referenznummer ISO
8879:1986 und von der International Electrotechnical Commission (IEC).
Der ISO Standard definiert SGML als eine Sprache für Dokumentenrepräsentation,
welche Markup formalisiert und von System- und Verarbeitungsabhängigkeiten löst.
SGML erlaubt den Austausch von grossen und komplexen Datenmengen und
vereinfacht den Zugriff auf sie. Zusätzlich zu den Möglichkeiten des deskriptiven
Markups benutzen SGML-Systeme ein Dokumentenmodell, welches die Überprüfung
der Gültigkeit eines Textelements in einem bestimmten Kontext erlaubt. Weiterhin
enthält SGML Techniken, welche den Benutzer folgende Dinge erlauben:
• Zusammenbindung von Dateien, zur Erstellung eines zusammenhängenden
Dokuments,
• Einbindung von Illustrationen und Tabellen in Textdateien,
• Erzeugen von mehreren Versionen eines Dokuments in einer einzigen Datei,
• Hinzufügen von Kommentaren in die Datei,
• Kreuzreferenzen und weitere.
Bei SGML handelt es sich nicht um eine vordefinierte Menge von Tags zum Markieren
von Textpassagen, wie das vielleicht bei zu sehen ist. ist ein Satzsystem, bei dem das
Aussehen des Dokumentes im ausgedruckten Zustand im Vordergrund steht. Dazu
benutzt u.a. bestimmte Zeichen (geschweifte Klammern...), welche natürlich
unterschiedlich interpretiert werden können, wenn das Dokument von dem einen auf
den anderen Rechner übertragen wird. SGML löst sich von diesen Sonderzeichen-
Abhängigkeiten. Ausserdem beschreibt SGML nicht das Aussehen des Textes, sondern
erlaubt die Beschreibung seiner strukturellen Komposition.
Weitere Informationen:
• SGML Geschichte, Charles F. Goldfarb
• Einführung in SGML, Oliver Corff
XML - Extensible Markup Language
Der Begriff Extensible Markup Language (XML) beschreibt die neueste Entwicklung des
W3C's. Unter XML versteht man eine Metasprache wie SGML. Man kann also mit XML
eigene Dokumenttypen definieren.. Im Jahre 1996 wurde ein erster Vorschlag zu dieser
neuen Sprache vorgestellt und 1998 wurde dann der erste Standard für XML vom W3C
erstellt (XML 1.0 - Specification). XML kann auch als Kompromiss zwischen der
Komplexität von SGML und der begrenzten Gestaltungsmöglichkeiten von HTML
bezeichnet werden.
In dem Begriff "Extensible" wird schon angedeutet worum es bei dieser Sprache
hauptsächlich gehen soll: Erweiterbarkeit. Die Grenze von HTML besteht darin, dass
nicht beliebige viele Elemente verwendet werden dürfen. In HTML beschränken sich die
zu verwendenden Elemente auf genau die Anzahl von Elementen, die in der DTD für
HTML definiert worden sind, d.h. schon von vornherein vorgesehen wurden. Mit XML
wird dem Anwender jetzt die Möglichkeit eingeräumt sich neben der Beschreibung
eigener Dokumente auch seine eigenen Elemente zu definieren.
Das W3C verfolgte mit der Entwicklung von XML vor allem folgende Zielsetzungen,
welche sie in der Syntaxbeschreibung von XML benannt haben:
• XML sollte im Internet einfach nutzbar sein.
• XML sollte ein breites Spektrum von Anwendungen unterstützen.
• XML sollte zu SGML kompatibel sein.
• Es sollte einfach sein Programme zu schreiben, welche XML - Dokumente
verarbeiten.
• Die Anzahl optionaler Merkmale in XML sollte minimal, im Idealfall 0 betragen.
• Jedes XML - Dokument sollte für den Menschen lesbar und angemessen
verständlich sein.
• Der XML - Entwurf sollte zügig abgefasst werden.
• Der Entwurf von XML sollte formal und präzise sein.
• XML - Dokumente sollten leicht erstellbar sein.
• Die Knappheit von XML - Markup sollte jedoch von minimaler Bedeutung sein.
Ein weiterer Vorteil von XML ist, dass die Dokumente Meta-Daten enthalten. Meta-
Daten geben dem Browser Informationen über die Art des Textes, den sie enthalten.
Dem Browser wird damit ermöglicht das Dokument gezielt nach Personen abzusuchen
oder beispielsweise auch nach einer Altersangabe. Diese Daten sind jedoch nur dann
nutzbar, wenn Inhalt und Form getrennt gespeichert werden. Über diesen Vorteil
verfügte schon SGML. Leider hat er sich für HTML nicht halten können, da dort Inhalt
und Format inzwischen stark vermengt sind, durch die zusätzlichen
Gestaltungsmöglichkeiten, die in HTML Eingang gefunden haben.
Auch die Unabhängigkeit vom Ausgabemedium ist wie schon in SGML jetzt auch
wieder in XML vertreten. Ein Dokument kann auf Papier, auf dem Bildschirm dargestellt
werden oder man kann es sich vorlesen lassen. Das W3C hat für die lautliche
Darstellung von Dokumenten als Teilmenge der Cascading Style Sheets die Aural Style
Sheets entwickelt. Mit Hilfe dieses Werkzeugs können dann Eigenschaften wie
Lautstärke, Sprechpausen und Sprechgeschwindigkeit festgelegt werden.
Weitere Informationen:
• XML Übersicht, W3C
• XML 1.0 (Zweite Ausgabe), W3C, 06.10.2000
• XML 1.0, Deutsch, Übersetzung: Henning Behme und Stefan Mintert
• Einführung in XML, Manuela Abu Musameh
Weitere Informationen:
• Synchronized Multimedia Übersicht, W3C
• SMIL 2.0, W3C, 07.08.2001
• Technische Einführung in SMIL, Dirk Wüstenhagen
• SMIL Grundlagen, Wolfgang von Keitz
Webserver
Nützliche Links:
• Apache und MySQL unter Windows aufsetzen
• Webserver Statistiken
• Allgemeine Info zum Webserver
Projekt-
management
o Analyse und Design
o Datenmodellierung
o Evaluation_Pflichtenheft
o Informationssystem
o Konzepte
o Problemlösung
o Relationales Datenbankmodell ERD
o System Engineering
• Hilfsmittel Methoden
! Brainstorming
! Brainwriting oder Methode 635
! Delphi
! Die morphologische Methode
! Inverses Brainstorming
! Synektik
Analyse und Design
Prinzipien
• Top-Down-Prinzip
o schrittweise Einengung des Betrachtungsfeldes
o fortschreitende Detaillierung
o vom Abstrakten zum Konkreten
• Bottom-Up-Prinzip
o Systemteile in ein übergeordnetes System integrieren
o fortlaufend Abstraktionsstufen definieren (Zusammenfassung,
Gruppierung)
• Prinzip der minimalen Modelle
o 80 : 20-Regel
o nach einfachen Lösungen suchen, komplex wird es von alleine
• Prinzip der Strukturierung
o die Darstellung von Funktionen und deren Beschreibungen sollen nach
den Regeln der Strukturierung erfolgen
• Prinzip der Verständlichkeit
o mit Grafiken Modelle, Systeme darstellen
o den der Stufe des Entwicklungsprozesses und der Branche oder Firma
angepassten Wortschatz verwenden
o das Konzept, die Modelle müssen konsistent und jederzeit überprüfbar
sein
o Vollständigkeit und doch Redundanzfreiheit
o projektphasengerechter Detaillierungsgrad
o verständliche Grafiken (kein Chaos, kein Spinnennetz)
• Prinzip der Informations-Kapselung
o Kenntnis nur, wenn nötig (Verwendung über Schnittstellen)
o minimale Abhängigkeiten (min. Kopplung)
o maximale Zusammengehörigkeit (max. Kohäsion)
• Prinzip der Neutralität
o striktes Trennen von Was und Wie (nicht sofort an Bit und Byte bzw. eine
spezielle Implementierung denken, sondern das Essentielle finden und
entwerfen)
o bis zum Physischen Design sollen die Entwürfe und Modelle
betriebsorganisatorisch und implementierungstechnisch möglichst neutral
sein
• Prinzip der Anwendung mehrerer Sichten
Aufgrund der hohen Komplexität der heutigen Systeme genügt es nicht mehr, ein
System nur aus der Daten-orientierten Sicht zu analysieren und modellieren. So
ist das System immer wieder aus der Sicht von
o Daten
o Funktionen und
o Zeit (Ereignisse)
in dieser Reihenfolge zu betrachten. Dadurch werden laufend Lücken und
Inkonsistenzen aufgezeigt und bereinigt.
Das Meta-Modell
Die Vorgehensweise bei der Datenmodellierung ist vergleichbar mit dem Verfassen
eines Aufsatzes. Man erarbeitet zunächst ein Konzept und überträgt dieses dann in
"Reinschrift". So wird bei der Datenmodellierung zunächst der für das Unternehmen
relevante Realitätsausschnitt abstrahiert dargestellt und zwar unabhängig von den
Anwendungsprogrammen oder Datenbanksystemen. Gegenstand des Konzepts sind
die Objekte mit ihren Eigenschaften und die Beziehungen zwischen den Objekten.
Wichtig sind dabei die grundlegenden Beziehungen zwischen den Objekten der Realität
und die Stellung bzw. Bedeutung des einzelnen Objektes innerhalb der Gesamtheit aller
Objekte. Die Realität wird simplifiziert, idealisiert, formalisiert und dadurch
systematisiert. Um die Semantik in leicht verständlicher Weise darzustellen, bedient
man sich grafischer Hilfsmittel wie z. B. des Entity-Relation-Modells von CHEN (allg.
Bezeichnung: Semantische Modelle). Charakteristisch für solche Modelle ist, dass sie
nur dann verändert werden müssen, wenn sich der relevante Realitätsausschnitt ändert.
Dieses allgemeine Modell kann dann im nächsten Schritt in jedes beliebige logische
Datenbankmodell umgesetzt werden (hierarchisches, netzwerkförmiges oder
relationales Datenbankmodell). I. d. R. wird heute das relationale Datenbankmodell
verwendet, da dieses die logische und physische Datenunabhängigkeit gewährleistet.
Im dritten und letzten Schritt geht es darum, das logische Datenbankmodell in das
physische / interne Modell umzusetzen. Erst hier wird die physische Organisation der
Datenbank wichtig wie z.B. der Speichermedien, Speicherplätze und Zugriffsformen.
Zusammenfassend lässt sich die Vorgehensweise folgendermassen formulieren:
1. Darstellung des konzeptuellen (semantischen) Datenmodells.
Bevorzugt wird die grafische Darstellung mithilfe des Entity Relationship-Modells
(ERM).
2. Umsetzung des konzeptuellen Datenmodells in ein logisches Datenbankmodell
abhängig von der Art des Datenbank-Modells. Je nach verwendetem
Datenbankverwaltungssystem kommen dafür zur Zeit fast ausschliesslich
o das hierarchische Modell
o das Netzwerkmodell oder
o dasRelationenmodell
in Betracht.
3. Umsetzung des logischen Datenbankmodells in ein physisches / internes Modell
Konzeptionelles Datenmodell
Wenn wir ein Unternehmen der realen Welt betrachten, so müssen wir, je nachdem,
was wir untersuchen wollen, von vielen konkreten Dingen abstrahieren und uns ein
geeignetes Modell von diesem Unternehmen machen.
Das konzeptionelle Datenmodell gibt ein datenorientiertes Abbild der Realität wieder (es
gibt auch ablauf- und funktionenorientierte Abbilder). In diesen werden die
interessierenden Objekte mit ihren Eigenschaften sowie den zwischen ihnen
bestehenden Beziehungen erfasst.
Entities (Objekte)
Die einzelnen realen Objekte werden als Entities bezeichnet. Solche Entities können z.
B. sein: einzelne Personen, Orte, Gegenstände, Begriffe, Ereignisse oder beliebige
andere reale oder abstrakte Dinge, die aus Aufgabensicht von Interesse sind. Ein
Beispiel wären solche Entities: "Projektleiter Häberle", "Mitarbeiter Müller", "Projekt
Copy1" usw.
Klassen/Entity-Typen (Objekttypen)
Attribute (Eigenschaften)
Informationen über Entities bestehen zum einen aus den Ausprägungen (Werte) der
Eigenschaften der Entity. Die Ausprägungen machen Entities unterscheidbar und im
Sinn der betriebswirtschaftlichen Aufgabe verwendbar. Realweltobjekte haben im
Prinzip unendlich viele Eigenschaften. Bei der Datenmodellierung müssen die
betriebswirtschaftlich relevanten herausgefunden werden, dies ist in der Praxis oft sehr
zeitaufwendig und auch nur inkrementell zu bewältigen. Projekte können bspw. durch
ihre Projektnummer, ihren Namen, ihre Beschreibung usw. inhaltlich beschrieben
werden.
In der ERM-Darstellung werden die Attribute mit Kreisen an die zugehörigen Entity-
oder Beziehungs-Typen angehängt:
Beispiel sind die Attribute "Name", "Adresse", "Gehalt" des Entity-Typs Mitarbeiter oder
auch die Attribute "Proj#" und "Beschreibung" des Entity-Typs "Projekt".
Domäne (Wertebereich)
Jedes Attribut kann Werte aus einem definierten Wertebereich (Domäne) annehmen,
etwa für ein konkretes Produkt:
• Produktnummer = 0027 (z. B. aus 0000 - 9999),
• Name = Copy1 (z. B. genau fünf beliebige Zeichen),
• Beschreibung = Farbkopierer. (z. B. bis zu 255 beliebige Zeichen)
Wir ersehen aus diesen Beispielen bereits eine charakteristische Eigenschaft der
Klassenbildung: Jedem Entity-Typ kann man eine Kombination von Attributen, jedem
Entity dieses Typs eine entsprechende Kombination von Attributwerten zuordnen. Die
Modellbildung muss so geschehen, dass diese Attributkombinationen das zugehörige
Entity eindeutig identifizieren und aufgabengerecht beschreiben.
Als Wertebereich denkbar wären z.B. 0000..9999 für PE#, oder 00..99 für PROJ#.
Beziehungen
Beziehungstypen (Relationen)
Im Rahmen des ERM können 1:1-, 1:n- sowie m:n- Beziehungen (Komplexitäten)
zwischen je zwei Entity-Typen dargestellt werden:
• Bei einer 1:1-Beziehung wird jedem Element der ersten Menge genau ein
Element der zweiten Menge zugeordnet und umgekehrt.
• Bei einer 1:n-Beziehung werden jedem Element der ersten Menge n Elemente
der zweiten Menge zugeordnet, jedem Element der zweiten Menge aber genau
ein Element der ersten Menge, bspw. ist jeder der (vielen, also n) Mitarbeiter
immer genau einer (also 1) Abteilung zugeordnet.
• Bei einer n:m-Beziehung werden einem Element der ersten Menge mehrere
Elemente der zweiten Menge zugeordnet und umgekehrt, bspw. arbeiten
mehrere Mitarbeiter an einem Produkt, jeder Mitarbeiter arbeitet an mehreren
Produkten.
Die Komplexität des Beziehungstyps wird an die Kanten des ERM eingetragen.
Ein (#1) Attribut oder eine (#1) Attributkombination dient zur Identifikation jeder Entity.
Diese Attribute werden als Schlüsselattribute des Entity-Typs bezeichnet. Im Beispiel
sind die Personalnummer PE# und die Projektnummer PROJ# Schlüsselattribute. Beide
Attribute sind eigentlich künstlich erzeugt, ihnen entsprechen keine beobachtbaren
Eigenschaften von Entities wie der Name, die Adresse, das Geburtsdatum, der
Projektname oder ähnliche. Sie werden bewusst erzeugt und ausschliesslich zur
Identifikation benötigt. Liegen beobachtbare Merkmale vor, die eine Identifikation
erlauben, können diese als Schlüsselattribute verwandt werden. Schlüsselattribute
werden zur Kennzeichnung unterstrichen.
Beziehungen werden meist durch das Zusammenfügen der Schlüsselwerte der
betreffenden Entity-Typen identifiziert - hier also die LEITEN-Beziehungen durch
Angabe der Personal- und Projektnummer. Sie können auch ein eigenes
Schlüsselattribut bekommen.
Das ERM ist der Input für den nächsten Schritt, die Erstellung des logischen
Datenbankmodells. Da später Modellierungsfehler gar nicht mehr erkannt werden oder
nur noch mit sehr viel Aufwand korrigiert werden können, sollten Sie der ersten Phase
stets die allergrösste Sorgfalt entgegenbringen. Dies gilt analog für alle Aufgaben, die
mit der Erstellung von Informationssystemen zu tun haben.
Evaluation
Im Bereich der in den Unternehmen eingesetzten Applikationen kann generell ein Trend
in Richtung Standardisierung festgestellt werden. Vorbei sind die Zeiten, wo jedes noch
so kleine Unternehmen das Gefühl hatte, es könne sich seine "eigene" Software bauen
und erziele daraus einen Wettbewerbsvorteil. Zuerst wird daher eine Evaluation
durchgeführt, dann eine Applikation entwickelt. Erst wenn diese Evaluation zeigt, dass
kein gängiges Paket einen akzeptablen Nutzen erbringt, sollte eine Eigenentwicklung
ins Auge gefasst werden.
Projektorganisation
Pflichtenheft
Das Pflichtenheft nimmt eine zentrale Rolle in der ganzen Evaluation ein. Oft wird direkt
mit dem Erstellen desselben beonnen, was methodisch betrachtet natürlich nicht zu
vertreten ist. Nach der Vorbereitungsphase besteht nun die wesentliche Aufgabe des
Projektteams in der Erstellung des Pflichtenhefts. Der Inhalt umfasst folgende Punkte:
• Ausgangslage
o Charakteristik des Unternehmens
o Organisation des Unternehmens
o Organisation der Informatik
o Anstoss für die Beschaffung
o Projektorganisation
• IST-Zustand
o Geschäftsfunktionen
o Daten
! Datenmodell (ERD)
! Datenkatalog
! Datenbeschreibung
o Datenflüsse
! Datenfluss nach DIN 66001
! Datenfluss nach De Marco
! Stellenorientierter EDV-Datenfluss
! ...
o Systemplattform
o übrige technische Hilfsmittel
o Wertung
• Ziele
o Kostenreduktion
! Rationalisierung beim Personal
! Abbau von Fix-Kosten, verursacht durch das alte System
! ...
o Effizienzsteigerung
! bessere Auslastung der Ressourcen (Personen, Computer)
! Steigerung der Flexibilität
! ...
o Ertragsverbesserung
o Verbesserung der Qualität
! Erhöhung der Auskunftsbereitschaft
! einfachere, ergonomischere Darstellung der Informationen
! grössere Aktualität der Informationen
! ...
o ...
• Anforderungen
o Software-Qualität
! Ergonomie
! Effizienz
! Zuverlässigkeit
! Wartbarkeit
! Portabilität
! Sicherheit (Datenschutz)
o Funktionsumfang
! Soll-Zustand Geschäftsfunktionen
! Soll-Zustand Datenflüsse, Prozesse, Abläufe, Ereignisse
o Datenumfang (ERD)
o Anforderungen an die Systemplattform
o Schnittstellen
! Beschreibung
! Quelle oder Ziel
! Datenelemente / Attribute
! Medium
! Periodizität
! Anzahl Records, Tupels usw.
! Ereignis (Auslöser)
o anbieterbezogene Anforderungen
• Mengengerüst
o Menge der Daten
o Häufigkeit der Funktionen
! Anzahl Fakturen pro Tag/Monat/Jahr (Durchschnitts und
Spitzenwerte)
! Anzahl Projekteröffnungen pro Tag/Monat/Jahr
! Anzahl Mandatseröffnungen pro Tag/Monat/Jahr
! Anzahl Projektrepporte pro Tag/Monat/Jahr
! ...
Informatik
Anbieter
Bewertung
Interner Entscheid
Als Unterstützung für den Internen Entscheid sollte zusammenfassend ein solches
Formular den Entscheidungsträgern (z.B. der Geschäftsleitung) vorgelegt werden:
Abbildung: Beispiel eines Variantenvergleichs
Informationssystem-Management ISM
Allgemein gilt:
• die richtige Information (aktuell, vollständig, fehlerfrei, in verständlicher Form)
• zum richtigen Zeitpunkt (kurze Durchlaufzeit, schnelle Reaktionszeit, hohe
Zuverlässigkeit)
• am richtigen Ort (Verfügbarkeit der Information an jedem Ort)
• mit geringen Kosten (Kosten für die Informations- und
Kommunikationsverarbeitung optimieren)
Aufgaben des ISM
• Architekturplanung
Die Architektur legt die grobe Struktur der Organisation, der
Geschäftsfunktionen, der Daten, der Applikationen und der Datenbanken fest.
• Integration
Integration erfordert das Erkennen von Synergiepotentialen zwischen
organisatorisch getrennten Bereichen.
• Einbindung in die Unternehmensführung
Das Informationssystem ist Teil des Unternehmenskonzepts. Es muss die
Bedürfnisse des Geschäfts erfüllen, und das Geschäft muss sich bis zu einem
gewissen Grad nach den Möglichkeiten des Informationssystems richten.
• Einbindung des Fachbereichs
Das Informationssystem-Management muss den Fachbereich dazu bringen, sich
mit den Möglichkeiten der Informationstechnik zu beschäftigen, und ihm helfen,
sein Infromationssystem zu gestalten. Dies erfolgt im ISM durch die Partizipation
in Ausschüssen, Dezentralisierung der IS-Entwicklung und in der Übernahme der
Verantwortung für die Fachlösung/Organisation und für Kosten/Nutzen.
• Dezentralisierung
Die Systementwicklung ist so weit zu dezentralisieren, dass Informationssystem-
Entwicklung und -Anwendung möglichst nahe zusammenrücken, aber dennoch
arbeitsfähige Entwicklungseinheiten bleiben, das heisst, es soll soviel wie
möglich dezentralisiert und soviel wie nötig zentralisiert werden.
• Verbindung von Organisation und Informationssystem
Funktionen, Daten, Organisation (Stellen) sowie Hardware sind vier Seiten
desselben Gegenstands, des Informationssystems, und demzufolge gemeinsam
zu betrachten.
• Projektportfolio-Management
Ein grosses Unternehmen muss ein Projektportfolio führen, das die Projekte
nach unternehmerischen Kriterien ordnet sowie Projekte und Ressourcen
aufeinander abstimmt. Es muss den Entscheidungsprozess, der zum
Projektportfolio führt, allen Beteiligten transparent machen.
• Änderungsmanagement
Das Informationssystem-Management muss den Einsatz der Ressourcen, die für
die Wartung (Maintenance) eingesetzt werden, so steuern, dass eine möglichst
grosse Kosten- / Nutzenoptimalität besteht.
• Umsetzung
Das Informationssystem-Management muss die Umsetzung der Pläne
kontrollieren.
Ebenen des ISM
IS-Konzept
• Planung des IS-Konzepts • IS-Konzept
IS-Architektur
• Planung von • IS-Integrationsbereich
Integrationsbereichen
• globale Geschäftsfunktionen
• Verabschiedung des
Integrationsbereichs • Abgrenzung des Integrationsbereichs
• Daten/logische Datenbanken
• Geschäftsobjekt-Katalog
• Entitätstypen-Katalog
• konzeptionelles Datenmodell
• logische Datenbanken
• Kommunikation / Verteilung
• Datenfluss
IS-
Projektportfolio • Entwicklung von IS-Anträgen • IS-Antrag
IS-Projekt
• Vorstudie / Initialisierung • Projektführungsdokumente
• Realisierung
• Systemtest
• Einführung
IS-Betreuung
• Änderungsmanagement • Änderungsplan
• IS-Schulung • Schulungsangebot
• IS-Monitoring • Applikationsübersicht
Daten
Organisatorische Einheiten
Die Aufbauorganisation legt die relative dauerhafte Beziehungsstruktur fest, indem dem
Aufgabenträger Funktionen in einen formalen Beziehungsgefüge zugewiesen werden.
Die Ablauforganisation legt die relative dauerhafte Prozessstruktur fest, indem die
Aktivitäten der Aufgabenträger in ihrer prozessorientierten Abfolge festgelegt werden.
Die organisatorischen Einheiten sind die Instanzen, die mit EDV-Funktionen Daten
verändern.
Aus einer stren systemtheoretischen Sicht sind die organisatorischen Einheiten sowie
deren Beziehungen untereinander von den Daten und den Funktionen abhängig und
können deshalb noch weniger als die Funktionen unabhängig voneinander modelliert
werden. Die Bildung und die Strukturierung von organisatorischen Einheiten hängt,
neben den systemtheoretischen, sehr stark von betriebswirtschaftlichen und
organisatorischen Überlegungen ab.
• Welche Stellen sind welcher organisatorischen Einheit zugeordnet?
• Welche Personen arbeiten an welchen Stellen?
• Welche Aufgaben werden durch welche Personen wo wahrgenommen?
• Wer benötigt an welchem Ort welche Informationen zu welchem Zeitpunkt?
• Wer hat auf welche Informationen mit welchen Funktionen Zugriff?
Hardware (technische Geräte)
Die sukzessive Integration ist das primäre Ziel der Hardware- und
Kommunikationsarchitektur. Diese angestrebte Integration erhöht die
Zugriffsmöglichkeit auf die unternehmensweit verteilten Informationen sowie
Applikationen.
Werden die technischen Geräte (Grossrechner, Arbeitsplatzrechner, PDA, Drucker
usw.) miteinander gekoppelt, so dass zwischen ihnen Daten ausgetauscht werden
können, wird dies als Rechnernetz oder Kommunikationsnetz bezeichnet. In den
meisten Unternehmen sind heute auf allen Ebenen unterschiedliche Rechnersysteme,
Rechnerarchitekturen sowie Kommunikationsnetze installiert.
Um die geforderte Daten- und Anwendungsintegration zwischen den verschiedenen
Hardwareplattformen zur Unterstützung der Wertschöpfungskette zu erreichen, ist nicht
nur eine Hardware-Integration, sondern auch die Verbindung von Betriebssystemen,
Datenbanksystemen bis zum Ineinandergreifen der Anwendungen erforderlich. Mit der
zunehmenden Vernetzung der Hardware und der Verbreitung komplexer
Kommunikationssysteme rückt ein Problem immer stärker in den Mittelpunkt: das
Management unternehmensweiter Kommunikationssysteme. Ein unternehmensweites
Kommunikationssystem ist heute so komplex, dass dafür eine Architektur (die IS-
Architektur) unabdingbar ist. Sie beschreibt auf konzeptioneller Ebene den Aufbau der
gesamten Kommunikationsinfrastruktur eines Unternehmens.
Konzepte
Führungskonzepte
• Phasenmodelle
o V-Modell (Deutschland)
o Hermes (Schweiz)
o Merise (Frankreich)
o SSADM (England)
o ...
• Objektorientierte Modelle
o actiF
o ...
Warum Vorgehensmodelle?
Phasenmodelle
Das Phasenmodell drückt den zeitlichen Projektablauf in einzelnen Phasen aus und
beeinflusst damit die Projekteffizient. Projekte der Anwendungsentwicklung können z.B.
wie folgt gegliedert werden:
• Planungsphase
• Definitionsphase
• Enwurfsphase
• Realisationsphase
• Implementierungsphase
• Abnahme- und Einführungsphase
Jede Phase ist durch einen Phasenabschluss gekennzeichnet, der als ein Meilenstein
definiert sein sollte. Das Phasenergebnis ist vom Lenkungsausschuss abzunehmen. Mit
der Abnahme des Ergebnisses erfolgt die Freigabe der nächsten Phase.
Iterative Modelle
Viele iterative Modelle haben das Phasenkonzept als Grundlage. Mit Sicht auf die
Qualität können einzelne Phasen wiederholt werden um ein besseres Ergebnis davon
zu tragen.
Hermes
HERMES ist ein Projektführungssystem, das auf Informatikprojekte in heterogenen und dezentralen
Umgebungen zugeschnitten ist. Als offener Standard zur Führung und Abwicklung von
Informatikprojekten ist HERMES seit 1975 in- und ausserhalb der Bundesverwaltung im Einsatz. 1995
erschien die letzte überarbeitete Auflage des HERMES-Handbuchs. Eine Neuauflage des Handbuches
wird vorbereitet.
Problemlösung
Das Problem
Unter einem Problem kann man die Differenz zwischen der IST-Situation und der
SOLL-Vorstellung verstehen. Um Probleme einer Lösung zuführen zu können, müssen
eine Reihe von Faktoren wirkungsvoll zusammenspielen. Die untenstehende Abbildung
soll zum Ausdruck bringen, dass die Methodik nur eine von mehreren Komponenten ist
und alleine nicht imstande ist, Probleme wirkungsvoll zu lösen - ebensowenig, wie die
anderen dies alleine für sich beanspruchen dürfen. Mit der Systementwicklung wird
versucht, ihr Zusammenspiel zu organisieren und damit die Voraussetzungen für gute
und kreative Lösungen zu schaffen.
Problemlösungszyklus
Die Situationsanalyse dient dazu, der Projektgruppe bzw. dem Planer das Problem
verständlicher zu machen. Es werden vier charakteristische Betrachtungsweisen
angewendet:
• Die systemorientierte Betrachtung zur Strukturierung des Problemfeldes.
• Die ursachenorientierte oder diagnostische Betrachtung zur Beschreibung von
unbefriedigenden Situationen.
• Die lösungsorientierte (therapeutische) Betrachtung, die den Blick auf Lösungs-
und Gestaltungsmöglichkeiten richten soll. Sie wird durch den Leitgedanken
"Denken in Varianten" unterstützt.
• Die zukunftsorientierte Betrachtung, die den Blick von der Gegenwart in die
Zukunft richten soll und sich so auch mit Potentiellen Entwicklungsrichtungen
auseinandersetzen soll. Die Leitgedanken "Einbezug der zeitlichen Veränderung"
und "Denken in Varianten" begleiten diesen Planungsschritt.
Lösungssuche
Auswahl
Die Bewertungskriterien werden aus den Zielen und aus der Lösungssuche erarbeitet.
Kann keine "beste Lösung" ermittelt werden, muss der Detaillierungsgrad verfeinert
werden. Können die ursprünglich gesteckten Ziele nicht erreicht werden gibt es drei
Möglichkeiten des weiteren Vorgehens:
• Die Ziele für das neue System werden zurückgeschraubt.
• Die Systemgestaltung wird abgebrochen.
• Die Grenzen des Problemfeldes werden so verändert, dass das Problem
bewältigt werden kann.
Relationales Datenbankmodell ERD
Das Wissen im Zusammenhang der Datenmodellierung ist für die Praxis von grosser
Bedeutung. Nach Konstruktion des konzeptionellen Datenmodells wird dieses
Datenmodell in die Schreibweise eines bestimmten logischen Datenmodells überführt.
Auch ein logisches Datenmodell beschreibt die Entity-Typen und ihre Beziehungen
untereinander. Die Beschreibung richtet sich aber bereits an den Eigenschaften
konkreter Datenbanksysteme aus.
• Entity
ist ein Objekt im ERM, das im Relationenmodell als Zeile mit all seinen
Eigenschaften umgesetzt wird (entspricht Tupel).
• Tupel
sind die einzelnen Zeilen in der Tabelle, also die konkreten Objekte (entspricht
Entity).
• Entity-Typ
ist die Relation, also die gesamte Tabelle.
• Attribute
sind die Spaltenüberschriften in der Tabelle. Das unterstrichene Attribut ist das
Schlüsselattribut. In der Abbildung oben ist das Schlüsselattribut die Pers-Nr. Es
ist nicht unterstrichen, weil ACCESS eine Unterstreichung der Schlüsselattribute
in der vorgestellten Ansicht nicht vornimmt. Eigentlich ist das nur eine Kleinigkeit,
sie kann dennoch verdeutlichen, dass Software aus betriebswirtschaftlicher Sicht
i.P. immer verbesserungsfähig ist.
• Wertebereich
ist der zulässige Variableninhalt, also die Domänen der einzelnen Attribute.
• Attributwert
ist der Inhalt einer Zelle innerhalb der Tabelle.
Das komplette logische Datenbankmodell (entspricht dem konzeptionellen Schema)
einer relationalen Datenbank lässt sich dann für das einleitende Beispiel vereinfacht
und doch vollständig so angeben:
• Mitarbeiter (Pers-Nr, AbtlNr, Name, Adresse)
• Produkt (Produkt-Nr, Name)
• Projekt (Proj-Nr, Projektbeschreibung)
• Produziert (Pers-Nr, Produkt-Nr, Zeit Pro Stück)
• Arbeitet Für (Pers-Nr, Proj-Nr, Funktion)
• ...
allgemein:
• NameDerRelation (Schlüsselattribut, Attribut, Attribut, ...)
Die Schlüsselattribute sind unterstrichen. Die Fremdschlüssel sind kursiv gesetzt. Die
kursive Notation ist nicht allgemein verbreitet, sie dient Ihnen nur zur Orientierung im
Datenbankmodell.
Benutzung
SQL-Abfragen können jedoch schnell komplex werden, wie das nachfolgende Beispiel
Ihnen zeigt.
Ein Sachbearbeiter erhält den Auftrag, ein Organigramm der Unternehmung zu
erstellen. Es soll sämtliche Mitarbeiter (Name, Adresse) mit den zugeordneten
Abteilungen enthalten. Die Informationen sind in der Datenbank in verschiedenen
Relationen enthalten, die daher gemeinsam ausgewertet werden müssen. Die Abfrage
lautet:
SELECT DISTINCTROW
Mitarbeiter.Name, Mitarbeiter.Adresse, Abteilung.Name
FROM Abteilung
INNER JOIN Mitarbeiter ON
Abteilung.[Abt-Nr] = Mitarbeiter.AbtlNr
ORDER BY Mitarbeiter.Name;
Diverse Datenbank-Tools bieten die Möglichkeit, eine solche Abfrage auch interaktiv
zusammenzustellen:
Abbildung: Auswahlabfrage Organigrammdaten, graphische Darstellung mit Access
Diese Abfrage tut nichts anderes, als für jeden Mitarbeiter die Abteilung zu ermitteln,
und Mitarbeitername sortiert mit Adresse und den Abteilungsnamen auszugeben. Als
Ergebnis resultiert:
Vielleicht haben Sie bemerkt, dass als Ergebnis der Abfrage bei einem relationalen
Modell immer eine Relation entsteht. Diese Relation kann dann genau wie alle anderen
bereits bestehenden Relationen weiter benutzt werden, etwa als Basis einer neuen
Abfrage. Das relationale Datenbankmodell ist insofern geschlossen: Es entstehen
immer Tabellen.
Mit SQL können Sie bei relationalen Datenbanken alles machen! Sie können:
• Abfragen absetzen (SELECT),
• Tabellen verbinden (JOIN) oder erzeugen (CREATE TABLE),
• Werte in eine Relation einfügen (INSERT INTO) oder löschen (DELETE FROM)
• ...
und alle diese Operationen beliebig schachteln.
Beurteilung
Systems Engineering (SE) ist eine, auf bestimmten Denkmodellen und Grundprinzipien
beruhende Wegleitung zur zweckmässigen und zielgerichteten Gestaltung, Beschaffung
und Realisierung komplexer Systeme.
SE als methodische Komponente bei der Problemlösung:
SE ist in den Bereich Methodik einzuordnen. Zur Problemlösung braucht es das
Zusammenspiel von Fachwissen, Situationskenntnisse, Methodik, Psychologie und
Planung.
Systems Engineering basiert auf einer Reihe von Postulaten und Arbeitshypothesen,
die kurz wie folgt umschrieben werden können:
• Das Systemkonzept dient dazu komplexe Sachverhalte zu strukturieren mit
unterschiedlichen Betrachtungsaspekten und Detailierungsgraden
• Die Abgrenzung eines Problemes soll die Überforderung aller Ressourcen
verhindern.
• Der Prozess der Systemgestaltung ist in klar abgegrenzte Arbeitsphasen zu
unterteilen.
• Eine exiplizite Zielformulierung soll alle nachfolgenden Tätigkeiten fokussieren.
• Alle Teile eines Systems müssen auf die Bedürfnisse und Erfordernisse des
Ganzen abgestimmt werden.
• Durch untersuchen möglicher Lösungsvarianten soll die Systemeffizienz
gesteigert werden, wobei das Variantenspektrum laufend auf die
Erfolgversprechenden einzuengen ist.
• Es soll eine bewusste Kompetenztrennung zwischen Lösungssuche und
Lösungsauswahl angestrebt werden.
• Eine angemessene Projektorganisation ist ebenso wichtig, wie die konzeptionelle
Systemgestaltung.
• Die Zuteilung von Teilaufgaben soll aus den Bedürfnissen des zu lösenden
Problems abgeleitet werden.
Komponenten der Systementwicklung:
• Systemdenken
• Vorgehensmodell
• Problemlösungsprozess
• Systemgestaltung
• Projektmanagement
Das System
Unter einem System soll eine Gesamtheit von Elementen verstanden werden, die
miteinander durch Beziehungen verbunden sind.
Im Systemdenken spielen Modelle eine grosse Rolle. Ein Modell dient dazu, die Realität
abzubilden. Man unterscheidet zwischen Erklärungsmodellen (beschreibt einen Ist-
Zustand) und Gestaltungsmodellen (beschreibt einen Soll-Zustand).
Offene Dynamische Systeme stehen in Beziehung mit ihrer Umwelt und die
Beziehungen unterliegen ständigen Veränderungen. Es gibt offene und geschlossene
Systeme, wobei dies eine reine Definitionssache ist.
Es auch möglich ein Element als System aufzufassen, wenn es sich als zweckmässig
und notwendig erweist und wenn es gelingt, dieses wiederum in Elemente zu
unterteilen. Ein solches System wird relativ zum vorher betrachteten System als
Subsystem bezeichnet. Die hierarchische Gliederung in Untersysteme und die
Gliederung in Teilsysteme schliessen sich nicht aus, sondern ergänzen sich.
Die Nahtstelle zwischen dem System und er Umwelt nennt man Systemgrenze.
Systemgrenzen sind praktisch nie gegeben, sondern müssen festgelegt werden.
Dadurch soll die Komplexität reduziert werden. Man spricht von geschlossenen und
offenen Systemen, das heisst Systeme, die durch Randelemente im Kontakt mit
Umweltelementen aus der Umwelt stehen.
Dynamische Systembetrachtung
• Art und Intensität der Beziehung zwischen System und Umwelt können sich
ändern.
• Art und Intensität der Beziehungen in einem System können sich ändern.
• Die Eigenschaft von Elementen können sich ändern.
• Die Struktur kann sich ändern.
Ablaufdiagramme können bei der Betrachtung von dynamischen Systemen sehr
hilfreich sein.
• Ganzheitliches Denken
• Der Systemansatz ermöglicht eine Erweiterung des Betrachtungshorizontes, so
dass die Gefahr des Kurierens an Symptomen geringer wird.
• Reduktion der Komplexität
• Durch stufenweises Auflösen des Systems in Unter- und Übersysteme wird die
Komplexität verringert. Untersysteme können vorerst als Black-Box definiert
werden um später strukturiert zu werden.
• Zwang zur Konkretisierung
• Basis zur Quantifizierung
• Basis für Analogieschlüsse
• Basis für eine optimale zwischenmenschliche Kommunikation
Vorgehensmodelle
• Top-Down
• Variantenbildung
• Lebensphasen
• Problemlösungszyklus
Generelles Vorgehensmodell
Hauptstudie:
Detailstudie:
Konzeptentscheid
Systemeinführung
Die Übergabe an den/die Benutzer. Es ist denkbar, dass auch Teil- oder Untersysteme
eingeführt werden, währenddessen andere sich noch in der Phase der Detailstudie
befinden.
Systembenützung
Diese Phase kann sehr erkenntnisreich sein in Bezug auf Betriebserfahrung für
Neugestaltung analoger Systeme. Eine Erfolgskontrolle bezüglich Zielerreichung,
effektive Wirkungsweise des Systems usw.
Analyse /
Situationsanalyse Zielformulierung Bewertung Entscheidung
Synthese
Hauptstudie Weniger wichtig Weniger wichtig Sehr wichtig ! Sehr wichtig ! Sehr wichtig !
Brainstorming
Brainstorming heisst so viel wie, die Anwendung von "the brain to storm a problem",
oder auf deutsch: "das Gehirn anwenden, um ein Problem zu stürmen". Es ist eine der
bekanntesten Einfallstechniken, zur systematischen, kollektiven Ideenfindung. Die
Brainstorming-Technik wurde 1939 von Alex F. Osborn in Amerika entwickelt und dank
ihrer Erfolge in den fünfziger Jahren auch in Europa bekannt.
Brainstorming ist ein Verfahren, bei dem mit Hilfe einer Gruppe Ideen zur Lösung eines
Problems gesammelt und anschliessend ausgewertet werden. Dabei ist es wichtig,
folgende Regeln einzuhalten:
Regel 1
Keine Kritik! Die Kritik und Auswertung der Ideen muss bis nach der Brainstorming-
Sitzung hinausgezögert werden. Man kann nicht zur gleichen Zeit einfallsreich und
kritisch sein. Jedes Gruppenmitglied sagt, was ihm gerade einfällt. Kritik, Wertung und
Urteil müssen zunächst ausgeschalten bleiben, sie hemmen spontane kreative
Äusserungen.
Regel 2
Einfälle spontan und ohne Hemmungen äussern. Alle Teilnehmer sollen frei und
ungehemmt ihre Gedanken und Kombinationen hervorbringen. Je verrückter die Idee,
desto besser. Jeder geäusserte Gedanke kann die anderen Gruppenmitglieder zu
neuen Ideen anregen.
Regel 3
Quantität vor Qualität. Je grösser die Zahl der Ideen, um so grösser die Chance für
mögliche Kombinationen, um so höher die Wahrscheinlichkeit, dass sich dabei viele
brauchbare, gute Lösungen oder sogar die "Idee des Jahrhunderts" befinden.
Regel 4
• Ein Diskussionsleiter bereitet die Sitzung vor, d.h. er formuliert das Problem zu
Beginn der Sitzung genau. Er gibt die vier Grundregeln bekannt und sorgt dafür,
dass sie eingehalten werden. Durch eigene Ideen bringt er den Gedankenfluss in
Fahrt und überbrückt auftretende Flauten.
• Die Gruppe sollte aus ca. 4 bis 10 Teilnehmern bestehen.
• Die Dauer der Brainstorming-Sitzung kann zwischen 15 bis 30 Minuten betragen.
• Die vorgebrachten Ideen werden möglichst für alle gut sichtbar notiert (z.B.
Wandtafel).
• Nach der Brainstorming-Sitzung werden alle vorgebrachten Ideen geordnet (z.B.
nach Ideen, welche sofort verwirklicht werden können, Ideen, die langfristig
verwirklicht werden können und unbrauchbare Ideen). Meistens drängt es sich
auf, die genannten Vorschläge zu modifizieren.
• Eventuell drängt sich ein zweites Brainstorming über ein Detailproblem auf.
• Eine Liste der besten (oder aller) Vorschläge wird der Entscheidungsinstanz
unterbreitet.
Um Vorschläge zu modifizieren können folgende Fragen dienen:
• Anders Verwenden - Wie kann man es anders verwenden? Welchem Gebrauch
wird es zugänglich, wenn es modifiziert ist? ...
• Adaptieren - Was ist so ähnlich? Welche Parallelen lassen sich ziehen? Was
kann ich kopieren? ...
• Modifizieren - Kann man Bedeutung, Farbe, Bewegung, Klang, Geruch, Form,
Grösse verändern bzw. hinzufügen? Was lässt sich noch verändern? ...
• Magnifizieren - Was kann man addieren? Mehr Zeit? Grössere Häufigkeit?
Stärker? Höher? Länger? Dicker? Verdoppeln? Multiplizieren? ...
• Minifizieren - Was kann man wegnehmen? Kleiner? Kondensierter? Tiefer?
Kürzer? Heller? Aufspalten? ...
• Substituieren - Durch was kann man ersetzen? Kann man anderes Material
verwenden? Kann man den Prozess anders gestalten? Andere Kraftquelle?
Anderen Platz, andere Stellung? ...
• Rearrangieren - Kann man Komponenten austauschen? Andere Reihenfolge?
Kann man Ursache und Folge transponieren? ...
• Umkehrung - Lässt sich positiv und negativ transponieren? Wie ist es mit dem
Gegenteil? Kann man es rückwärts bewegen? Kann man die Rollen
vertauschen? ...
• Kombinieren - Kann man Einheiten kombinieren? Kann man Absichten
kombinieren? ...
Hilfsmittel und Methoden
Delphi-Methode
Die Morphologie geht auf den Schweizer Forscher F. Zwicky zurück. Mit dieser
Methode soll durch das systematische Zusammenstellen aller logisch denkbaren
Möglichkeiten über einen bestimmten Bereich in Form einer Tabelle das unvollständige,
eingefahrene, fixierte Denken vermieden werden.
Hauptinstrument der Morphologie ist der morphologische Kasten.
Regeln für das Arbeiten mit dem morphologischen Kasten
• Genaue Umschreibung und zweckmässige Verallgemeinerung des zu lösenden
Problems.
• Durch Analyse wird es in Teilprobleme (Parameter) zerlegt. Die Teilprobleme
sollten voneinander unabhängig und vollzählig sein.
• Zu den einzelnen Teilproblemen werden nun Lösungsvarianten (Ausprägungen)
gesucht. Je nach Teilproblem kann die Zahl der Varianten unterschiedlich sein.
Die Varianten selber können qualitativer oder quantitativer Natur sein. Zur
Auffindung von Varianten bieten sich die kreativen Methoden an.
• Durch Kombinationen von Lösungsvarianten der Teilprobleme werden nun
Varianten für die Lösung des Gesamtproblems entwickelt.
• Schliesslich werden die entwickelten Varanten bewertet.
Inverses Brainstorming
Bekanntlich ist der Mensch oft in der negativen Kritik bzw. im "Niederreissen" kreativer
als in der positiven Kritik. Diesen Umstand macht man sich beim inversen Brainstroming
zunutze, indem man die Problemstellung ins Negative umkehrt.
Anstatt beispielsweise zu fragen "Wie gewinnen wir mehr Kunden für den Artikel XY",
fragen wir "Was müssen wir machen, damit der Artikel XY überhaupt nicht mehr gekauft
wird?" Aus den produzierten Antworten lassen sich häufig Ideen bzw. Problemlösungen
gewinnen.
Hilfsmittel und Methoden
Synektik
Synektik ist aus dem Griechischen übernommen und bedeutet soviel wie
Zusammenfügen verschiedener, scheinbar nicht zusammengehörender Elemente. Bei
dieser Merhode geht es darum, den unbewusst ablaufenden schöpferischen Prozess
bewusst zu beeinflussen und zu steuern. Die Mitglieder einer "Synektik-Gruppe" sollen
möglichst aus verschiedenen Disziplinen kommen.
Zunächst muss auch bei dieser Methode das anstehende Problem analysiert und erklärt
werden. Nach anschliessender mündlicher Diskussion folgt der weitere Arbeitsablauf in
zwei wichtigen Phasen:
Die erste Phase besteht in der systematischen Verfremdung des Problems. Diese
sogenannte Analogiebildung erfolgt mehrmals. Die nächste Phase ist dann die
Auswertung der Analogien zur Problemlösung.
Insgesamt handelt es sich bei dieser Methode zweifellos um eine der schwierigsten,
welche grosse Anforderungen an die Teilnehmer stellt. Diese Methode ist dann
empfehlenswert, wenn es um die Suche nach neuen technischen Problemlösungen
geht.
Beispiel
Sicherheit
o Computerviren
o Datenschutz
o Denial of Service
o Firewall
o Kryptographie
o Risikoanalyse
Computerviren
Die Gefahren von Computerviren sind nun schon seit längerem bekannt, haben aber
bisher eher untergeordnete Bedeutung gehabt, da die Verbreitung nur per Datenträger
möglich war. Das Internet stellt jedoch eine ungeahnte Gefahrenquelle dar, in der sich
ein Computervirus innerhalb kürzester Zeit weltweit verbreiten kann.
Ein Computervirus ist ein Programm, das auf einem Rechner Schabernack, aber auch
Schäden an Soft- und Hardware anrichten kann. Die Bezeichnung "Virus" gibt an, dass
es sich dabei um ein Programm handelt, dass sich in einem infizierten System an
andere Programme hängt oder in Bootsektoren ablegt und auf die Weise sich selbst
weiter verbreitet.
Inzwischen ist es so, dass es auf allen Systemplattformen Computerviren gibt, die mehr
oder weniger schädlich sind. Mit Abstand die meisten Viren und Virenabarten sind für
die Windows-Plattform geschrieben, Ende 1998 waren hier über 20.000 verschiedene
Viren bekannt, Tendenz stark steigend.
Boot-Viren
Programmviren
Programmviren nutzen den "klassischen" Weg über ausführbare Programme, an die sie
sich anhängen. Werden diese Programme gestartet, wird auch der Programmvirus
aktiviert.
Hybridviren
Hybridviren stellen die Mischform zwischen Boot- und Programmviren dar. Meist
kommen Sie als Programmviren daher und installieren sich nach dem Aufruf der
entsprechenden Datei als Boot-Virus in einen Bootsektor, von dort aus können sie bei
jedem Datenträgerzugriff geladen werden.
Makroviren
Trojanische Pferde
Trojanische Pferde sind genau genommen keine Computerviren, da sie sich nicht von
allein reproduzieren und verbreiten. Ihre Aufgabe besteht darin, geheime Funktionen
auf einen Computer zu installieren. Dies wiederum wird mit einem augenscheinlich
harmlosen Programm vorgenommen.
Aktuelles Antiviren-Programm!
Sie sollten sich unbedingt ein aktuelles Antiviren-Programm zulegen, wenn Sie Dateien
aus dem Internet herunterladen möchten und diese dann natürlich nach dem
Herunterladen damit durchchecken. Vertrauen ist zwar gut, Kontrolle ist jedoch besser.
Begrenzen Sie von vorneherein, welche Rechner einen Internetzugang haben sollen
und welche nicht. Es ist immer sicherer, wenn ein Rechner, auf dem z.B. eine
Lohnbuchhaltung läuft, keinen Zugang ins Internet hat und damit schon physikalisch vor
Fremdzugriffen geschützt ist.
Datenschutz
Die Bedrohung der Verfügbarkeit betrifft Daten, Programme, Hardware und alle
sonstigen für die Verarbeitung notwendigen Mittel. Es ist daher alles Notwendige zu
unternehmen, um zu verhindern, dass
• Daten verschwinden oder nicht zugreifbar sind, wenn sie gebraucht werden,
• Programme nicht funktionsbereit sind, wenn sie aufgerufen werden sollen,
• Hardware und sonstige notwendigen Mittel nicht funktionsfähig oder gar
verschwunden ist, wenn sie für die Verarbeitung benötigt wird.
Generell geht es also darum, dass die gewünschten Funktionen eines Systems zur
Verfügung stehen, wenn man sie braucht.
Die Bedrohung der Integrität (Verlässlichkeit) betrifft ebenfalls Daten, Programme,
Hardware und alle sonstigen für die Verarbeitung notwendigen Mittel. Es ist daher alles
Notwendige zu unternehmen, um zu verhindern, dass
• Daten verfälscht werden und falsche Daten verarbeitet werden,
• Programme verfälscht werden, so dass sie (insbesondere unbemerkt) fehlerhafte
Ergebnisse erzeugen oder Funktionen ausführen, die nicht erwünscht sind,
• Hardware und sonstige notwendigen Mittel verfälscht werden, so dass sie
gewünschte Funktionen unterlassen oder fehlerhaft ausführen oder
unerwünschte Funktionen ausführen.
Die Bedrohung der Vertraulichkeit betrifft vor allem Daten. Es ist daher alles
Notwendige zu unternehmen, um zu verhindern, dass Daten in unbefugte Hände
geraten sollen. Allerdings gibt es Umstände, unter denen auch Programme und
Systemkonfigurationen Unbefugten gegenüber vertraulich zu behandeln sind.
Die Bedrohung der Authentizität (Verbindlichkeit) betrifft vor allem Daten,
insbesondere Dokumente und Urkunden, die elektronisch übertragen werden. Es ist
daher alles Notwendige zu unternehmen, um zu verhindern, dass zu der richtigen
Herkunft solcher Daten Zweifel bestehen können und die Urheber dieser Daten korrekt
authentifiziert werden können. Allerdings kann es in bestimmten
Anwendungszusammenhängen auch wichtig sein, dass die Authentizität von
Programmen und von Hardware und anderen erforderlichen Mittel garantiert werden
muss (z.B. im elektronischen Zahlungsverkehr).
Technisch-organisatorischer Datenschutz
Datensicherung
Datensicherung ist der Sammelbegriff für alle Massnahmen zur Sicherstellung der
informationstechnischen Sicherheit und damit auch des technisch-organisatorischen
Datenschutzes. Allerdings erstrecken sich Massnahmen der Datensicherung auch auf
nicht personenbezogene Daten.
Im engeren Sinne wird Datensicherung als Sammelbegriff für die Massnahmen
verstanden, die der Absicherung der Verfügbarkeit der Daten und Programme dienen.
Dazu werden Daten und Programme auf andere Datenträger kopiert (Back up) und
meist auch ausgelagert. Falls also Daten oder Programme im Laufe der Verarbeitung
verloren gegangen sind oder fehlerhaft wurden, können sie mit Hilfe der Kopien
rekonstruiert werden.
Datensicherheit
Datensicherheit ist das angestrebte Ergebnis der Massnahmen zur Datensicherung, bei
personenbezogenen Daten also der Massnahmen des technisch-organisatorischen
Datenschutzes.
Weitere Informationen:
• Richtlinie des Europäischen Parlaments zum Schutz natürlicher Personen bei
der Verarbeitung personenbezogener Daten und zum freien Datenverkehr
Denial of Service-Attacks
Mail-Bombing
Einer der ältesten Denial of Service-Attacks ist das inzwischen "klassische" Mail-
Bombing. Hierzu wird ein Empfänger mit einer Vielzahl von gleichlautenden eMails
regelrecht bombadiert, so dass das nächste Herunterladen der vorhandenen eMails zur
Qual werden dürfte. Die Ausführung erzeugt aber noch ein anderes Opfer:
Eine Mailbombe besteht im Prinzip aus einer einzigen eMail, die an einen SMTP-
Mailserver zur Ausführung geschickt wird. Diese eMail hat jedoch die Besonderheit,
dass sie die eMail-Adresse des Opfers gleich mehrmals als BCC-Empfänger enthält.
Der ausführende Mailserver hat bei entsprechend hoher Angabe von BCC-Empfängern
ebenfalls entsprechend genug zu tun, diese eMails zu generieren und zu versenden.
Eine sehr unangenehme Variante des Mail-Bombings ist die Anmeldung eines Opfers
bei Unmengen von Mailinglisten. Das Opfer muss sich nämlich nach so einer Attacke
mühsam aus allen angemeldeten Listen manuell wieder austragen.
Broadcast Storms
Broadcast Storms gehören ebenfalls schon zur älteren Generation von Denial of
Service-Attacks. Sie richten besonders viel Schaden in lokalen Netzwerken an, in
denen jeder Rechner als Gateway fungiert und die Netzwerktopologie nur mangelhaft
gewartet wird.
An jeden Rechner wird bei einer Broadcast Storm-Attacke ein Strom an IP-Paketen
geschickt, die allesamt an nichtexistierende Ziele adressiert sind. Wird dieser
Datenstrom für mehrere Rechner innerhalb dieses Netzwerkes aufrechterhalten, ist das
gesamte Netzwerk recht bald ziemlich lahmgelegt, da die Rechner die falsch
adressierten Daten über die Gateways immer wieder in andere Subnetze verschieben.
Um die Problematik von Broadcast Storms zu vermeiden, ist eine ausgeklügelte und
sorgfältige Planung des Netzwerks notwendig, um das "Hängenbleiben" von
umherirrenden IP-Paketen von vorneherein zu verhindern bzw. in kürzester Zeit zu
eliminieren. Heutzutage erleben Broadcast Storms leider wieder eine Renaissance, da
immer mehr lokale Netzwerke an das Internet angebunden werden und dabei immer
weniger auf die Sicherheit geachtet wird.
Smurf
Smurf-Attacken gehören zur Gruppe der Broadcast Storms, arbeiten aber auf eine
etwas andere Weise:
Bei einem Smurf Angriff sendet der Angreifer extrem viele ICMP-Pakete (z.B. Ping-
Anfragen) an die Broadcast-Adresse eines Netzwerks, so dass dieses Paket an jeden
Rechner innerhalb des Netzwerks weitergeleitet wird. Der Angreifer tarnt sich jedoch
nicht mit seiner eigenen oder einer nicht-existenten Adresse, sondern mit der Adresse
des eigentlichen Opfers. Nun passiert folgendes:
Die ICMP-Anfragen werden nun um die Anzahl der Rechner im Netzwerk vervielfacht;
das Netzwerk dient quasi als Sprungbrett. Ist das Netz korrekt konfiguriert, versanden
die ICMP-Antworten am Router des Netzwerks und werden nicht zur Adresse des
Opfers gesendet. Ist das Netz jedoch fehlkonfiguriert, werden die multiplizierten ICMP-
Antworten an das Opfer weitergeleitet.Dadurch koennen Angreifer mit geringer
Leitungskapazitaet (Modem, ISDN) Opfer mit breitbandigen Anschluessen nahezu
lahmlegen. Die ICMP-Antworten belegen die gesamte Leitungskapazität und normale
Datenkommunikation wird unterbunden. Sehr häufig brechen auch die Server unter
diesem Ansturm zusammen und müssen von ihren Administratoren vorübergehend vom
Netz genommen werden.
Die Angreifer selbst sind nur sehr schwer zu identifizieren, da sie sich als das Opfer
tarnen. Die einzige sichere Abwehr ist, die Administratoren der als Sprungbrett
dienenden Netzwerke über ihr Sicherheitsloch zu informieren und zu überzeugen, ihre
Netze korrekt zu konfigurieren, um das Nach-Aussen-Leiten von Broadcastpings
(ICMP) zu unterbinden.
Diese Attacke nutzt ein Feature von TCP aus: Bevor eine Verbindung zwischen zwei
Rechnern aufgebaut wird, sendet der Absender spezielle IP-Pakete an den Empfänger,
um eine Verbindung anzukündigen (sogenannte "SYN"-Pakete). Der Empfänger sendet
dann ein Antwort-Paket zurück an den Absender und erwartet von ihm ein sogenanntes
"ACK"-Paket ("ACK" = "Acknowledgement" = Empfangsbestätigung).
Führt nun ein Absender eine TCP Syn Flooding-Attacke aus, sendet er nicht, wie vom
Empfänger erwartet, ein ACK-Paket aus, sondern bombadiert den Empfänger weiterhin
mit SYN-Paketen. Der Empfänger quittiert wacker alle diese SYN-Pakete. Hier tritt nun
der Fehler bei entsprechend fehlerhaften TCP-Implementierungen auf, die bei einem
weiteren SYN-Paket nicht nur für das gerade empfangene SYN-Paket eine ACK-
Anforderung verschicken, sondern auch für alle bisher empfangenen. Auf die Weise
erzeugt der Empfänger-Rechner recht schnell eine hohe Datenflut und ist für die Zeit
komplett ausgelastet.
Large Packet-Attacks ("Ping of Death")
Ein weiterer, besonders hinterhältiger Veteran der Denial of Service-Attacks sind die
"Large Packet-Attacks", unter Insidern "Ping of Death" genannt (obwohl die Attacke
nichts mit dem eigentlichen Ping-Programm zu tun hat).
Die Wirkungsweise von Large Packet-Attacks ist zugleich einfach und fatal: Das IP-
Protokoll verpackt alle Daten beim Absender in 64 kB grosse Päckchen. Diese werden
jedoch protokollintern vor der Übertragung in kleinere Päckchen zerlegt, um sie
einfacher übertragen zu können (fragmentieren). Beim Empfängerrechner werden diese
einzelnen Päckchen wieder zusammengefügt (reassemblieren), allerdings erst, wenn
alle Einzelteile vorliegen. Ist das ankommende Paket am Ende grösser als 64 kB, läuft
ein interner Speicherpuffer über und bringt im ungünstigsten Fall den Rechner zum
Absturz.
Ping Flooding
Ping-AT-Attacks
Eine besonders heimtückische Attacke betrifft eine Vielzahl von Modems. Zum
besseren Verständnis hierzu jedoch kurz etwas Geschichtliches:
Der amerikanische Modemhersteller Hayes [ http://www.hayes.com/ ], Pionier in der
Modemtechnologie, hat Ende der 70er Jahre eine einheitliche, zeilenorientierte und
offene Befehlsprache für Modems entwickelt, die sogenannten AT-Befehle. Anhand
dieser AT-Befehle ist es möglich, jedes Modem anzusprechen, in welches diese
Sprache implementiert ist. Inzwischen ist in allen modernen Modems die AT-
Befehlssprache implementiert, so dass Modems von Betriebssystemen und
Programmen meist universell angesprochen werden können.
Es ist wichtig zu verstehen, dass ein Modem offline prinzipiell im Kommandomodus
läuft, also über AT-Befehle ansprechbar ist. Wird eine Verbindung aufgebaut, geht das
Modem in den Übertragungsmodus über und ist in der Zeit nicht über AT-Befehle
ansprechbar, es sei denn, man übergibt dem Modem drei Escape-Zeichen (im
Fachjargon mit "+++" gekennzeichnet), die das Modem als Befehl zum Umschalten in
den Kommandomodus interpretiert. Aus Sicherheitsgründen muss zwischen diesem
Umschaltkommando in den Kommandomodus und dem ersten AT-Befehl mindestens
eine Pause von 1 Sekunde vorhanden sein.
Leider verzichten einige Modemhersteller aus patentrechtlichen Gründen auf diese
Pause, so dass bei diesen Modellen der Umschaltbefehl in den Kommandomodus und
ein kompletter AT-Befehl direkt hintereinander ohne Zeitverzug eingegeben werden
können. Dadurch ist nun folgendes möglich:
Ein Absender schickt an einen Empfänger über das Internet ein spezielles Ping-Paket,
das z.B. die Sequenz "+++ATH0" (Umschalten in den Kommandomodus und Beenden
der Verbindung) enthält. Laut Ping-Protokoll antwortet der Rechner des Empfängers auf
die Ping-Anfrage mit der Spiegelung des Paketes. Kennt das Modem nun keine Pause
zwischen dem Umschalten in den Kommandomodus und dem ersten AT-Befehl, wird es
den Paketinhalt des Antwort-Pings als abzuarbeitende Sequenz interpretieren und die
Verbindung beenden.
Firewall
Als Firewall wird heute jedes System bezeichnet, welches den Datenverkehr zwischen
zwei Netzwerken kontrolliert. Im einfachsten Fall ist dies ein Router. Ein Firewallsystem
kann auch aus mehreren zusammenarbeitenden Komponenten, z. B. zwei Routern und
einem Rechner, bestehen. Heutige Firewall-Rechner besitzen meistens zwei oder drei
Netzwerkanschlüsse, und lassen sich je nach Anforderung in verschiedene Topologien
einbinden.
Ein Firewall kanalisiert die Kommunikation, indem alle Daten von und nach aussen über
dieses System laufen müssen. Die Kanalisierung erhöht zudem die Chancen, einen
Einbruchversuch anhand ausführlicher Protokoll-Dateien zu erkennen, da der
Eindringling erst den Firewall passieren muss.
Mit einem Firewall lässt sich die Wahrscheinlichkeit erheblich verringern, dass Angreifer
von aussen in inneren Systeme und Netze eindringen können. Zudem kann das System
interne Benutzer davon abhalten, sicherheitsrelevante Informationen, wie
unverschlüsselte Passwörter oder vertrauliche Daten, nach aussen geben.
Ein Firewall kann aus einer einzelnen Maschine oder aus einer mehrstufigen
Anordnung bestehen. Eine mehrstufige Anordnung ist vor allem dann sinnvoll, wenn
man bestimmte Dienste der Öffentlichkeit zur Verfügung stellen will, etwa einen
Internet- oder ftp-Server. Die entsprechenden Hosts können dann in einem
Zwischennetz isoliert werden.
Die Kontrolle des Datenverkehrs kann auf verschiedenen Ebenen erfolgen. Für die
Kontrolle der Ebenen 1 bis 4 des ISO-Modells kann ein Router ausreichend sein, für die
höheren Ebenen ist ein Rechner notwendig. Der Router kann mit Access-Listen
versehen werden. Diese Access-Listen erlauben die Kontrolle des Datentransfers auf
Netzwerkebene, d.h. dass eine Kontrolle des Dateninhalts und auf Applikationsebene
nicht möglich ist. Jedes Datenpaket wird für sich betrachtet, unabhängig von anderen
Paketen. Der Router kann nicht erkennen, ob ein bestimmtes Paket zu einem
Datenpaket gehört, welches schon vorher vermittelt wurde.
Zur Umgehung dieses Problems versucht man, den Firewall-Rechner so auszulegen,
dass der Rechner mitverfolgt, welche Pakete schon geschickt wurden. Jegliche
Kommunikation wird nach sogenannten Protokollen abgewickelt. Sind die Regeln solch
eines Protokolls dem Firewall-Rechner bekannt, kann er verfolgen, ob die Pakete der im
Protokoll vorgegeben Reihenfolge und Richtung entsprechen. Dieses Verfahren wird als
'statefull inspection' bezeichnet. Eine Kontrolle des Dateninhalts kann mit diesem
Verfahren immer noch nicht stattfinden.
Ein 'application-level' Firewall erlaubt die Inhalts-Kontrolle. Bei diesem Firewall-Typ
muss für jedes durch den Firewall vermitteltet Protokoll ein spezielles Programm, ein
sog. Proxy, vorhanden sein. Der Proxy vermittelt zwischen den beiden Seiten des
Firewalls. Das Proxy-Programm verhält sich genau so wie das Originalprogramm des
jeweiligen Protokolls, z.B. wie ein FTP-Server. Mit einem Proxy ist es möglich, auf allen
Ebenen der Kommunikation den Datenstrom zu Filtern und zu Beeinflussen.
Die heutigen Firewall-Produkte sind meist eine Kombination der obigen Techniken. Je
nach nach Produkt sind die einzelnen Funktionen unterschiedlich stark ausgeprägt.
Firewallsysteme sind für einen vollautomatischen Betrieb ausgelegt. Allerdings mag
dies täuschen, da je nach Firewall-Typ u.U. Statistiken, Logdaten, Alarme usw.
generiert werden. Diese Botschaften benötigen einen Adressaten, einen kompetenten
und verantwortlichen Menschen, der die Nachrichten des Firewalls bewertet und
entsprechend handelt. Zur Definition dieser Aktionen ist zusammen mit, oder besser
noch vor der Installation des Firewalls festzulegen, was der Firewall wie schützen soll.
Es ist festzulegen, was in bestimmten Situationen zu tun ist, und wer dies tut. Der
Betrieb eines Firewallsystems kann mehr Personalresourcen fordern als der Betrieb
eines LAN-Servers.
Eine Architektur mit Dualhomed-Host wird um einen Host herum aufgebaut, der über
mindestens zwei Netzwerkschnittstellen verfügt. Ein solcher Host ist als Router
zwischen den Netzen einsetzbar, die an die Schnittstellen angeschlossen sind. Er kann
dann IP-Pakete von Netz zu Netz routen. Für diese Firewall-Architektur muss diese
Routingfunktion jedoch deaktiviert werden. IP-Pakete werden somit nicht direkt von dem
einen Netz (dem Internet) in das andere Netz (das interne, geschützte Netz) geroutet.
Systeme innerhalb der Firewall und Systeme ausserhalb (im Internet) können jeweils
mit dem Dualhomed-Host, aber nicht direkt miteinander kommunizieren. Der IP-Verkehr
zwischen ihnen wird vollständig blockiert. Die Netzarchitektur für eine Firewall mit
Dualhomed-Host ist denkbar einfach: der Dualhomed-Host sitzt in der Mitte, wobei er
mit dem Internet und dem internen Netz verbunden ist.
Die "screened host architecture" bietet Dienste von einem Rechner an, der nur an das
interne Netz direkt angeschlossen ist, wobei ein getrennter Router verwendet wird. Der
Bastion-Host befindet sich im inneren Netz. Auf diesem Router verhindern Paketfilter
das Umgehen des Bastion-Host.
Die Paketfilterung auf dem Sicherheitsrouter muss so konfiguriert werden, dass der
Bastion-Host das einzige System im internen Netz darstellt, zu dem Rechner aus dem
Internet Verbindungen aufbauen können (das einzige "nach aussen sichtbare" System).
Zusätzlich sind nur gewisse Dienste zugelassen. Alle externen Systeme, die auf interne
Systeme zugreifen wollen, und auch alle internen Systeme, die externe Dienste
wahrnehmen wollen, müssen sich mit diesem Rechner verbinden. Daraus ergibt sich
ein besonderes Schutzbedürfnis für diesen Bastion-Host. Der Vorteil bei dieser
Konstruktion ist die Tatsache, dass ein Router leichter zu verteidigen ist. Dies liegt u. a.
daran, dass auf ihm keine Dienste angeboten werden. Nachteilig wirkt sich aus, dass
bei einer eventuellen Erstürmung des Bastion-Host das interne Netz vollkommen
schutzlos ist.
Die "screened subnet architecture" erweitert die Architektur mit überwachtem Host um
eine Art Pufferzone, die als Grenznetz das interne Netz vom Internet isoliert. Diese
Isolierzone wird auch "Demilitarisierte Zone" (DMZ) genannt.
Abbildung: Netz mit DMZ
Bastion-Hosts sind von ihrer Art her die gefährdetsten Rechner in einer
Firewallkonstruktion. Auch wenn sie in der Regel mit allen Mitteln geschützt sind,
werden sie doch am häufigsten angegriffen. Die Ursache liegt darin, dass ein Bastion-
Host als einziges System Kontakt zur Aussenwelt unterhält.
Firewall-Software
Firewall-Management
Internet-Server Sicherheit
Grundsätzlich kann ein Internet-Server vor oder hinter (extern oder intern) einem
Firewall angeordnet werden. In beiden Fällen ist der Rechner des Internet-Servers so
gut wie möglich abzusichern. Auch die Position hinter dem Firewall (aus der Sicht des
Internet) schützt nicht gegen Angriffe über das HTTP-Protokoll, z.B. CGI-Attacken.
Die Position des Internet-Servers wird von mehreren Faktoren bestimmt. Dies sind zum
einen funktionelle Faktoren, wie z.B. der Zugriff auf firmeninterne Datenbanken oder
Platformabhängikeiten der Web-Anwendung. Andere Faktoren sind die erwartete
Serverlast (bestimmt die Belastung des Firewalls bei interner Serverposition) und die
Schutzwürdigkeit der auf dem Server zugänglichen Daten. Ebenso wichtig ist der leichte
aber sichere Zugriff des Webmaster zu seinen Daten auf dem Server.
Eine mögliche Konfiguration eines Internet-Server besteht darin, dass der Haupt-Server
mit den statischen Daten ausserhalb des Firewalls steht, also aus dem Internet voll
zugänglich ist. Über einen vorgeschalteten Router kann man den Zugriff für bestimmte
Ports frei schalten. Der Internet-Server wird so konfiguriert, dass Anfragen an
bestimmte URLs von diesem über den Firewall an einen internen Internet-Server
weitergeleitet werden (Proxy-Funktion). Dieser interne Server generiert hauptsächlich
dynamische HTML-Seiten, z. B. aus Abfragen einer internen Datenbank.
Eine andere Variante besteht darin, ausserhalb des Firewalls einen Cache-Server
aufzustellen, der die HTML-Anfragen an den eigentlichen, innerhalb des Firewalls
stehenden, Internet-Server weiterleitet. Diese Konfiguration hat den Vorteil, dass sich
der ausserhalb stehende Cache dem Internet als Internet-Server präsentiert. Auf dem
Firewall muss nur die Verbindung zwischen dem Cache und dem internen Internet-
Server freigeschaltet werden, der interne Server tritt niemals direkt mit einem der
Clients am Internet in Kontakt.
Kryptographie
Symmetrische Verschlüsselungsverfahren
Asymmetrische Verschlüsselungsverfahren
Der öffentliche Schlüssel besteht also aus den Zahlen n und e, der geheime Schlüssel
ist d.
Hybride Verschlüsselungsverfahren
"Vertrauenswürdige" Zertifikate
Besitzer einer Website können sich bei einer Zertifizierungsstelle ein Site-Zertifikat
ausstellen lassen, das in die Serversoftware integriert wird und geschützte
Verbindungen für auswählbare Webseiten innerhalb der Site (also innerhalb eines
Hostnames, z.B. "www.itmanager.info") ermöglicht. Entsprechend ausgerüstete
Browser können dann diese gesicherten Seiten genauso nutzen wie normale
Webseiten. Diese Technologie namens SSL ("Secure Sockets Layer") wurde von
Netscape entwickelt.
Das Verschlüsselungsprinzip ist dabei ebenfalls eine Mischung aus symmetrischer und
asymmetrischer Verschlüsselung: Beim Zugriff auf eine geschützte Seite wird zunächst
der Public-Key der Website zum Client übertragen. Der Client erzeugt dann eine Zahl
nach dem Zufallsprinzip, die als Schlüssel für eine symmetrische Verschlüsselung
genutzt wird. Dieser Schlüssel wird dann vom Client mit dem Public-Key der Website
verschlüsselt und an den Server übertragen, so dass beide Seiten für die Sitzung den
gleichen symmetrischen Schlüssel haben und sicher kommunizieren können.
Darüberhinaus gibt es im SSL-Verfahren noch eine zusätzliche Möglichkeit der Client-
seitigen Authentifizierung, zum Beispiel anwendbar für Server, zu denen nur bestimmte
Rechner einen Zugang haben sollen: Hier muss auch der Client ein Zertifikat besitzen
und dieses mit dem Server austauschen. Der Server hat dabei die Möglichkeit, eine
sichere Verbindung zu verweigern, wenn das Zertifikat des Clients nicht akzeptiert wird.
Ein Problem mit SSL ist ein grundsätzliches, politisches Problem mit allen
Verschlüsselungsprogrammen, die in den USA geschrieben werden: Die USA
definieren Verschlüsselungssoftware als "Munition", so dass sie besonders strengen
Ausfuhrbestimmungen unterliegen. Dies bedeutet in vielen Bereichen eine deutliche
Einschränkung der Sicherheit von verschlüsseltem Material. Z.B. ist bei SSL aufgrund
der Ausfuhrbeschränkungen bei amerikanischen Browsern nur eine Verschlüsselung
mit 40 Bit langen Schlüsseln möglich; eine Schlüssellänge, die bei entsprechender
Rechenleistung durchaus als knackbar gilt.
Ohne Zweifel sind verschlüsselte Dateien nicht ohne weiteres von Unbefugten zu
entschlüsseln. So kann zwar mit grösstmöglicher Sicherheit sensible Information über
öffentlich zugängliche Medien übertragen werden, allerdings kann (und wird) dies auch
von kriminellen Subjekten genutzt werden, um, für Aussenstehende unerkannt,
Information verschlüsselt zu übertragen und zu verbreiten.
In diese Gesetzeslücke wollen viele Regierungen mehr oder weniger stark regulierende
Systeme einsetzen. Dies reicht von völligem Verbot von Verschlüsselungssystemen
(z.B. in Russland oder Frankreich) bis hin zu geforderten Hinterlegungen von Private-
Keys bei staatlichen Behörden, um bei Verdachtsmomenten anhand der hinterlegten
Schlüssel verdächtige Informationen entschlüsseln zu können.
Der Kreativität in Sachen Eingrenzung freier Verschlüsselung durch staatliche
Organisationen sind anscheinend keine (vernüftigen) Grenzen gesetzt. Beispielsweise
verbietet die US-amerikanische Regierung die Ausfuhr von
Verschlüsselungsprogrammen ab einem bestimmten Verschlüsselungsgrad. Dieses
Ausfuhrverbot bezieht sich jedoch nur auf Ausfuhren in digitaler Form; PGP ist ein
solches Programm, das in digitaler Form nicht aus den USA exportiert werden darf,
weshalb die Programmierer den Programmcode kurzerhand ausgedruckt und legal in
Buchform exportiert haben. Im Ausland wurden die Quellcodes wieder eingescannt und
in digitale Form zurückgespielt, weshalb es von PGP jetzt zwei identische Versionen
gibt: PGP (US-Version) und PGPi (identische, internationale Version).
Ebenfalls mehr oder weniger ungeklärt sind die anzuwendenden Massnahmen, wenn
Verschlüsselungssoftware zwangsläufig ausser Landes gerät, z.B. auf dem Laptop
eines US-Amerikaners, der beispielsweise auf Dienstreise in Russland ist, wo eigentlich
das Anwenden von Verschlüsselungssoftware jeglicher Art verboten ist.
Risikoanalyse
Die Sicherheit der Informations- und Kommunikationssysteme hat in der letzten Zeit
zunehmend Schlagzeilen gemacht. Spektakuläre Fälle der Computerkriminalität mit
bedrohlichem Schadenausmass tauchen auf; die Zahl der betroffenen Organisationen
und Privatpersonen ist kaum zu schätzen.
Die Anzahl der Risiken durch den Einsatz von IT-Systemen hat drastisch zugenommen.
Einige der Gründe dafür sind
• die Einführung von IT-Systemen in allen wichtigen Tätigkeitsbereichen
• stark ansteigende Zahl der Datenverbindungen
• die Übertragung der Daten über das Internet
Inzwischen ist die Verletzlichkeit der heutigen Informationsgesellschaft zu einem immer
wichtigeren Problem geworden. Die steigende Abhängigkeit aller gesellschaftlichen
Bereiche von Informationssystemen kann zu immer grösseren Schäden führen. Dazu
zählen R isiken durch neugierige Hacker, Einbrüche durch Kriminelle, Hardwareausfälle
und Programm- sowie Bedienungsfehler. Viele vitale Funktionen des täglichen Lebens,
wie z.B. der Zahlungsverkehr, die Speicherung und Verwaltung von medizinischen
Daten und die Logistik des Handels, bauen auf die IT-Technologie. Störungen und
Angriffe können sich in vielen Anwendungssystemen und in sehr vielen Bereichen
zugleich auswirken. Hinzu kommt, dass manuelle Reservesysteme meist als veraltet
ausrangiert worden sind.
Folgeschäden bei Störungen und Ausfällen beschränken sich nicht unbedingt nur auf
die betroffene Einzelorganisation und deren Produktionssysteme, sondern können auch
die Kooperation mit Geschäfts- und Kommunikationspartnern beeinflussen. Für das
Top-Management sind die zukünftigen Aussichten besonders problematisch: der
Leitungsebene fehlen nach wie vor wirkungsvolle Mittel zur Bewältigung der Risiken
durch die wachsende Abhängigkeit der Geschäftsaktivitäten von IT-Systemen.
Abbildung: Der Informationskrieg
Methodik
Für die Durchführung einer IT-Risikobewertung bietet sich eine Vielzahl von Verfahren
an. Im folgenden werden das Konzept und die wichtigsten Elemente der
Risikobewertung im Überblick dargestellt.
Unter IT-Risikobewertung versteht man hier ein methodisches Vorgehen zur
Risikobewältigung mittels folgender Einzelschritte:
• Erkennung der einzelnen Gefahren
• Abschätzung der Folgeschäden
• Definierung der Sicherheitsziele
• Auswahl der Schutz- und Abwehrmassnahmen
Risikobewältigung
• Erfassung der Art und des Umfangs von unerwünschten Ereignissen
• Ableitung des akzeptablen Risikogrades
• Reduzierung der bestehenden Risiken auf ein akzeptables Niveau
• Risikobewertung
• Abschätzung der Folgeschäden durch unerwünschte Ereignisse
• Lieferung der Resultate der Risikoabschätzung und Risikoanalyse
• Risikoanalyse
• Methodische und systematische Erforschung zur Gesamtdarstellung der
unerwünschten Ereignisse
• Verfahren
• Systematisches Vorgehen zur Erreichung eines bestimmten Zieles
• Instrument
• Mittel oder Geräte zur Ausführung bestimmter Arbeiten oder Aufgaben
Allgemein
Checklisten
Szenarienanalyse
In der Szenarienanalyse wird die zukünftige Entwicklung der Bedrohungen anhand von
Szenarien untersucht. Szenarien sind sprachlich ausgedrückte, angenommene
Kombinationen von unerwünschten Gegebenheiten, Ereignissen und Vorgängen,
welche das IT-System in seiner Entwicklung beeinflussen.
Durch die Auswahl einzelner Szenarien soll ein Überblick über die möglichen
Bedrohungen, Angriffsmethoden und verursachten Schäden erarbeitet werden.
Anschliessend werden die entdeckten IT-Sicherheitslücken ermittelt.
Als Nachteil des Verfahrens ist der hohe Arbeits- und Zeitaufwand für den Entwurf der
unterschiedlichen Szenarien zu nennen. Dieses Verfahren ist nicht flächendeckend in
allen Systemen einzusetzen, in Einzelfällen liefert diese Methode jedoch detaillierte
Informationen über den Sicherheitszustand des Systems.
Baseline-Methode
Die Baseline-Methode ist eine von der Forschungsanstalt SRI International entwickelte
Methode zur Abschätzung der Risiken und Gefährdungen von Informationssystemen.
Das Baseline-Konzept stützt sich auf die Einhaltung des Grundsatzes 'standard of due
care'. Dieses Konzept fördert die Sicherung der kritischen IT-Systeme mit denselben
Sicherheitsmassnahmen, die auch die anderen vergleichbaren Organisationen in einer
ähnlichen Situation einleiten würden. Die in dieser Methode verwendeten, allgemein
anerkannten Grundsätze werden "Baseline Controls" genannt.
Das Baseline-Konzept besteht aus folgenden Teilen:
• Erkennung des Schutzgegenstandes
• Erkennung der existierenden Sicherungen
• Auswahl der Basiskontrollen zur Beseitigung der üblichsten Bedrohungen
• Realisierung der Kontrollen
• Erkennung besonderer Bedrohungen
• Analyse und Bewertung der Bedrohungen und Risiken
• Auswahl der Zusatzkontrollen
• Realisierung der Zusatzkontrollen
• Follow-Ups zur regelmässigen Überprüfung der IT-Sicherheit
Courtney-Methode
Die Courtney-Methode zur Analyse und Bewertung der Risiken wurde von dem IBM-
Mitarbeiter Robert Courtney Jr. in den 70er Jahren entwickelt. Diese Methode ist
inzwischen von den amerikanischen Bundesbehörden als offizieller Standard für
Risikoanalysen übernommen worden. Ausserdem liegt sie fast jeder Risikoanalyse-
Software zugrunde.
Bei dieser Methode werden bezüglich der unerwünschten Ereignisse zwei Faktoren
gemessen: die zu erwartende Häufigkeit des Eintritts und das beim Ereigniseintritt zu
erwartende finanzielle Schadenausmass. Das Risiko kann als Produkt der beiden Werte
angegeben werden; es entspricht dann dem statistischen Erwartungswert des
Schadens.
Sind die Faktoren quantifizierbar, so ergibt die Multiplikation einen genauen
numerischen Wert (das finanzielle Ausmass des zu erwarteten Schadens). Auf der
Basis dieser Zahlen können Prioritätssetzungen sowie Nutzen/Kosten-Berechnungen
bei der Planung der Sicherheitsmassnahmen vorgenommen werden.
Einer der Nachteile der Courtney-Analyse ist die Mangel an zuverlässigen statistischen
Ausgangsdaten. Die Ausgangsdaten sind daher meistens reine Eigenschätzungen
durch die Analysierenden.
Gefahrenquellen
• Höhere Gewalt
o Personalausfall
o Blitz
o Feuer
o Wasser
o Kabelbrand
o Temperatur und Luftfeuchtigkeit
o Staub, Verschmutzung
o Starke Magnetfelder
• Organisatorische Mängel
o Unzureichendes Sicherheitsmanagement (z.B. Rechteverwaltung,
Mitarbeiterwechsel)
o Fehlende oder unzureichende Regelungen
o Unzureichende Kenntnis über Regelungen
o Unzureichende Kontrolle der IT-Sicherheitsmassnahmen (z.B.
Zutrittskontrolle, Zugriffskontrolle)
o Fehlende oder unzureichende Wartung
• Menschliche Fehlhandlungen
o Fehlverhalten (z.B. Ausführen unsicherer Anwendungen)
o Fahrlässigkeit (z.B. Nennung von Passwörtern an Unbefugte)
o Nichtbeachtung von IT-Sicherheitsmassnahmen
• Technisches Versagen
o Stromausfall
o Spannungsschwankungen
o Defekte Systeme (z.B. Datenträger)
o Unsichere kryptographische Algorithmen
• Vorsätzliche Handlungen
o Manipulation/Zerstörung von Hardware
o Manipulation an Daten oder Software
o Diebstahl
o Abhören
o Unbefugtes Eindringen in ein System (Hacking)
o Computer-Viren
o Unberechtigtes Kopieren von Daten
o Missbrauch von Rechten
Software
o Betriebssysteme
o Datenbanken
o Programmierung
o Software Eigenschaft
Betriebssysteme
Betriebssysteme sind Programme eines digitalen Rechensystems, die zusammen mit
den Eigenschaften der Rechenanlage die Grundlage der möglichen Betriebsarten des
digitalen Rechensystems bilden und insbesondere die Abwicklung von Programmen
steuern und überwachen.
Das Betriebssystem eines Rechners hängt eng mit der Hardware zusammen, das
heisst es ist auf die konkrete Rechnerstruktur beziehungsweise Rechnerarchitektur
abgestimmt. Das Betriebssystem wird in der Regel mit der Hardware des Computers
mitgeliefert. Dies gilt vor allem für die Grossrechner, bei denen die Hersteller auch das
Betriebssystem entwickeln und anbieten. Bekannte Grossrechner-Betriebssysteme sind
ausschliesslich proprietäre Systeme, das heisst sie werden speziell für die eigene
Hardware entwickelt. Beispiele dafür sind die Systeme der DV-Unternehmen IBM mit
VSE, MVS und VM; Siemens Nixdorf mit BS2000 usw. Im mittleren Bereich, Mini- und
Abteilungsrechnersysteme, steht das offene Betriebssystem UNIX mit seinen Varianten
im Mittelpunkt.
Prozessverwaltung
Speicherverwaltung
Dateiverwaltung
Spool ist die Abkürzung für "simultaneous peripheral operations online". Aufträge für
das Datenverarbeitungssystem, sowie Ein/Ausgaben von bzw. für Peripheriegeräte
werden auf schnellen Systemkomponenten zwischengepuffert und von dort aus
eingelesen bzw. ausgegeben. Auch wenn ein Prozess schon beendet ist, wird die von
ihm erzeugte Ausgabe erst später von dem entsprechenden Systemprogramm auf das
langsamere Peripheriegerät übertragen
Das Betriebssystem unterstützt Spooling, weil im allgemeinen nicht genügend
Peripheriegeräte wie beispielsweise Schnelldrucker zur Verfügung stehen, um die von
den aktiven Prozessen angeforderten Ein/Ausgaben zu befriedigen. Weiterhin darf die
erhebliche Diskrepanz zwischen der Geschwindigkeit des Prozessors und der der
Peripheriegeräte nicht zu einer schlechten Betriebsmittelauslastung führen.
Das Betriebssystem legt auf Hintergrundspeichern sogenannte Spool-Bereiche an, in
denen die Eingaben und Ausgaben zwischengespeichert werden. Die dadurch
simulierten Geräte werden als virtuelle Geräte bezeichnet (z.B. virtueller Drucker). Das
Betriebssystem sorgt für die Abbildung der virtuellen Geräte auf die physikalisch
vorhandenen.
Vielfach ist es sinnvoll, vor der endgültigen Ein/Ausgabe Manipulationen an den
gespoolten Objekten zuzulassen, um beispielsweise nicht benötigte Druckausgaben zu
löschen oder Änderungen an der Abarbeitungsreihenfolge vorzunehmen. Neben
Operatoreingaben kann das Betriebssystem hierbei sogar generelle Strategien
verfolgen, wie die Bevorzugung kleinerer Ausdrucke vor grösseren.
Betriebsmittelabrechnung
Das Betriebssystem muss über seine eigenen und die Aktivitäten der Benutzer Buch
führen. Die Informationen werden in einem Logfile (Account-File) gesammelt. Dieser
Funktionsbereich des Betriebssystems wird auch als Accounting bezeichnet.
Messzeitpunkte sind zumindest Prozessanfang und -ende. Bei manchen
Betriebssystemen erstrecken sie sich auch auf Auftrags(Job)anfang und -ende, sowie
auf den Beginn und das Ende eines Dialogs. Gemessen wird die Inanspruchnahme
bestimmter Betriebsmittel, insbesondere des Prozessors (CPU-Zeit), aber auch des
Haupt und Hintergrundspeichers oder des Busses. Es gibt 3 Anwendungen, die auf den
Abrechnungsinformationen basieren:
• Tuning
Unter Tuning versteht man die Abstimmung der Leistung einzelner
Systemkomponenten im Hinblick auf einen optimalen Durchsatz des
Gesamtsystems. Um Engpässe aufzudecken, werden Informationen über die
Auslastung der Betriebsmittel (z.B. Plattenkanäle) über bestimmte Zeiträume
hinweg benötigt. Hierzu werden die Daten des Account-Files ausgewertet. Stellt
man bei einzelnen Komponenten sehr hohe Auslastungen fest, während andere
nichts zu tun haben (man sagt, dass sie sich im Zustand "idle" befinden), kann
eine Vergrösserung der kritischen Komponenten (z.B. des Hauptspeichers) oder
die Installation weiterer Bauteile (z.B. Kanäle) zu einer besseren
Gesamtauslastung führen.
Tuning ist auch möglich, wenn die Belastung einzelner Betriebsmittel
zeitpunktbezogen direkt an der Konsole angezeigt wird. Durch die Einstellung
von Systemparametern (z.B. Grösse der minimalen Arbeitsmenge eines
Prozesses, die im realen Hauptspeicher vorhanden sein muss, oder die
maximale Anzahl bereiter Prozesse) können vielfach auf der Softwareebene
schon Engpässe behoben werden.
• Kontingentierung
Die Beschränkung der Nutzung einzelner Betriebsmittel kann aus 2 Gründen
notwendig sein. Entweder ist der Bedarf nach einem Betriebsmittel höher als die
verfügbare Kapazität (z.B. Prozessorzeit) oder die Nutzung eines Betriebsmittels
zieht den Verbrauch von Materialien nach sich (z.B. Drucker). In beiden Fällen
muss über den Verbrauch der einzelnen Benutzer Buch geführt werden. Für eine
auftragsbezogene Kontingentierung (z.B. maximale Hauptspeicherbelegung)
sind die Informationen im Logfile ausreichend. Dagegen sind für eine
zeitraumbezogene Kontingentierung die entsprechenden Werte aufzuaddieren
(z.B. permanente Hintergrundspeicherbelegung).
Die Kontingentüberprüfung kann offline, das heisst zu bestimmten Zeitpunkten,
oder online während der Lebensdauer des Prozesses erfolgen. Bei einer
Überschreitung können sanfte (soft) Massnahmen, beispielsweise Nachrichten
und Hinweise, gegeben oder harte Konsequenzen, beispielsweise Sperrung des
Betriebsmittels oder Sperrung der Benutzerkennung, eingeleitet werden.
Kontingente können benutzer- oder gruppenweise vergeben werden.
• Abrechnung
Eine Abrechnung über die Inanspruchnahme der Betriebsmittel kann benutzer- oder
kostenstellenorientiert erfolgen, wobei die Loginformationen für einzelne
Benutzerkennungen oder -gruppen durch Auswerteprogramme über bestimmte
Zeiträume hinweg zusammengefasst werden müssen. Durch Gewichtungsfaktoren
lassen sich die Betriebsmittelverbräuche für Benutzer oder Kostenstellen in einer
Formel zusammenfassen und in Geldeinheiten ausdrücken.
Kommandosprache
Die Kommandosprache ermöglicht dem Benutzer und dem Betreiber des DV-Systems
die Kommunikation mit dem Betriebssystem. Durch sie wird der Ablauf eines Auftrags
festgelegt oder ein Dialog gesteuert.
Über die Kommandosprache teilt der Benutzer dem Betriebssystem mit, welche
Betriebsmittel er benötigt (z.B. Prozessorzeit, Peripheriegeräte, Übersetzer, Dateien,
Sytemfunktionen, etc.), wie und wofür er sie einzusetzen gedenkt.
Es gibt Kommandos für Jobbeginn, Jobende, Dialogbeginn (login), Dialogende (logout),
Programm-Startkommandos, mit denen ablauffähige Programme, wie z.B. Übersetzer,
Benutzer- oder Dienstprogramme gestartet werden, Kommandos zur Dateiverwaltung,
Kommandos für die Kommunikation mit anderen Benutzern, Kommandos, mit denen
man sich über die Systemnutzung und vieles andere mehr informieren kann,
Kommandos für die Nutzung von Peripheriegeräten und Kommandos, um auf
Fehlersituationen zu reagieren, um nur eine Auswahl zu nennen. Die
Kommandoausführung kann vielfach mittels Parameter, die als Argumente beim Aufruf
übergeben werden, gesteuert werden.
Neben der Kommandosprache für den Benutzer ist eine Sprache für den
Systemadministrator (Systemgenerierung, Benutzerverwaltung usw.) und die
Maschinenbedienung (Verwalten der Auftragswarteschlangen, Peripheriebedienung,
Anpassen der Systemparameter, Datensicherung usw.) erforderlich. Wünschenswert ist
eine für alle Anwendungsbereiche einheitliche Sprache.
DBS = DB + DBMS
Ein Datenbanksystem (data base system, DBS) ist ein System zur Beschreibung,
Speicherung und Wiedergewinnung von Datenmengen, die von mehreren
Anwendungsprogrammen genutzt werden können.
Es setzt sich zusammen aus der Datenbank (oft data base genannt), also der Menge
der Daten und einer Software, dem Datenbankverwaltungssystem (data base
management system, DBMS), das die Schnittstelle zum Benutzer darstellt.
Die Datenbank enthält sowohl die reinen Nutzdaten als auch Meta-Daten (meta-data),
die zur Verwaltung des gesamten Systems nötig sind.
3-Ebenen Architektur
Datenbanktypen
Im Laufe der Zeit wurden von Softwarefirmen und wissenschaftlichen Instituten eine
Vielzahl von Datenbanksystemen entwickelt, denen unterschiedliche Anforderungen
und Konzepte zugrunde liegen. In diesem Kurs sollen nach ihrem Betriebskonzept
sogenannte Stand-alone-Datenbanken, File-Share-Datenbanken und Client/Sever-
Datenbanken unterschieden werden. Dabei liegt der Schwerpunkt des Kurses auf dem
relationalen Strukturierungskonzept das als Konzept zur Datenstrukturierung eine
überragende Bedeutung erlangt hat.
Stand-alone-Datenbank
Sie stellt die simpelste Form einer Datenbank dar. In der Regel handelt es sich um eine
lokale Datenbank, die sich weder um Mehrfachzugriffsprobleme, wie das, dass zwei
Benutzer gleichzeitig versuchen denselben Datensatz zu ändern, noch um ausgefeilte
Zugangsberechtigungen für unterschiedliche Programme kümmert. Sie ist lediglich
dazu da von einem Benutzer über das immer gleiche Programm angesteuert zu
werden. Typische Beispiele dafür sind Adresskarteien, elektronische Telefonbücher,
Buchhaltungsprogramme usw. die mit dBase, Access, Filemaker, FoxPro, Paradox oder
ähnlichen Programmen erstellt wurden und ihrem Benutzer auf einfache Weise einen
mehr oder weniger guten elektronischen Karteikasten zur Verfügung stellen.
File-Share-Datenbank
Client/Server-Datenbank
Der Kern einer solchen Datenbank ist ein Datenbankserver (Softwaresystem), der auf
einer dedizierten Maschine innerhalb eines Netzwerkes läuft. Dieser Server kapselt die
gesamte Datenbank und bietet im gesamten Netzwerk seine Dienste an. Programme,
für welche der Server etwas tun soll, (diese werden Clients genannt,) greifen nicht wie
bei einer File-Share-Datenbank selbst auf die Daten zu, sondern wenden sich mit Ihren
Wünschen lediglich an den Server, der alles für die Clients erledigt.
Die Datenverwaltung ist hier vom Zugriff konsequent getrennt. Die Clients wenden sich
lediglich an die standardisierte Schnittstelle des Servers. Wo und wie der Server seine
Daten verwaltet ist für die Clients transparent.
Client/Server-Datenbanken bieten viele Sicherheits-, Leistungs- und Flexibilitätsvorteile,
erfordern allerdings auch die Betreuung durch einen Datenbankadministrator. Die
Produkte aus diesem Bereich haben Namen wie Informix, Oracle, DB2, MS-SQL-
Server, InterBase.
Programmierung
Geschichte
Seit es Computer gibt müssen diese auch programmiert werden. Bei den ersten
Computern war dies nur durch Hardwareverbindungen möglich. Dazu wurden die
Computer programmiert, in dem zwischen den einzelnen Verbindungen Leitungen
geschlossen wurden. So bei dem allerersten Computern ENIAC und MANIAC.
Aus dieser Zeit stammt auch der erste Bug: es war eine Motte, die zwischen die Röhren
eines Rechners geriet, und dadurch einen Kurschluss verursachte. Seitdem bezeichnet
man Programmfehler als "Bug" : englisch für Käfer.
Natürlich war die Hardwareverdrahtung von Rechnern auf Dauer nicht nur um mühsam
sondern beschränkte die Möglichkeiten der Programmierung doch sehr. nachdem man
aber entdeckt hatte das man über einen Speicher Programme ablegen konnte, und
damit die Rechner steuern begann das erste Richtige Programmieren von Rechnern.
Zuallererst wurden die Daten in binär eingegeben. Das heisst man legte Schalter für
eine Eins um, oder liess sie in Ausgang Stellung für eine 0. Natürlich war dies keine
sehr elegante Methode. Auch der allein erste PC- der Altair 8800 hatte zuerst nur die
Möglichkeit über mit solche Kippschalter Daten eingegebenen.
Der nächste Schritt war diesen Vorgang zu vereinfachen. Obgleich damals es noch
nicht Rechners mit standardisierten Bitbreiten wie 8, 16, 32, 48 oder 64 Bit gab sondern
man jeweils die Bitbreite und nach den technischen Möglichkeiten wählte bürgerte sich
bald das Byte als grundlegende Einheit ein. Ein Byte kann man aber in zwei " Nibbels "
à 4 Bit mit zerlegen. Damit man ein solches Nibbel in einem einzigen Wort ausdrücken
konnte besann man sich auf das Hexadezimalsystem. Bei dem Hexadezimalsystem
kommen zu den Grundzahlen des Zehnersystems 0 bis 9 auch noch die Buchstaben A
bis F. Sie stehen für die Werte 10 bis 15. Damit kann man mit einer Stelle Werte von 0
bis 15 ausdrücken. Mit zwei Stellen ist der Wert eines Bytes anzugeben. Jede weitere
vordere Stelle ist ein Multiplikator von 16. der vorherigen. So hat der Wert " 3A5F "
folgenden dezimalen Wert: (3 x 4096) + (10 x 256) + (5 x 16) + 15 = 14943 im
Dezimalsystem.
Mit diesem System war es nun möglich die Eingabearbeit erheblich zu vereinfachen.
Denn anstatt acht Schaltern mussten nur noch zwei Zahlen eingegeben werden.
Trotzdem sehr benutzerfreundlich war dies nicht, wer wusste denn schon was hinter
den einzelnen Werten stand?
Assembler
Die Universalsprachen
Den ersten höheren Programmiersprachen folgten bald weitere : LISP zur Bearbeitung
von Listen und KI Programmierung, APL als Umsetzung der Mathematischen
Operationen in eine Programmiersprache oder BASIC als Lernsprache. Sehr bald gab
es richtige Stammbäume wie "xx" stammt von "yy" ab. Oftmals aber gab es nur eine
Programmiersprache die Anleihen an anderen machte.
Die vielen Programmiersprachen bedeuteten aber auch : Das Problem für Aufgabe x
einen Spezialisten zu finden der Programmiersprache y beherrscht und auf dem
Rechner z einen Compiler für y zu haben... Kurzum : Mitte der 60 er Jahre gingen an
verschiedenen Fronten die Suche nach einer universellen Programmiersprache los.
Universell heisst, das sie geeignet war jedes Problem zu lösen, das bedeutete eine
breite Basis von Befehlen und Datentypen. Der erste Versuch kam von IBM - PL/1
sollte die erste Universalsprache werden. IBM war damals schon marktbeherrschend
und wahrscheinlich wäre das auch gelungen, wäre PL/1 für die damaligen Rechner
nicht einfach zu gross und umfangreich gewesen.
Für die meisten heutigen prozeduralen Programmiersprachen spielt aber ALGOL eine
wichtige Rolle. Algol setzte sich nie breit durch, ist aber der Ahne aller heutigen
prozeduralen Programmiersprachen. Der Unterschied zu FORTRAN und COBOL war
der Gedanke der strukturierten Programmierung. Man sollte die Probleme lösen ohne
wild im Code herumzuspringen durch die GO TO's von FORTAN BASIC und COBOL.
Dies wurde gelöst durch elementare Schleifentypen und das Blockkonzept. Dieses
haben alle Sprachen die nach Algol kamen übernommen.
Später kam Pascal. Pascal war eigentlich keine Sprache die als Programmiersprache
für grosse Anwendungen gedacht war sondern eine Lehrsprache, aber durch die gute
Lesbarkeit, die strenge Syntax die wenig Freiheiten und Fehler erlaubte wurde Sie zu
einer wichtigen Sprache. Leider gab es Pascal lange Zeit nur interpretiert. Bedenkt man
welchen Erfolg Pascal durch den Turbo Pascal Compiler auf dem PC hatte, so kann
man sich ungefähr vorstellen wo wir heute wären wenn es einen solchen Compiler von
Anfang an gegeben hätte. Pascal setzte den Gedanken der strukturierten
Programmierung bei Daten fort. Es war nun möglich eigene Datentypen zu erschaffen
und zusammengehörende Daten zu einem Record zusammenzufassen. Dadurch wurde
das Programm erheblich besser lesbar und wartbar.
Später kam C. C hat einige Vorteile gegenüber den damals etablierten Sprachen
gehabt : Der Sprachkern war klein, alles was rechnerspezifisch war wurde in
Bibliotheken ausgelagert und C war schnell durch seine Maschinennähe. C war gedacht
als "Superassembler" : Maschinennah, schnell und mit vielen Freiheiten (aber auch
Verantwortung) für den Programmierer. Der eigentliche Siegeszug von C war aber die
Verknüpfung mit Unix. In dem Masse wie Unix sich verbreitete verbreitete sich auch C.
Modula entstand aus Pascal und setzte die Strukturierung von Daten und Code weiter
fort : Basis war das Modul : Eine Einheit aus Daten und Code das man als
Programmierer als Black Box nutzen konnte und sich nicht um die Implementierung im
Detail kümmern konnte. Modula hat sich kaum durchgesetzt denn inzwischen war die
Konkurrenz schon gross. Im PC Bereich übernahm Turbo-Pascal das Konzept als Units
und so gab es keinen Grund auf Modula umzusteigen und bei grösseren Rechnern
dominierten schon C, FORTRAN und COBOL.
Zuletzt sollte man noch ADA erwähnen. Wenn es eine Supersprache gibt dann ist es
ADA. Die Sprache ist ausserordentlich umfangreich und komplex, sie hat heute nur
einen Einsatzort, den aber in fester Hand : Als Standardsprache des US Militärs und
auch für Entwicklungen die auf militärischen Ursprüngen fussen (Die Flugsoftware von
Ariane 5, die den Fehlstart beim ersten Flug verursachte, war in ADA geschrieben). Sie
wird daher an Unis gelehrt, leider teilt die Wirtschaft diese Vorliebe für ADA nicht...
Objektorientiertes Programmieren
Das objektorientierte Programmieren hebt die klassische Trennung zwischen Daten und
Code auf. Ein klassisches Programm verarbeitet Daten. Wenn sich diese ändern muss
man auch den Code anpassen. das macht es sehr schwierig Code von einem
Programm in einem anderen wiederzuverwenden. Beim Objektorientierten
Programmieren gibt es dies nicht. auf die Daten wird mit Prozeduren und Funktionen
zugegriffen und Daten und Code bilden eine Einheit. Ändern sich die Daten so kann
man dieselben Prozeduren aufrufen, muss jeweils nur die interne Verarbeitung ändern.
Die immer gleichen Dialoge und Elemente von Windows wären ohne dies nicht möglich.
Im Prinzip finden wir einen solchen Ansatz schon bei Modula, nur hat man dort
versäumt festzulegen, das jeder Datentyp nur mit eigenen Methoden ansprechbar ist.
Als erste Programmiersprache beherrschte dies Ende der 70 er Jahre Smalltalk, die wie
andere revolutionäre Erfindungen (Netzwerk, grafische Benutzeroberfläche) im XEROX
Park entwickelt wurden. Ende der 80 er Jahre tauchten Objekte dann auch bei Turbo
Pascal auf und C wurde zu C++ - der objektorientierten Variante. Heute ist
objektorientiertes Programmieren weit verbreitet, Windows ist z.B. in C++ geschrieben.
Visuelles Programmieren
Regelorientierte Sprachen
Eigentlich könnte das Leben doch so einfach sein. Heute programmieren die meisten
Programmierer die Lösung eines Problemes bis auf Befehlsebene herunter. Das nennt
man prozedurale Sprachen. Doch es gibt auch Sprachen die anders funktionieren :
Regelbasierende Sprachen. Hier wird einer Sprache die Regel gegeben die dem
Problem zugrunde liegt, d.h. die Abhängigkeiten die aufzulösen sind. Dies macht dann
die Programmiersprache selber. Für einige Probleme - Insbesonders im Bereich der KI
war dies ideal. Sprachen wie Prolog, LISP oder Natural finden sich auch in diesem
Umfeld. aber es gibt keine Alternative wenn man nur mal einfache Berechnungen oder
Daten verarbeiten will - das löst man mit prozeduralen Sprachen immer noch einfacher.
Als weiteres waren die regelbasierenden Sprachen lange Zeit nur interpretiert, was die
Geschwindigkeit stark herabsetzte.
Schon immer eine Bedeutung hatten Datenbanksprachen. Mit dem Aufkommen von
Datenbanksystemen brauchte man bei diesen zuerst Programmiersprachen um sie
abzufragen, derartige Sprachen lehnten sich an bekannte Vorbilder an und hatten oft
mächtige Befehle um Daten zu bearbeiten, für diesen Zweck waren sie
massgeschneidert. Ein bekanntes Beispiel dafür ist die Sprache von DBase, da dieses
PC Programm sehr populär war und andere auf ihm aufbauten. Aus dem
Grossrechnerbereich kommt SQL das auch auf dem PC Einzug gehalten hat.
Auch andere Anwendungen haben nach und nach Sprachen implementiert, zuerst nur
als Makrosprachen um Befehle wieder abspielen zu können oder die Flexibilität zu
erhöhen, dann durch integrierte Pakete auch zum Datenaustausch zwischen
Anwendungen. Den bisherigen Höhepunkt hat VBA erreicht Visual Basic for
Applications verbindet Microsoftanwendungen untereinander - MS Office mit Outlook
und Windows. So kann ein E-Mail Attachment sich auch selbstständig über Outlook
weiterverbreiten, bevor es ihre Daten auf dem Rechner löscht.
1. Generation (1GL)
• Maschinensprache
• Binäre Ziffernfolge auf Niveau des reinen Maschinencodes
• Hardwarearchitektur für die Programmierung entscheidend
• absolute Adressierung
2. Generation (2GL)
• Assemblersprache
• Symbolische Namen für Operanden und Operationen
• Makroprozessoren erlauben Programmierer aus mehreren Befehlen eine
Funktion zu erstellen
• Ermöglichen optimale Ausnutzung der Hardware
3. Generation (3GL)
• Höhere, problemorientierte Sprache
• Portabilität zu anderen Systemen
• Strukturierte Programmstrukturen
• Programm besteht aus 2 Teilen:
• Deklaration von Daten
• Aktionen zur Manipulation der Daten
• Maschinenunabhängig
• Sourcecodereduktion gegenüber Assembler um bis zu 85%
• Wichtiger Grundstock für die 3. Generation war die Entwicklung von Pascal.
4. Generation (4GL)
• Deklarative Programmiersprachen
• Deskriptive Programmierung
• Softwareunterstütze Entwicklungsumgebung
• Transaktionsorientierte Datenelemente
5. Generation (5GL)
• Objektorientierte Sprachen
• Entwicklung eigener Sprachelemente durch den Entwickler
• Programmierer entwickelt Objekte, Methoden und abgeleitete Objekte
• Funktionale und
• Logische Sprachen
Software Eigenschaften
• Benutzerfreundlichkeit
• Flexibilität
• Funktionalität
• Kompatibilität
• Performance
• Sicherheit
• Zuverlässigkeit
Benutzerfreundlichkeit
Der Benutzer erkennt intuitiv, wie er mit dem System arbeiten kann. Der Benutzer weiss
immer wo er sich in seiner Aufgabe befindet, was er hier tun kann, woher er gekommen
ist und wohin er weiter navigieren kann. Der Visualisierungsgrad spielt eine wichtige
Rolle. Informationen und Funktionen sollten möglichst direkt ersichtlich sein. Der
Benutzer soll in seiner Arbeit von der Applikation ideal unterstützt werden. Dies
geschieht durch ein kontextsensitives Hilfesystem, eine klare und einheitliche
Benutzerführung und selbstsprechende Fehler- und Warnmeldungen. Die
Benutzerfreundlichkeit ist sehr wichtig für die Akzeptanz der Software bei den
Benutzern. Die beste Applikation nützt letztendlich nichts wenn sie nicht durch ihre
Anwender bedient werden kann.
Flexibilität
Die Applikation sollte leicht verändert werden können. Damit wird auch die Wartbarkeit
eines Produktes gewährleistet. Die Applikation sollte eine ausführliche und vollständige
Dokumentation aufweisen. Die Komponenten sollten einfach gestaltet werden und
strukturiert und übersichtlich gegliedert sein. Die Schnittstellen sollten klar definiert und
gut dokumentiert sein.
Funktionalität
Die Software sollte kompatibel mit anderen System agieren können. Mit Hilfe von
standardisierten und offenen Schnittstellen sollte dies möglich gemacht werden.
Ebenfalls sollte die Anwendung kompatibel auf verschiedenen Plattformen und
Betriebssystemen übertragen werden können (Portabilität).
Performance
Der Benutzer erwartet auf eine Aktion eine sofortige Reaktion des Systems. Die
Performance sollte in erster Linie auf den Benutzer ausgerichtet werden. Die
Schnelligkeit des Systems sollte effizient sein. Dank den neuen Entwicklungen im
Hardwarebereich wird die Performance stets verbessert. Die Performance sollte also
nicht unnötig optimiert werden.
Sicherheit
Zuverlässigkeit
Wenn das System zuverlässig arbeitet, ist auch das Vertrauen der Benutzer in die
Applikation vorhanden. Die Funktionalität des Systems sollte bei korrektem Input den
erwarteten und vereinbarten Output liefern. Auch die Stabilität (Absturzgefahr) des
Systems spielt eine wichtige Rolle für die Zuverlässigkeit des Systems.
Kosten
Die Kosten sind kein direkter Faktor für die Qualität der Software, sie sind aber ein
wichtiger Faktor bei der Evaluation einer neuen Anwendung. Bei Software ist wichtig zu
beachten, dass die Entwicklungs- oder Initialkosten sowie die Wartungs- und
Lizenzkosten gerechnet werden. Ebenfalls sollte unbedingt berücksichtigt werden,
wieviele Personen und Ressourcen eingesetzt werden müssen. Die Gegenüberstellung
der Kosten und dem Nutzen (in Zahlen ausgedrückt) ist ein wichtiges Element für den
Entscheid über den Einsatz neuer Software.
Systeme Hardware
o Datenträger
o Der Rechner
o Eingabe
o Mobile Devices
o Prozessor
Datenträger
Zentrale Grundlage für das sinnvolle und zweckgerichtete Speichern in jeglicher Form
sind drei Prozesse, die durch die Formen der Speicherung realisiert werden müssen:
• der Aufzeichnungsvorgang (aus Daten oder Signalen wird durch Einwirken von
Energie der Speicherzustand erzeugt, das Trägermaterial verändert)
• der Speicherzustand (Festhalten der Veränderung des Trägermaterials , also des
Aufzeichnungsvorgangs möglichst unverändert und dauerhaft stabil)
• der Wiedergabevorgang (aus den Speicherzuständen werden die ursprünglichen
Daten/Signale möglichst originalgetreu wiedergewonnen)
Aufzeichnen, Bewahren und Weitergeben sind also Kernfunktionen jedes Speicherns.
Einen weiteren Aspekt stellt noch die die Übertragung des Gespeicherten dar.
Wie diese Kernfunktionen realisiert werden können, kann man wiederum aus drei
verschiedenen Blickwinkeln betrachten, bei denen für diese Prozesse eingesetzten
Träger der Speicherung, die Form der Speicherung und die Methoden des
Wiederfindens des Gespeicherten im Mittelpunkt stehen:
• das chemisch-physikalische Prinzip (Träger der Speicherung)
• das Speicherungsverfahren (Form der Speicherung)
• das Suchverfahren (Wiederfinden des Gespeicherten)
Speicherverfahren
• mechanisch
o Papierblatt, Katalogkarte
o gedrucktes Medium
o Lochstreifen
o Lochkarte
• elektro-mechanisch
o Relais
• magnetisch
o Magnetkern
o Magnetband [für Zeichen, Bilder, Töne]
o Spulen
o Kassetten
o Magnettrommel
o Magnetplatten (-folien)
o Festplatten
o Wechselplatten
o Disketten
o Magnetkarten
o Magnetdraht
o Magnetblasen
• elektronisch
o Halbleiter
o Nur-Lesespeicher (nicht-flüchtig)
o ROM [Read Only Memory, herstellerprogrammiert]
o PROM [Programmable ROM, durch Anwender einmal programmierbar]
o EPROM [Erasable Programmable ROM, durch Anwender mehrfach lösch-
und programmiebar]
o Schreib-/Lesespeicher (RAM) [Random Access Memory]
o SRAM [ Static RAM ; laufend Ruhestrom erforderlich, flüchtig]
o DRAM [ Dynamic RAM ; zyklisches Erneuern durch
o refreshing, flüchtig]
o FLASH [Beschreibbar, nicht-flüchtig]
o Supraleiter
• optisch
o CD-DA [Digital Audio-CD]
o CD-ROM [Read Only Memory]
o CD-ROM/XA [Extended Architecture, hohe Speicherdichte, max. 19 Std.
Audio]
o CD-ROM mixed mode [1 Track Daten, Rest kann Audio sein]
o CD-I [Interactive, z.B. mit Filmsequenzen]
o CD-R [Recordable, einmal beschreibbar in CD-Brenner, WORM]
o Photo-CD [Entwicklung von Kodak]
o Video CD [Komprimiertes Video bis zu 74 Min.]
o CD-RW [Rewritable, bis zu 1000 x beschreibbar, ähnlich CD-R]
o CD Extra [Multisession von Audio- und komprimierten Bilddaten]
o DVD [Digital Versatile Disk, mit hoher Datendichte]
o DVD-ROM [entspricht CD-ROM
o DVD-R [entspricht CD-R]
o DVD-RAM [entspricht CD-RW]
o Transphasor ["optischer Transistor"]
• magneto-optisch
o Aufzeichnungsvorgang: (elektromagnetischer) Curie-Effekt
o Wiedergabevorgang: (optischer) Kerr-Effekt
• biochemisch -elektrisch -organisch
o Biotechnik-Speicher
o Protein-Speicher
Speicherungsformen
Sequentielle Speicherung
Index-sequentielle Speicherung
Index-verkettete Speicherung
In der Indextabelle werden bei diesem Speicherverfahren zusätzlich zu jedem
Schlüsselwert vom nachfolgenden / vorhergehenden Satz entweder der Schlüsselwert
oder die Position in der Indextabelle oder die physische Speicheradresse als drittes
Feld (Spalte) festgehalten.
• Der 'Einstiegspunkt' (Anker) ist die Speicheradresse des ersten Indexeintrags
• Offene Kette: Letzter Eintrag ohne einen Verweis auf den Nachfolger
• Geschlossene Kette: Rückverweis vom letzten Eintrag auf den Anker
(kreisförmige Verkettung)
• Analog zur Vorwärtsverkettung wäre auch eine Rückwärtsverkettung möglich,
ebenso eine doppelte oder zweifache Verkettung.
Vorteile:
Nachteil:
Von der Form der Datenspeicherung hängt dann auch die Möglichkeit ab, wie auf die
gespeicherten Daten wieder zugegriffen werden kann:
• seriell (starr fortlaufend) in der Reihenfolge, wie die Daten für die Speicherung
angefallen sind
• sequentiell (fortlaufend gemäss einer gegebenen Reihenfolge)
• direkt (wahlfrei, Random Access) über die Nutzung des Index
Der Rechner
Rechner
Nach DIN-Definition ist ein Rechner eine Einheit zur Verarbeitung von Daten, nämlich
zur Durchführung mathematischer, umformender, übertragender und speichernder
Operationen. Als Synonyme werden in der DIN-Norm die Benennungen Rechensystem,
Rechenanlage, Datenverarbeitungssystem und Datenverarbeitungsanlage sowie
Computer und Data Processing System genannt.
Damit die Einheit "Rechner" funktionieren kann, bedarf er bestimmter
Funktionseinheiten.
Ein Rechner besteht aus Funktionseinheiten durch die Information von aussen
aufgenommen werden kann (Eingabewerk), durch die diese Information verarbeitet,
also interpretiert, verändert und aufbewahrt werden kann (Processor, Leitwerk,
Rechenwerk und den internen Arbeitsspeicher) steuert durch die die verarbeitete
Information wieder nach aussen abgegeben werden kann (Ausgabewerk).
Hier kann das bekannte "EVA" = Eingabe, Verarbeitung, Ausgabe als Eselsbrücke
dienen. Jeder der genannten Funktionseinheiten können in der Realität eine oder
mehrere Baueinheiten entsprechen.
Eingabewerk
Eine Eingabeeinheit ist eine Funktionseinheit eines Rechners, durch die Information von
aussen aufgenommen werden kann. Die Funktionseinheit verbindet den Rechner mit
verschiedenen Eingabeeinheiten wie Tastatur, Maus, Lichtgriffel, Digitalisiertablett, Pen-
based Computer, Schriftenleser, Scanner, Speicher...
Ausgabewerk
Eine Ausgabeeinheit ist eine Funktionseinheit eines Rechners, durch die die
verarbeitete Information wieder nach aussen abgegeben werden kann. Auch sie ist das
Bindeglied zwischen verschiedenen Ausgabegeräten wie Monitor, Kathodenstrahlröhre,
Flüssigkristallbildschirm, Plasmabildschirm, Elektrolumineszenzbildschirm,
Elektronenstrahlbildschirm, Drucker, Zeichendrucker, Zeilendrucker, Seitendrucker,
Plotter, Speicher
Prozessor
Speicher
Ein Speicher ist eine Funktionseinheit eines Rechners, Information einbringt, aufnimmt,
aufbewahrt und abgibt. Dabei ist zu unterscheiden
• Interner Speicher (Zentralspeicher)
• Zentralspeicher
ist ein Speicher innerhalb der Zentraleinheit. Typische Merkmale sind der
unmittelbare Zugang durch den Prozessor, die vorübergehende Speicherung und
der schnelle Zugriff. Weitere gängige Benennungen für Zentralspeicher sind:
Speicherwerk und interner Speicher. Der grösste interne Speicher ist der
Arbeitsspeicher, der auch vielfach Hauptspeicher genannt wird. Der
Arbeitsspeicher und die anderen internen Speicher arbeiten mit einem
ausserordentlich schnellen Zugriff. Ihr Fassungsvermögen ist jedoch aus
technischen und Kostengründen begrenzt. Sie dienen während der
Programmausführung zur Speicherung und werden im allgemeinen nicht für eine
dauerhafte Aufbewahrung von Information herangezogen. Diese Funktion
übernehmen die externen Speicher.
• Externer Speicher
Jeder Speicher, der nicht Zentralspeicher ist, wird als externer beziehungsweise
peripherer Speicher bezeichnet. Externe Speicher sind langsamer (geringere
Zugriffsgeschwindigkeit), aber dafür billiger als Zentralspeicher, und sie verfügen
über sehr grosse Speicherkapazitäten. Nicht unmittelbar benötigte Daten und
Programme, die aus Platzgründen nicht ständig im Zentralspeicher stehen,
werden extern gespeichert und können bei Bedarf mit grosser Geschwindigkeit in
den internen Speicher übertragen werden. Wegen ihrer hohen Kapazität
bezeichnet man sie auch als Massenspeicher (Magnetische Datenträger,
Optische Datenträger, Elektronische Datenträger )
Peripherie
Eine Funktionseinheit eines Rechners, die nicht zur Zentraleinheit gehört, wird
periphere Einheit genannt. Dementsprechend werden externe Speicher auch als
periphere Speicher bezeichnet. Der Verkehr mit den peripheren Geräten zur Eingabe
(input) und Ausgabe (output) von Programmen und Daten wird in Rechnern meist durch
selbständige Funktionseinheiten gesteuert, die als Ein-Ausgabe-Prozessoren
bezeichnet werden.
Intelligente Peripherie
Eingabegeräte
Tastatur
Eine Tastatur (engl.: keyboard) ist ein Eingabegerät mit einer Vielzahl von Tasten, die
auf bestimmte Weise angeordnet und mit bestimmter Bedeutung (Zeichen, Funktionen)
belegt sind. Die Dateneingabe erfolgt durch die aufeinanderfolgende Betätigung der
Tasten mit den Fingern.
Maus
Eine Maus (engl.: mouse) ist eine etwa mausgrosse Zusatzeinrichtung zu einem
Bildschirm, deren Bewegung auf einer ebenen Fläche von der Positionsmarke auf dem
Bildschirm in Richtung und Geschwindigkeit unmittelbar nachvollzogen wird. Sie verfügt
über einen Auslösemechanismus (Funktionstasten), mit dem die vom Cursor
gekennzeichneten Felder aktiviert werden können (durch Anklicken).
Lichtgriffel
Ein Lichtgriffel (Lichtstift; engl.: light pen) ist ein als Zusatzeinrichtung zu einer
Datensichtstation dienender lichtempfindlicher Stift, mit dem von Hand auf dem
Bildschirm bestimmte Punkte oder Flächen markiert und Kurven durch ihren Verlauf
oder ihre Endpunkte dargestellt werden können.
Touch Screen
Digitalisiertablett
Notepad
Ein Notepad (engl.: note = Notiz, Aufzeichnung; pad = Unterlage, Schreibblock) oder
Pen-based Computer (deutsch: stiftunterstützter Rechner) ist ein tragbarer PC
(Notebook oder PDA), mit einem integrierten, berührungsempfindlichen LCD-
Bildschirm. Man zeichnet oder schreibt mit einem Spezialstift auf dem Bildschirm wie
auf einem gewöhnlichen Schreibblock. Die eingegebenen Daten werden in einem
Bildspeicher punktweise abgelegt und unmittelbar am Bildschirm wiedergegeben, wo
sie vom Benutzer korrigiert und im Dialog weiterverarbeitet werden können. Ein
Handschrifterkennungsprogramm interpretiert mit dem Stift geschriebene Zahlen und
Druckbuchstaben in Gross- und Kleinschreibung und setzt diese in ASCII-Zeichen auf
dem Bildschirm um.
Schriftenleser
Die Schriftenleser (engl.: character reader) erkennen optisch oder magnetisch die
Bedeutung einzelner, auf den Datenträgern gespeicherter Zeichen und geben diese in
maschinell weiterverarbeitbarer Codierung (zum Beispiel ASCII, EBCDIC) aus. Hierzu
werden vorher definierte Bereiche der Datenträger ausgewertet, in denen die Zeichen in
maschinell lesbarer Form aufgezeichnet sind. Das Layout der Datenträger wird nicht
miterfasst.
Scanner
Ein Scanner (engl.: scanner; Synonym: image scanner, Bildabtaster) tastet eine Vorlage
zeilenweise ab und setzt selbsttätig für jeden Bildpunkt (Pixel) den entsprechenden
Helligkeits- oder Farbwert sowie die Lageinformation in digitale elektrische Signale um.
Die erfassten Dokumente (= Rasterbilder) lassen sich zum blossen Ansehen
abspeichern (Archivierung) oder mit Zeichenerkennungs- und Bildverarbeitungssoftware
im Rechner weiterverarbeiten.
Ausgabegeräte
Monitor
Ein Monitor (engl.: monitor) ist ein Ausgabegerät, das die vom Videoadapter eines
Rechners (zum Beispiel einer PC-Grafikkarte) übermittelte Information anzeigt. Er
besteht aus dem Bildschirm (engl.: screen; display), dem zugehörigen Gehäuse und
eventuell darin eingebauten Zusatzeinrichtungen, wie beispielsweise Mikrofon und
Lautsprecher. Der Monitor wird über ein Kabel an die Grafikkarte (Videoadapter) des
Rechners angeschlossen.
Kathodenstrahlröhre
Flüssigkristallbildschirm
Ein Flüssigkristallbildschirm (engl.: liquid cristal display; LCD) verwendet zur Anzeige in
Glasflächen eingeschlossene organische Substanzen, sogenannte Flüssigkristalle,
deren molekulare Eigenschaften denen fester Kristalle ähneln. Bei Anlegen einer
Spannung richten sich die Flüssigkristalle in Richtung des elektrischen Feldes aus und
bekommen dadurch andere optische Eigenschaften (Wechsel zwischen
Lichtdurchlässigkeit und Lichtundurchlässigkeit, wodurch ein angesteuerter Bildpunkt
dem Betrachter hell oder dunkel/farbig erscheint).
Plasmabildschirm
Ein Plasmabildschirm (engl.: plasma display) besteht aus zwei Glasplatten, zwischen
denen sich ein Mosaik aus 0,2 Millimeter kleinen gasgefüllten Zellen befindet. Ein
elektrisches Leitungsgitter (Elektrodenarray) hält die gesamte Fläche unter Spannung,
knapp unter dem Grenzwert, bei dem das Edelgasgemisch (= Plasma) zu leuchten
beginnt. Durch elektrische Entladungen in den einzeln adressierbaren Zellen emittiert
das Gas ultraviolette Strahlen, die die Phosphorbeschichtung der Zellen zum Leuchten
anregen.
Elektrolumineszenzbildschirm
Elektronenstrahlbildschirm
Ein Elektronenstrahlbildschirm (engl.: flat CRT display) arbeitet wie die herkömmliche
Kathodenstrahlröhre mit der Vakuumfluoreszenztechnik, wobei anstelle des
voluminösen Glaskolbens eine flache Glaswanne oder ein Miniröhrenfeld verwendet
wird.
Zeichendrucker
Mechanische Drucker
Zeilendrucker
Zeilendrucker (engl.: line printer), die auch sehr häufig als Schnelldrucker bezeichnet
werden, drucken jeweils Zeile für Zeile als Ganzes und erreichen dadurch hohe
Druckgeschwindigkeiten. Der Leistungsbereich dieser fast immer mechanisch
arbeitenden Geräte reicht von etwa 150 bis 4.000 Zeilen pro Minute.
Seitendrucker
Federplotter
Die sog. Federplotter oder Stiftplotter (engl.: pen plotter) arbeiten mechanisch mit
Zeichenstiften. Entsprechend der Bauart des Bewegungssystems, mit dem der Stift auf
der Zeichenfläche geführt wird, unterscheidet man im wesentlichen zwei Gruppen: Die
Flachbettplotter und die Trommelplotter. Beide Gruppen haben gemeinsam, dass das
Bild strichweise (entsprechend den vorgegebenen Positionen in dem x-y-
Koordinatensystem der Zeichenfläche) aufgezeichnet wird; sie heissen deshalb auch
Vektorplotter.
Druckerplotter
• Handy
• Notebook
• PDA / Handheld
• Flatpad
• Pocket PC
• Communicator
Abbildung: Flatpad
Abbildung: Pocket PC
Prozessor
Ein-Chip-Computer
Bei einem Ein-Chip-Computer (MCU; Abkürzung für engl.: micro computer unit) ist eine
vollständige Zentraleinheit auf einem einzigen Chip integriert. Solche
"Miniaturcomputer" kommen in allen möglichen Geräten, wie zum Beispiel Kameras,
Stereoanlagen, Waschmaschinen, Autos, usw. zum Einsatz.
Leistungskriterien
Verarbeitungsbreite
Ein 8-Bit-Prozessor hat einen acht Bits breiten Datenbus (engl.: data bus), das heisst
auf acht parallelen Datenleitungen können während einer (Takt-)Zeiteinheit acht Bits (=
ein Byte) übertragen werden. Und ein 64-Bit-Prozessor kann bei Bedarf 64 Bits pro Takt
übermitteln; das heisst der Datentransfer kann achtmal so schnell erfolgen wie bei
einem 8-Bit-Prozessor. Auch die sonstigen Funktionseinheiten innerhalb des
Prozessors, zum Beispiel die Einheiten zur Zwischenspeicherung der transferierten
Daten, sogenannte Register (engl.: register), sind auf diese Informationsbreite
abgestimmt. Die Verarbeitungsbreite ist also ein wesentliches Kriterium für das
Leistungsvermögen eines Mikroprozessors.
Taktzeit
Die Taktfrequenz (=Taktrate; engl.: clock pulse) ist eine Massgrösse für die
Verarbeitungsgeschwindigkeit eines Prozessors und wird in Megahertz gemessen.
Durch die Verwendung einfacher, kurzer Maschinenbefehle und parallele
Verarbeitungseinheiten können die leistungsfähigsten 64-Bit-Mikroprozessoren heute
drei bis vier Befehle pro Takt ausführen. Bei einer Taktrate von 200 Megahertz sind dies
theoretisch 600 bis 800 Millionen Prozessorbefehle pro Sekunde (Ein-/Ausgabebefehle
dauern um ein Vielfaches länger).
Die Taktfrequenz wird in Megahertz (abgekürzt: MHz; 1 MHz = 1 Million Zyklen pro
Sekunde) gemessen.
Den zeitlichen Ablauf der Maschinenoperationen steuert ein Taktgeber (engl.: clock);
das ist ein Pulsgenerator (mit einer bestimmten Taktfrequenz) zur Synchronisierung von
Operationen.
Tele- /
Kommunikation
o Client
o Das OSI
o Middleware
o Netzwerk
o Netzwerkprotokolle
o Telekommunikation Hardware
Client/Server-Architektur
Der Server ist ein System, das für andere (Clients) Dienstleistungen erbringt. Solche
Dienstleistungen können zum Beispiel Datenverwaltung, Rechnen, Drucken,
Kommunikation und vieles andere sein.
Der Client nimmt die Dienstleistungen, die ein Server erbringt, in Anspruch. Solche
Dienstleistungen können zum Beispiel Datenverwaltung, Rechnen, Drucken,
Kommunikation und vieles andere sein.
Man spricht von einem aktiven Server, wenn von diesem sowohl die
Anwendungsfunktionen als auch die Datenhaltung übernommen werden. Der Client
übernimmt nur die Aufgabe der Repräsentation bzw. der Oberfläche.
Man spricht von einem passiven Server mit zentraler Datenhaltung, wenn von diesem
die Datenhaltung alleine übernommen wird, und der Client nur die Aufgaben der
Repräsentation bzw. der Oberfläche und der Anwendungsfunktionen übernimmt.
Kümmert sich hingegegn der Client auch um einen Teil der Datenhaltung, spricht man
von einem passiven Server mit dezentraler Datenhaltung.
In manchen Client/Server-Systemen können die Rollen zwischen Server und Klienten
austauschbar sein, so dass man hier von einem Peer-to-Peer-System spricht (engl.:
peer heisst "Gleichrangiger").
Downsizing bedeutet, dass Informationssysteme vom Grossrechner auf
kostengünstigere beziehungsweise effizientere Abteilungsrechner (Minirechner) und
Arbeitsplatzrechner (Personalcomputer und Workstations) ausgelagert werden. Da aber
nach wie vor betriebs- oder abteilungsübergreifende Datenbestände und Anwendungen
zentral gehalten werden müssen, setzt man bei grösseren Informationssystemen die
sogenannte Client-Server-Architektur ein.
Das OSI-Modell
Bei der Kommunikation zwischen zwei Rechnern müssen sich beide Rechner an ein
gemeinsames Protokoll halten. Das OSI-Modell wurde als Referenzmodell für solche
Netzwerkprotokolle im Jahre 1979 entwickelt. Die OSI ist ein Teil der ISO, weshalb das
Modell auch ISO/OSI-Modell genannt wird.
Das OSI-Modell ist kein verbindlicher Standard, sondern eher ein Grund- bzw.
Referenzmodell, das die Entwicklung und Beschreibung von Netzwerkprotokollen
vereinfachen soll. Daher ist das Modell auch sehr offen formuliert. Es geht bei diesem
Modell eher um die logischen Zusammenhänge als um eine konkrete Implementierung.
Die einzige zur Zeit bedeutende Implementation des OSI-Standards ist IBMs SNA, das
zur Vernetzung von Grossrechenanlagen benutzt wird.
Damit zwei Rechner kommunizierren können sind eben nicht nur zwei Rechner und ein
paar Meter Kabel notwendig. Sondern es bedarf einer genauen Spezifikation, wie die
Software die Daten verpacken muss, damit die Hardware sie übertragen kann. Vor allen
Dingen aber damit sie auch beim richtigen Empfänger ankommen und dort auch richtig
interpretiert werden können.
Diese Spezifikation nennt man Protokoll. Das OSI-Modell beschreibt diese Protokolle
auf verschiedenen Ebenen. Durch die Einteilung in verschiedene Ebenen oder auch
Schichten ist es Möglich verschiedene Systeme anzupassen. So wird ein Datenpaket
von einem Rechner zum anderen mehrmals verändert oder sogar geteilt, ohne das der
Empfänger davon Kenntnis hat, ja er merkt es normalerweise noch nicht mal.
Ein Modell hat die Aufgabe die Wirklichkeit abstrakt und möglichst allgemeingültig
abzubilden. Ein Schichtenmodell zerlegt den zu beschreibenden Gegenstand in
mehrere Schichten. Es besitzt einen hirarchischen Aufbau.
Die Schichtenbildung folgt dabei folgenden Prinzipien :
• Eine Schicht sollte dann definiert werden wenn ein neues Abstarktionsniveau
erreicht wird.
• Jede Schicht sollte eine wohldefinierte Funktionalität aufweisen.
• Jede Schicht sollte im Hinblick auf die Definition internationaler Standards für
Protokolle gewählt werden.
• Die Schichtgrenzen sollten im Hinblick auf die Definition internationaler
Standards für Protokolle gewählt werden.
• Die Schichtgrenzen sollten im Hinblick auf minimalen Informationsfluss über die
Schnittstellen erfolgen.
• Die Anzahl der Schichten sollte so gross wie nötig und so klein wie möglich sein.
• Die einzelnen Schichten eines solchen Modells bauen hirarchisch auf einander
auf. Jede Schicht besitzt eine Sammlung von Funktionen, zu denen
Schnittstellen existieren, die den angrenzenden Schichten bekannt sind.
Schicht Sn+1 nutzt den Dienst Dn der Schicht Sn über die definierte Schnittstelle. Die
Schicht Sn+1 hat dabei keine genauen Informationen über die Hintergründe der
Dienstes Dn , sie kennt und benutzt lediglich die Schnittstelle.
Hier werden wie in der Objektorientierten Programmierung die Methoden des
Infomation Hiding und der Data Abstraction angewandt. Der Anwender benutzt den
Dienst Dn also wie eine Black Box.
Ein Schichtenmodell hat folgende Eigenschaften:
• Aufbau einer hirarchischen Struktur
• Verbergen von Details. Also verbergen der Implementation (des Wie?).
• Weitergabe der Dienste (des Was?) über definierte Schnittstellen.
Auf diese Weise lassen sich herstellerunabhängige Systeme schaffen, bei denen die
einzelnen Schichten einfach ausgetauscht werden können ohne andere Schichten zu
verändern.
Das OSI-Schichtenmodell
Das OSI-Modell besteht aus 7 Schichten, die zur Kommunikation von Rechnern
erforderlich sind. Dabei ist gewährleistet, das Anwendungen die auf der obersten
Schicht aufsetzten unabhängig von Modell und Netzwerk funktionieren. Der Zugriff auf
das Netzwerk ist durch alle Schichten hindurch gewährleistet.
Die eigentliche Übertragung verläuft entlang des durchgezogene Flusses, das heisst
auf der einen Seite von Schicht 7 runter zu Schicht 1 und auf der anderen Seite wieder
hoch von Schicht 1 zu Schicht 7. Die logische Verbindung verläuft nach dem Modell
entlang der gestrichelten Linien, also z.B. von einer Schicht des Senders zur selben
Schicht des Empfängers.
Jede Schicht unterhält also mit ihrem "Partner" eine sogenannte Peer-to-Peer-
Verbindung. Diese horizontalen Verbindungen bestehen natürlich nur virtuell.
Eine Information die von einem System zum anderen übertragen werden soll muss
zuerst von der obersten Schicht durch alle darunterliegenden Schichten durchegereicht
werden, bevor sie über das physiaklische Medium übertragen wird. Dabei wird die
Information in jeder Schicht um Protokollinformationen erweitert, die auf dem Zielsystem
von der entsprechenden Schicht wieder entfernt werden. Die Information kommt so
korrekt in Schicht 7 der Gegenseite an.
Jede Schicht hängt also den Daten, die ihr von der darüberliegenden Schicht
übergeben werden einen eigenen Protokoll-Overhead an und entfernt diesen wieder bei
den von unten kommenden Paketen. Damit ist klar, dass nur solche Systeme
miteinander kommunizieren können, wo die Schichten in der Lage sind den jeweiligen
Protokoll-Overhead wie Prüfsummen und Zieladresse richtig zu interpretieren. Dieser
Sachverhalt kommt bei Netzübergängen, also Schnittstellen zwischen Systemen die
sich normalerweise nicht verstehen würden erst richtig zum Tragen. Ein Router z.B. ist
in der Lage ein Datenpaket eines LANs so umzuwandeln, dass man es über eine ISDN-
Strecke in ein anderes LAN übertragen kann.
Die Schichten
Wie sich aus der Abbildung erkennen lässt sind die drei oberen Schichten
anwendungsorientiert und die unteren vier transportorientiert. Diese Unterscheidung
spielt bei direkt miteinander verbundenen Systemen keine Rolle. Anders ist dies, wenn
wie in der folgenden Abbildung ein oder mehrere Netzübergänge dazwischen sind.
Wie später noch klar wird sind die anwendungsorientierten Schichten in realen
Implementationen meistens nicht näher definiert und ihre Realisation und Kontrolle
obliegt der Anwendung. Die realen Implementationen der tarnsportorientierten
Schichten lassen sich meist sehr gut in dem Modell darstellen.
Bei einer Netzstruktur bauen die unteren drei Schichten lediglich eine virtuelle
Verbindung zum Netzknoten auf. Der Netzknoten ist für die Anpassung der
Datenpakete an das jeweilige Subnetz zuständig. Dadurch wird die Verbindung für dir
Schicht vier und alle oberhalb liegenden transparent. Diese Schichten unterhalten ihre
virtuellen Verbindungen direkt zur Gegenstelle.
Für die anwendungsorientierten Schichten ist das darunterliegende Transportsystem
immer transparent, das heisst sie unterhalten ihre Verbindungen grundsätzlich mit der
Gegenstelle.
Die Definition der Transportschichten ist streng hirarchisch und restriktiv, die
Anwendungsschichten hingegen arbeiten auch schon mal parallel oder werden in der
Implementation zusammengefasst.
Das Modell definiert nur das Was?, das heisst die eigentlichen Funktionen werden
unabhängig von Herstellern und Protokollen. Das Modell gibt allerdings keine Garantie
dafür, dass zwei Systeme kommunikationsfähig sind, es müssen auch gkleiche oder
sich entsprechende Protokolle auf beiden Seiten verwendet werden. Erst dadurch sind
die schon öfter erwähnten virtuellen Verbindungen möglich.
Neben dem OSI-Modell haben sich diverse andere Protokolle und Protokollfamilien, wie
z.B. TCP/IP durchgesetzt, die sich nicht unbedingt an den OSI-Standard halten.
Aufgrund ihrer Verbreitung und durch die Veröffentlichung der Definitionen sind sie
allerdings ebenfalls herstellerunabhängig.
Das OSI-Modell ist in der Theorie entstanden und deshalb nicht sehr praxisgerecht. Die
Forderungen sind oft schwer umzusetzen und Funktionen tauchen in mehreren
Schichten auf. Dadurch ist eine Eindeutige Zuordnung einzelner Funktionen oft nicht
möglich. Diese Probleme führen dazu, dass die Implementation meist sehr langsam
wird.
Weiterhin verliert das Modell immer mehr an Aktualität. Multiprotokollumgebungen,
parallel arbeitende Netzwerkkarten und intelligente Treibersoftware sind nur einige
Beispiele dis sich nicht mehr in das OSI-Modell zwängen lassen. Trotzdem erleichtert
das OSI-Modell immer noch das Verständnis von Zusammenhängen im
Netzwerkbereich. Deshalb taucht es auch sehr oft in Zusammenhang mit Erklärungen
auf, wenn auch in manchmal in abgewandelter Form.
Middleware
CORBA
Der Object Request Broker (ORB) ist das von ein universelles Kommunikationsmedium
für beliebig geartete Objekte in verteilten heterogenen Systemen. ORB zeichnet sich
durch folgende Eigenschaften aus:
• Objektorientierung.
Die grundlegenden Einheiten der Architektur sind Objekte, wobei ein Objekt eine
beliebige, eindeutig identifizierbare Einheit ist, also nicht notwendigerweise ein
Objekt im Sinne einer Programmiersprache.
• Verteilungstransparenz.
CORBA-Programme greifen auf entfernte Objekte mit denselben Mechanismen
zu, wie auf lokale Objekte. Der genaue Aufenthaltsort eines Objekts bleibt für
seine Klienten in der Regel unbekannt.
• Effizienz.
Die Architektur für den ORB ist bewusst so gehalten, dass effiziente
Implementationen möglich sind, die z.B. im Falle rein lokaler Kommunikation
dem traditionellen Funktionsaufruf nur unwesentlich nachstehen.
• Hardware-, Betriebssystem- und Sprachunabhängigkeit.
Die Komponenten eines CORBA-Programms können auf verschiedenen
Betriebssystemen, Hardwarearchitekturen und mit verschiedenen
Programmiersprachen realisiert werden.
• Offenheit.
Über den ORB können Programme verschiedener Hersteller zusammenarbeiten
und sogar ORB's verschiedener Hersteller miteinander kommunizieren. Der
Anwender erhält dadurch die Freiheit, jede Komponente einzusetzen, die seinen
individuellen Bedürfnissen am besten gerecht wird. Softwareentwickler erhalten
die Chance, am zukunftsweise und unabhängig zu programmieren und Angebote
grosser Firmen mit spezialisierten Produkten zu ergänzen.
Die Spezifikation
Der ORB fungiert als Telefonzentrale in einem verteilten System. Er stellt Dienste für
die Initialisierung und Auffindung von Zielobjekten und für die Übermittlung von
Methodenaufrufen (requests) und deren Resultaten zwischen Clients und Zielobjekten
zur Verfügung.
Die Schnittstelle, die der Client sieht, ist unabhängig von der Position des Zielobjektes
und von der Programmiersprache, in der das Zielobjekt realisiert ist. Dieses Ziel wird
über die Schnittstellen-Definitionssprache IDL (Interface-Definition-Language) erreicht.
Diese beschreibt Zielobjekte mit ihren Methoden und Attributen (Werten) in einer
programmiersprachenunabhängigen Form, die aber keinerlei Anweisungen enthält. Die
Bereitstellung der Dienste des ORB erfolgt in Form von Objekten, die ebenfalls mit Hilfe
der IDL definiert wurden.
Die IDL ähnelt der Struktur von in C++ realisierten Klassendefinitionen. Das CORBA-
Objektmodell unterstützt Einfach- auch und Mehrfachvererbung, Attribute und
Methoden können allerdings nicht überladen werden. Aus der Beschreibung eines
Zielobjektes mittels IDL erstellt der IDL-Compiler IDL-Stubs (werden für den Aufrufer
benötigt) sowie IDL-Skeletons (für die Objektimplementierung benötigt) in der
verwendeten Programmiersprache.
Ein Methodenaufruf spezifiziert einen Methodennamen, das Zielobjekt, Parameter und
einen optionalen Kontext. Dieser Kontext enthält Informationen über die Position des
Aufrufers. Ausserdem werden hier eventuelle Fehlerrückmeldungen übergeben. Ein
Client hat zwei Möglichkeiten einen Methodenaufruf an ein Zielobjekt zu übermitteln:
• über den vom IDL-Compiler erstellten IDL-Stub, der zur Kompilierzeit zu seinem
Code dazugebunden wird.
• über eine Abfrage des ORB nach Informationen über vorhandene Schnittstellen
und Objekte. Mit diesen Informationen kann der Client mit Hilfe des Dynamic
Invocation Interface (DII) dynamisch einen Methodenaufruf aufbauen und
übermitteln.
Zusätzlich kann ein Client verschiedene Dienste des ORBs über das ORB Interface
nutzen (Objekte erstellen und löschen, Referenzen bzw. Namen von Objekten zur
Wiederauffindung abfragen, u.a.). CORBA ist prinzipiell auf synchrone
Nachrichtenübermittlung ausgelegt. Das heisst eine Aufruf an ein Objekt wird es mit der
Rückgabe der Wert beendet.
Es kann aber ein One-way-request ausgelöst werden, bei dem der Aufrufer die
Beendigung nicht abwarten muss, es dürfen aber von der Methode keine Ergebnisse
zurückgeliefert werden. Zudem kann ein 'deferred synchronous request' erzeugt
werden, bei dem der Aufrufer weiterarbeiten kann und später das Ergebnis der
Methodenausführung abfragt.
Netzwerk-Topologien
Busstruktur
Ringstruktur
Sternstruktur
Hierarchische Struktur
Allen LAN-Typen ist gemein, dass man für den Anschluss an das Netzwerk natürlich
über entsprechende Hardware, in den meisten Fällen eine Netzwerkkarte des jeweiligen
Typs im lokalen Rechner, verfügen muss.
Ethernet
Das Ethernet wurde 1973 am Xerox PARC als Teil eines umfangreichen
Forschungsprojektes für verteilte Systeme entwickelt und sollte die Vorteile einer
schnellen, lokalen Vernetzung mit niedrigen Fehlerraten und ohne Verzögerungen
aufzeigen.
Auf Grund seiner Einfachheit hat Ethernet bis heute eine starke Verbreitung gefunden
und ist in seinen Variationen in sehr vielen LANs anzutreffen.
Thick Ethernet
Das Original-Ethernet (festgelegt im Standard IEEE 802.3) besteht aus einem Koaxial-
Kabel mit einem halben Zoll (1,27 cm) Durchmesser, an das die Rechner über
sogenannte Transceiver angeschlossen sind. An jedem Ende des Kabels befindet sich
ein Endwiderstand von 50 Ohm, der auch als Terminator bezeichnet wird (siehe
Abbildung). Über ein derartiges Netzwerk lassen sich Geschwindigkeiten bis 10 Mbps
(Megabit pro Sekunde) erreichen.
Ein Kabel mit einem derartigen Durchmesser ist etwas unhandlich, daher wird diese Art
des Ethernets auch als Thick Ethernet oder 10Base5 bezeichnet.
Das beim Thin Ethernet verwendete Koaxialkabel ist dünner, billiger und einfacher zu
handhaben. Der Anschluss an die Netzwerkkarte des Rechners erfolgt über ein
sogenanntes T-Stück, an das links und rechts ein Netzwerkkabel angeschlossen wird,
während die "untere" Seite des T's mit der Netzwerkkarte verbunden ist.
Am Anfang und am Ende des Kabelstrangs befinden sich auch hier Endwiderstände
von 50 Ohm. Die Steckverbindungen erfolgen über BNC-Anschlüsse. Mit einem Thin
Ethernet kann man Geschwindigkeiten bis 10 MBit erreichen.
10BaseT
Im Gegensatz zum normalen Thin-Ethernet mit seiner Busstruktur ist ein 10BaseT-Netz
sternförmig aufgebaut. Von einem Verteiler, dem sogenannten Hub, führen Twisted-
Pair-Kabel zu den einzelnen Rechnern. Der Anschluss erfolgt über RJ45-Stecker, wie
sie auch oft bei Telefonen verwendet werden.
Diese Verkabelungsart beseitigt einen gravierenden Nachteil der Busstruktur. Wird der
Bus nämlich an einer Stelle unterbrochen (sei es durch ein defektes Kabel oder eine
übereifrige Reinigungskraft), ist das Netzwerk vollständig lahm gelegt. Bei einer
sternförmigen Verkabelung ist bei einem Kabelschaden nur ein Rechner betroffen, die
anderen können ganz normal im Netz weiterarbeiten.
Wäre 10BaseT nicht aufwendiger und teurer als die Koaxialverkabelung, wäre letztere
sicher schon ganz von der Bildfläche verschwunden.
Der Aufbau eines Fast Ethernets ähnelt stark dem eines 10BaseT-Netzes. Jedoch
müssen aufgrund der höheren Datengeschwindigkeit von 100 Mbps aufwendigere
Twisted-Pair-Kabel der Kategorie 5 verwendet werden. Neben dem Hub müssen
natürlich auch die eingesetzten Netzwerkkarten für eine Geschwindigkeit von 100 Mbps
vorgesehen sein.
Gigabit Ethernet
Übertragungsraten von bis zu 1000 Mbps erreicht man mit Hilfe von geschirmten
Kabeln (Shielded Twisted Pair - STP) bzw. Glasfaserleitungen. Netzwerkkarten und
Hubs für derartige Geschwindigkeiten müssen wesentlich aufwendiger konstruiert sein
und sind dementsprechend teuer.
Da kaum ein Rechner einen Datenstrom von 1 Gbps (enspricht 125 MByte pro
Sekunde!) verarbeiten kann, werden Gigabit Ethernets vor allem als Backbone-
Leitungen verwendet, die ganze Netzwerke miteinander verbinden.
Die folgende Tabelle zeigt eine Übersicht über alle Ethernet-Varianten:
Ethernet- Anschluss am
Geschw. max.Länge Struktur Kabelart
Typ Rechner
Funktionsweise
Neben der Verkabelung ist es natürlich interessant zu wissen, was auf einem Ethernet-
Kabel eigentlich passiert. Jedes Gerät im Ethernet hat eine eindeutige Hardware-
Adresse von 6 Bytes Länge, die auch als MAC-Adresse bezeichnet wird. Diese Adresse
hat nichts mit den IP-Nummern des TCP/IP-Protokolls zu tun (zumindest nicht direkt)
und auch nicht mit den Computern der Firma Apple (auch nicht indirekt). Pakete im
Ethernet enthalten immer die Hardware-Adresse des Senders und des Empfängers.
Das Versenden von Daten erfolgt über sogenanntes Packet Broadcasting, d.h jedes
Paket wird einfach auf das Kabel gesendet. Alle anderen Stationen erhalten bzw.
`sehen' dieses Paket, es wird jedoch nur von dem festgelegten Empfänger
entgegengenommen und verarbeitet.
Wenn zwei Stationen gleichzeitig Daten senden, kommt es konsequenterweise zu
Paketkollisionen (Natürlich rumst es nicht im Kabel, sondern die elektrischen Impulse
der beiden Sender überschneiden sich und werden damit unbrauchbar). Das Ethernet
definiert drei Varianten, mit diesem Verhalten umzugehen:
Die Stationen "lauschen" ständig am Bus und merken so, ob auf dem Kabel
Datenverkehr stattfindet. Eine Station sendet erst, wenn keine Signale mehr auf dem
Kabel liegen, um die laufende Übertragung nicht zu zerschmettern.
Sollten zwei Stationen genau zum selben Zeitpunkt mit dem Senden beginnen, kommt
es trotzdem zur Kollision. Während eine Station sendet, prüft sie gleichzeitig auf dem
Empfangskanal, ob die Signale korrekt versendet wurden. Da alle Stationen im Netz
einschliesslich der Sendenden die Signale empfangen, stellt dies kein Problem dar.
Erkennt die sendende Station nun, dass die Daten nicht korrekt übertragen werden,
handelt es sich wahrscheinlich um eine Kollision. Die sendende Station schickt ein
Kollisionssignal in das Kabel, was bewirkt, dass alle Stationen im Netz ihre
Sendetätigkeit abbrechen (die ja vorhanden sein muss, sonst hätte es keine Kollision
gegeben). Nach einer zufällig bestimmten Zeit, versucht die Station wieder zu senden.
Die andere Station, mit der es zur Kollision kam, hat eine andere Zufallszeit ermittelt
und wird dann merken, dass das Netz bereits belegt ist. Sollten beide Stationen
trotzdem wieder zur selben Zeit senden, was extrem unwahrscheinlich ist, beginnt das
Spiel eben wieder von vorn.
Als Sicherungsmassnahme wird die Prüfsumme eines Ethernet-Paketes (korrekt heisst
es Ethernet-Frame) mit dem tatsächlichen Inhalt verglichen. Kommt es dabei zu
Unstimmigkeiten, wird das Paket vom Empfänger abgewiesen.
Token Ring
Token-Ring-Netze wurden relativ früh entwickelt, sind jedoch nicht so stark verbreitet
wie andere LAN-Technologien. Die logische Struktur dieses Netztyps entspricht, wie der
Name schon sagt, der eines geschlossenen Ringes. Die tatsächliche Struktur muss
dem nicht entsprechen, Token-Ring-Netze sind auch mit sternförmiger Verkabelung
möglich. Beschränken wir uns aber auf die Art der Datenübertragung.
Um die Funktionsweise von Token-Ring-Netzwerken zu verstehen, kann man das
Beispiel eines Güterzuges heranziehen, der immer wieder eine Kreisstrecke befährt und
regelmässig an allen Stationen vorbeikommt. Die Lokomotive stellt hierbei das
sogenannte Token-Paket \index{Token} dar. Je nachdem ob Waggons, also Daten,
angehangen wurden, wird die Lokomotive als frei oder belegt gekennzeichnet. Möchte
eine Station nun Daten versenden, prüft sie, ob das Token frei ist. Ist dies der Fall, wird
das Token als belegt gekennzeichnet, mit der Zieladresse versehen und die Daten
angehängt. Unser Zug fährt weiter im Kreis, bis er die festgelegte Zielstation erreicht hat
und trennt sich dort von seinen Daten. Das Token wird wieder als frei gekennzeichnet
und kann erneut Daten transportieren.
So geht das Token ständig von Rechner zu Rechner. Ist der Inhalt des Datenpakets
nicht für den jeweiligen Rechner bestimmt, sendet er das Token weiter. So ist
gewährleistet, dass jede Station die gleichen Chancen hat, Daten senden zu können.
Anders als beim Ethernet gibt es hier nicht das Problem mit den Paketkollisionen, da ja
immer nur ein Paket unterwegs ist.
FDDI
Die Abkürzung FDDI steht für Fiber Distributed Data Interconnect. Dieser Netzwerktyp
überträgt seine Daten nicht über Kabel, sondern über Lichtimpulse auf
Glasfaserleitungen. Dies hat den Vorteil, dass die Datenübertragung nicht durch
elektromagnetische Störungen beeinflusst werden kann, ausserdem ist mit
Lichtimpulsen eine höhere Datenübertragunsrate möglich als bei elektrischen Signalen.
Ein FDDI-Netz ist ein Token-Ring-Netzwerk \index{Token Ring} mit einer Bandbreite
von 100 Megabit pro Sekunde. Um Störungen automatisch beheben zu können, besteht
ein FDDI-Netz aus zwei in entgegengesetzte Richtungen laufenden Ringen. Der
Datenverkehr erfolgt wie bei jedem Token-Ring-LAN über ein Token, dass ständig im
Kreis läuft. Im normalen Betrieb wird von den zwei vorhandenen Ringen lediglich einer
genutzt.
Interessant wird das Verhalten von FDDI, wenn ein Hardware-Fehler im Netz auftritt.
Wenn ein Gerät bemerkt, dass eine Kommunikation zu einem anderen Gerät im Netz
nicht möglich ist, benutzt es automatisch den zweiten Ring, um den aufgetretenen
Defekt zu umgehen. Wird der Ring also aus welchen Gründen auch immer an einer
Stelle unterbrochen, leiten die zwei benachbarten Station den Datenverkehr
automatisch auf den zweiten Ring um.
Mittels geeigneter Regeln wird in Netzwerken die Art und Weise der Datenübertragung
zwischen den angeschlossenen Rechnern und dem Netzwerk festgelegt. Die allgemein
als Protokoll bezeichneten Regeln legen im speziellen Fall des Netzwerkprotokolls die
Form, das Format und die Übernahmeart der Daten fest.
Sie sind zudem verantwortlich für eine eventuelle Aufspaltung und das Verpacken der
von den oberen Schichten (Schicht 7-5 nach dem OSI- Referenzmodell) gesandten
Daten, das Finden geeigneter Transportwege im Netz, die Überwachung der
Übertragung und für die anschliessende Zusammenführung und Zustellung an den
Empfänger. Netzwerkprotokolle kann man also im wesentlichen der 4. und 3. OSI-
Schicht, also der Transport- und der Netzwerkschicht zuordnen. Wichtige
Netzwerkprotokollarten sind:
• NetBIOS
• TCP/IP
• IPX/SPX
• AppleTalk
• ODI
• NetBEUI
• CCITT X.25
TCP/IP
NetBIOS
Das sogenannte Network Basic Input/Output System kurz NetBIOS Software- Modul ist
eine Standard-Schnittstelle, die den Zugriff der einzelnen Stationen im Netz auf die
vorhandenen Betriebsmittel, wie Drucker, Streamer usw. regelt.
Das NetBIOS ist auf den Netzwerkkarten implementiert und wird häufig auch als
Application Programmer Interface kurz API oder Anwenderschnittstelle bezeichnet, da
sie die vom Anwender an das Netzwerk gerichteten Aufrufe entsprechen weiterleitet.
NetBIOS arbeitet auf der Transportschicht (Ebene 4 der OSI-Schichten) und überwacht
unter anderem den Datenverkehr mittels entsprechender Fehlerprotokolle.
IPX/SPX
Das Internetwork Protocol Exchange kurz IPX gehört ebenso wie das NetBIOS zu den
Anwenderprogramm-Schnittstellen und wird vom NetBIOS für die Übertragung der
Daten verwendet. IPX ist auf der Netzwerkschicht (Ebene 3 der OSI-Schichten)
angesiedelt und übernimmt die Aufspaltung der Daten in entsprechende Datenpakete
und deren Wiederzusammenführung.
Das Sequenced Packed Protocol Exchange kurz SPX ist eine Erweiter- ung des IPX
und überwacht mittels entsprechender Fehlerprüfungen die korrekte Übertragung der
Daten. IPX/SPX benötigt zwingend das Netzwerkbetriebssystem NetWare der Firma
Novell.
AppleTalk
AppleTalk ist eine von Apple Computer entwickelte Netzwerkprotokoll- familie für die
hauseigenen Computer. Mittlerweile ist AppleTalk auch auf anderen Systemen
einsetzbar und kann zur Datenübertragung sowohl Ethernet als auch das Token-Ring-
Verfahren nutzen.
Mit AppleTalk eingerichtete Netzwerke zeichnen sich durch Komfort, grosse
Bedienerfreundlichkeit, einfache Fehleranalyse und leichte Erweiterbarkeit aus.
AppleTalk arbeitet auf den Ebenen 7-3 des OSI-Schichtenmodells.
Telekommunikation Hardware
In einem Netzwerk kommt es immer wieder vor, dass Netzwerksegmente erweitert oder
ausgebaut werden müssen. Nachfolgend werden Ideal-Typen beschrieben, die in dieser
Form allerdings selten vor kommen. Meistens handelt es sich um eine Kombination aus
zwei Geräten.
• Repeater
• Bridge
• Router
• Switch
• Hub
• Gateway
• NIC
• Ringleitungsverteiler
Repeater
Bridge
Eine Bridge arbeitet auf der Sicherungsschicht(Schicht 2) des OSI-Modells. Durch eine
Bridge kann ein überlastetes Netzwerk in Segmente aufgeteilt und wieder
zusammengeführt werden. Eine Bridge legt sich eine Datenbank aller Stationsadressen
an. Anhand der dieser Daten entscheidet die Bridge, ob die empfangene Datenpakete
in ein anderes Netzwerksegment weitergeleitet wird oder nicht.
Mit der Zeit kann dann die Bridge immer besser entscheiden, in welches Segment die
ankommenden Daten gehören. Eine Bridge arbeitet aber nur dann sinnvoll, wenn zwei
Netzwerk-Segmente verbunden werden sollen, aber der meiste Datenverkehr innerhalb
der beiden Segmente stattfindet.
Router
Ein Router ist ein Gerät mit mindestens zwei Netzwerkanschlüssen. Er arbeitet auf der
Vermittlungsschicht(Schicht 3) des OSI-Modells. Ein Router ermöglicht es mehrere
Netzwerke mit unterschiedlichen Protokollen und Architekturen zu verbinden. Über die
sogenannte Routingtabelle entscheidet ein Router, welchen Weg ein Datenpaket
nimmt. Die Routingtabelle enthält folgende Angaben:
• alle bekannten Netzwerkadressen
• Verbindungsarten in andere Netzwerke
• Weginformationen zu anderen Routern
• Verbindungskosten
Anhand dieser Informationen entscheidet ein Router über den Weg, den ein Datenpaket
nimmt. In der Routingtabelle werden auch die Anzahl der Zwischenstationen für ein
Datenpaket gespeichert, das es für das Erreichen des Ziels benötigt.
Ein Gateway verbindet zwei Netzwerke miteinander, die zueinander inkompatibel sind.
Ein Gateway setzt die Protokolle und die Adressierung in das jeweilige Ziel-Netzwerk
um. Dabei kann es vorkommen, das es je nach Anforderung speziell konfiguriert oder
neu entwickelt werden muss.
Switch
Ein Switch arbeitet auf der Sicherungsschicht(Schicht 2) des OSI-Modells. Ein Switch
schaltet direkte Verbindungen zwischen den angeschlossenen Geräten. Auf dem
gesamten Kommunikationsweg steht die gesamte Bandbreite des Netzwerkes zur
Verfügung.
Empfängt ein Switch ein Datenpaket, so sucht er in seinem Speicher nach der
Zieladresse(MAC), und schickt dann das Datenpaket nur an diesen Port. Während zwei
Ports miteinander kommunizieren können zwei Ports parallel Daten austauschen. Im
Idealfall kann ein n-Port-Switch n/2 Datenpakete(Frames) gleichzeitig vermitteln. Die
MAC-Adresse lernt ein Switch mit der Zeit kennen. Die Anzahl der Adressen, die ein
Switch aufnehmen kann, hängt ab von seinem Speicherplatz. Switches unterscheidet
man hinsichtlich ihrer Leistungsfähigkeit mit folgenden Eigenschaften:
• Anzahl der speicherbaren MAC-Adressen
• Verfahren, wann ein empfangenes Datenpaket weitervermittelt wird
• Latenz der vermittelten Datenpakete
Hub
Ein NIC ist ein Netzwerkadapter. In einem Computer handelt es sich um eine
Netzwerkkarte, die es ermöglicht auf ein Netzwerk zuzugreifen. Ein NIC arbeitet auf der
Bitübertragungsschickt(Schicht 1) des OSI-Modells.
Jeder NIC hat eine Hardware-Adresse, die es auf der Welt nur einmal gibt. Anhand
dieser Adresse lässt sich der Netzwerkadapter zweifelsfrei identifizieren. Allerdings
muss eine Netzwerkkarte nicht fest in einem Computer eingebaut sein. Es gibt auch,
wie auf dem Bild links zu sehen, Netzwerkadapter, die sich über den USB an einen
Computer anschliessen lassen.
Wissen
o Führung
o Globalisierung und Informationstechnologie
o Komplexität
o Kunden
o Strategie
• Kommunikation
! 10 Regeln fuer Pressearbeit
! Bewertungskreterien fuer Kurzreden
! Das Interview
! Das Statement
! Der Vortrag
! Die Podiumsdiskussion
Führung
Führung beschreibt immer einen sozialen Prozess. Dieser Prozess vollzieht sich in
privatwirtschaftlich organisierten Industriegesellschaften unter bestimmten
Bedingungen. Der Zweck der Produktion bzw. der Dienstleistung liegt in der Nachfrage-
bzw. Bedürfnisbefriedigung für einen anonymen Markt. Das Motiv des einzelnen, in
Unternehmen zu arbeiten, ist der Arbeitslohn.
Zweck, Ziel und individuelles Motiv sind bei den Beschäftigten in Organisationen und
Unternehmen also entkoppelt. Zwecke und Ziele werden von der Unternehmensführung
angeordnet und damit fremdbestimmt. Um die Identifikation der Beschäftigten mit den
Zielen sicherzustellen, wird ein Regel-, Anreiz- und Motivationssystem aufgebaut. In
diesem Sinne ist Führung immer eine gewollte und zielgerichtete
Verhaltensbeeinflussung.
Einheitliches und zielgerichtetes Handeln der Unternehmensmitglieder soll durch
Personen durchgesetzt werden, die mit entsprechender Macht ausgestattet sind. Diese
Personen können ihre Macht über ihre Eigentümerfunktion oder über Delegation
erhalten haben wie etwa angestellte Manager. "Die traditionelle Form, mit deren Hilfe
Koordinationen von Handlungen sichergestellt werden sollen, ist die Etablierung
hierarchischer Rollenschemata."
Doch wer das Verhalten anderer Menschen oder soziale Prozesse zielgerichtet
beeinflussen soll oder will, muss mit einer Paradoxie leben. Managerinnen und
Manager erhalten Verantwortung für ein hochkomplexes System, das sie gar nicht in
einem linear-kausalen Sinne steuern können. Schon allein deshalb nicht, weil
Menschen in Organisationen in der Regel nicht auf ihre Autonomie, auf Eigenitiative
und Kreativität verzichten.
Die traditionellen Bilder von Führungspersönlichkeiten haben auch die Illusion genährt,
dass die Personen an der Spitze von Unternehmen den grössten Überblick haben,
mithin über die wesentlichen Informationen zur "Lenkung" von Organisationen verfügen.
In der Praxis müssen Managerinnen und Manager eher mit Risiken, mit Ungewissheit
und Unvorhersagbarkeit leben, sind auf die Urteile und Einschätzungen anderer
angewiesen.
Die Voraussetzung für effektives und situationsgerechtes Handeln in Organisationen ist
die Entwicklung eines funktionierenden Systems direkter Kommunikation und der
Koordinierung der Aufgaben. Um dies zu bewerkstelligen, müssen Organisationen
notwendigerweise wegkommen von starren hierarchischen Gliederungen hin zu kleinen,
autonomen und selbstorganisierten Einheiten, die zeitweise und aufgabenbezogen
arbeiten. In der Praxis erfolgreiche Modelle sind Gruppenkonzepte wie Projektgruppen
und Quality Circles, bei denen interdisziplinär und über Hierarchieebenen hinweg
Aufgaben gelöst werden. Die Stärke von solchen Gruppen liegt beispielsweise darin,
dass sie die Komplexität der relevanten Umwelten besser abbilden können und
verschiedene Sichtweisen auf Probleme und Aufgaben liefern. Ein dazu passendes
Führungsverständnis nimmt Abschied von einer Personen-und Rollenzentrierung und
betont die Prozessorientierung.
Auch die Identifikation mit den Organisationszielen ist kein einseitiger steuerbarer
Prozess. Identifikation, Motivation und Leistungsbereitschaft von
Organisationsmitgliedern hängen wesentlich davon ab, ob ihre Bedürfnisse in Bezug
auf die Arbeit befriedigt werden: Selbstverwirklichung, Entfaltung von Fähigkeiten,
Anerkennung, Mitbestimmung, aber auch Aufstiegschancen, ein sicherer Arbeitsplatz,
eine gute Bezahlung und so weiter.
Bei der Identifikation ist ein grundlegender Konflikt zwischen Mitarbeitern und
Unternehmen im Blick zu behalten. Organisationen müssen auf die Austauschbarkeit
von Mitarbeitern achten, wichtige Prozesse so gestalten, dass sie nicht von einer
bestimmten Person abhängig werden. Andererseits müssen sie dafür sorgen, dass die
Mitarbeiterinnen und Mitarbeiter eng an die Organisation gebunden sind, sich mit ihren
Zielen identifizieren. Eine Lösung ist, die Zugehörigkeit und Nichtaustauschbarkeit auf
der Beziehungsebene zu sichern, während die Austauschbarkeit auf der inhaltlichen
Ebene der ausgeübten Funktionen gewährleistet wird.
Strukturelle Führung
Ein in der Praxis weit verbreitetes Modell ist die Führung durch Zielvereinbarung
("Management by objectives"). Dieses innerbetriebliche Steuerungssystem hat den
Zweck, die einzelnen Unternehmensteile auf ein gemeinsames Ziel hin zu koordinieren.
Kernidee ist, durch spezifische Ziele für klare Orientierung zu sorgen, den Weg zum Ziel
aber frei zu geben – und somit eine stärkere Selbstorganisation und auch
Selbstkontrolle zu ermöglichen.
Damit versucht dieses Führungsmodell, den Bedürfnissen von Beschäftigten nach
sinnvoller Arbeit, Autonomie, Mitverantwortung und Mitbeurteilung des
Leistungserfolges gerecht zu werden. Gebert und von Rosenstiel verweisen auf
Analysen, nach denen mit zunehmender inhaltlicher Spezifizierung des Zieles die
Leistung der Mitarbeiter steigt. Ausserdem führe das Setzen höherer bzw.
anspruchsvollerer Ziele zu höheren Leistungsergebnissen.
Wichtigstes Instrument dieser Führungsmethode sind Zielabsprachen zwischen
Mitarbeiter(innen) und Vorgesetzten. Sie erfordern Transparenz der Zielsetzung und die
"Übersetzung" von Oberzielen auf die jeweils nächsten Ebenen. Vorgesetzte müssen
dabei von der Vorstellung abrücken, dass sie (allein) die Ziele kennen, die
Anweisungen zu ihrer Realisierung geben und das Ergebnis kontrollieren. In der
Führung durch Zielvereinbarung werden Ziele quasi objektiviert und den
Mitarbeiterinnen und Mitarbeitern die Möglichkeit gegeben, sie eigenverantwortlich in
Aufgaben umzusetzen. Ein mögliches Probleme dabei ist, ob Vorgesetzte es von ihrem
Selbstbild "verkraften" können, wenn Mitarbeiter die Aufgaben auf ihre eigene Weise
lösen.
Führungstil
Varianten:
Führungsstil Charakterisierung
"autoritär" Vorgesetzter entscheidet, setzt durch, notfalls Zwang
"partriarchalisch" Vorgesetzter entscheidet, setzt mit Manipulation durch
"informierend" Vorgesetzter entscheidet, setzt mit Überzeugung durch
"beratend" Vorgesetzter informiert, Meinungsäusserung der Betroffenen
"kooperativ" Gruppe entwickelt Vorschläge, Vorgesetzter wählt aus
"partizipativ" Gruppe entscheidet autonom, in vereinbartem Rahmen
"demokratisch" Gruppe entscheidet autonom, Vorgesetzter als Integrator,
Koordinator
Als Führungsstile bezeichnet man typische Verhaltensmuster der Managerinnen und
Manager. Die Kritik am hierarchisch autoritären Führungsstil bezieht sich meist auf die
Betonung der Hierarchie, auf die geringen Einflussmöglichkeiten der Mitarbeiter, auf
Zwang und Sanktionen, auf Angst von Mitarbeitern, Fehler zu machen usw. Zumeist
positiv werden die kooperativen, demokratischen Führungsstile beschrieben, etwa mit
den Kriterien: Verzicht auf Machtausübung seitens der Vorgesetzten, Mitbestimmung,
offene Kommunikation, Angstfreiheit, Aufbau von Vertrauensbeziehungen usw.
Empirisch stellte eine Studie von Seidel im deutschsprachigen Raum fest, dass die
"kooperative" Führungsform der "direktiven" tendenziell überlegen sei, betonte aber
gleichzeitig, "dass dies deutlicher für die Bewältigung kreativer bzw. innovativer
Aufgaben als für die Lösung von Routineaufgaben gelte."
Führungsstile geben in der Regel nur die grobe Richtung des Miteinander in Betrieben
an. Oft existieren in grossen Organisationen Mischformen oder verschiedene
Führungsstile nebeneinander. In einer Automobilfirma zum Beispiel herrscht am
Fliessband ein anderer Ton als in der Konstruktionsabteilung.
Um diesen unterschiedlichen Aspekten in Unternehmen gerecht zu werden, hat sich der
sogenannte "situative Ansatz" herausgebildet. Seine Prämisse: Es gibt keinen
optimalen Führungsstil für alle Bereiche und Situationen, deshalb sind bei der
Entscheidung für Führungsstile die spezifischen personen- und aufgabenbezogenen
Situationen zu berücksichtigen.
Die Wirklichkeit in Unternehmen scheint jedoch grauer als die Theorie. Viele Mitarbeiter
beklagen sich über mangelnde Transparenz, fühlen sich von den Chefs schlecht
behandelt, arbeiten unmotiviert und bringen keine eigenen Ideen ein. Die
"Therapievorschläge" dafür lauten: kurze Wege, konstruktive Rückmeldung, Sinn- und
Wissensvermittlung, klare Zielvereinbarungen sowie Chancen zur Mitwirkung und
Mitgestaltung.
Globalisierung und Informationstechnologie
Hoch in den Anden, in Cayambe, Ecuador, eine halbe Tagesreise von der Hauptstadt
Quito entfernt, treffen sich die Mädchen der oberen Mittelschicht jeden Tag nach der
Schule im örtlichen Cybercafé. Sie surfen im Internet, bestellen eifrig die neueste
amerikanische Teenagermode bei J. Crew und Abercombie & Fitch. Für diese Mädchen
und für Millionen anderer Menschen rund um den Globus ist die Globalisierung heute zu
einer profanen Alltagsangelegenheit geworden. Für sie sind Zeit, Entfernung, Sprache
und Kultur, die in der Vergangenheit das Leben des Einzelnen beschränkt und
Gemeinden und Nationen auf der Welt voneinander getrennt haben, durch Technologie
und Wirtschaft transzendiert worden.
Aber Globalisierung hat auch eine dunklere, weniger hoffnungsvolle Seite, die sich
während der von der Welthandelsorganisation (WTO) einberufenen Treffen der
Handelsminister der Welt manifestierte. Tausende Gewerkschaftsmitglieder, Umwelt-
und Dritte-Welt-Aktivisten und andere riegelten die Zentren der Treffpunkte (Seattle,
Davos, Prag ...) ab, um dagegen zu demonstrieren, was sie als die negativen Seiten der
Globalisierung ansahen: Arbeitslosigkeit, Verarmung, genmanipulierte Lebensmittel,
Zerstörung des Regenwalds und die Vereinheitlichung traditioneller Kulturen.
Die Globalisierung vertieft, verbreitert und beschleunigt die weltweite Vernetzung in
allen Bereichen des heutigen sozialen Lebens, von den kulturellen bis kriminellen, den
finanziellen bis spirituellen, wie der britische Soziologe Anthony Giddens in seinem
Buch "Runaway World" schreibt.
Für einige stellt dies eine neue Welt der Möglichkeiten und Hoffnungen dar. Für andere
ist es eine Welt, in der die Menschen immer weniger Kontrolle haben über die Dinge,
die ihr tägliches Leben am meisten betreffen. Weil die Globalisierung für
unterschiedliche Leute Unterschiedliches bedeutet und sogar für ein und dieselbe
Person Unterschiedliches, ist die aktuelle gesellschaftliche Diskussion über die
Globalisierung verwirrend und zeitweise verkrampft. Es gibt zahlreiche Anzeichen, dass
die öffentliche Debatte darüber in den kommenden Jahren noch komplizierter und
spalterischer werden wird.
Für Viele ist die Globalisierung vor allem die rasche Verbreitung des
marktwirtschaftlichen Kapitalismus in der ganzen Welt, begünstigt durch die
gegenwärtige Revolution in der Informationstechnologie. Sie ist eine unwiderstehliche
wirtschaftliche Kraft, angetrieben durch transnationale Produktions- und
Handelsnetzwerke, die die traditionellen sozialen und politischen Einheiten, nationale
Märkte und möglicherweise die Regierungsfunktion des Nationalstaats zerstören.
Aber Globalisierung ist weit mehr als nur ein wirtschaftliches Phänomen. Eine solche
Analyse erklärt nicht, was mit den Mädchen in Cayambe passiert ist. Der Unterschied,
den die Globalisierung in ihren Leben ausmacht, ist nicht so sehr wirtschaftlicher,
sondern vielmehr sozialer und psychologischer Natur. Diese jungen Frauen teilen
gemeinsame Vorlieben - die Kleider, die sie tragen, die Musik, die sie hören, die
persönlichen Hoffnungen und Sorgen - mit Gleichaltrigen auf der ganzen Welt. Ihre
Hoffnungen und Ängste nähren sich nicht nur aus ihrer direkten Umgebung, sondern
werden in Echtzeit durch die Ereignisse und Ideen, die ihren Ursprung irgendwo anders
auf dem Globus haben, geprägt. Ihre Ansichten von der Welt und ihrem Platz in ihr
werden durch das Internet, das Fernsehen und andere Informationstechnologien, die
noch niemals so breit zugänglich waren, geformt und rapide transformiert,
Dieses Globalisierungsbewusstsein berührt das Leben von weit mehr als nur von
vernetzten Teenagern eines Andendorfs. In einer Zeit, in der Kinder in Thailand T-Shirts
herstellen, die von französischen Hausfrauen getragen werden, in der Stahlarbeiter
mittleren Alters in Wheeling, West Virginia, ihre Jobs durch Importe aus Brasilien
verlieren und in der Treibhausgase von chinesischen mit Kohle betriebenen
Generatoren die Luftqualität in Japan beeinträchtigen, ist die Globalisierung eine
epochale technologische und kulturelle Transformation, die die Träume der Menschen
in allen Teilen der Welt beflügelt und sie mit Alpträumen verfolgt. Es fördert das Gefühl
der Entfremdung und Hoffnungslosigkeit. Und sie nährt zunehmend ihre politischen
Leidenschaften.
Öffentliche Meinung
Aber ist dies wirklich der Fall? Was weiss man eigentlich über die Einstellungen und
Gefühle der Menschen in Bezug auf die Folgen dieses Globalisierungsphänomens?
Globalisierung ist der rote Faden, der sich, ausgesprochen und unausgesprochen,
durch die öffentlichen Debatten über viele Themen hindurchzieht, von der Unsicherheit
des Arbeitsmarkts über die Belastungen der Familien bis hin zur Sicherheit der
Lebensmittel in den Regalen der Supermärkte. In Wirklichkeit jedoch ist herzlich wenig
über die Wechselwirkung dieser Zusammenhänge für die Bildung der öffentlichen
Meinung bekannt. Einzelne Umfragen über den Freihandel und die
Welthandelsorganisation sagen wenig darüber, wie die Globalisierung auf die
persönlichen Werte und Einstellungen einwirkt. Solange die Wechselwirkung von
rasantem internationalen wirtschaftlichen und technologischen Wandel und den
Gefühlen der Menschen über ihre Zukunft, ihre Gemeinschaft, ihr Familienleben und
ihre Religion nicht umfassender untersucht worden ist, wird es unmöglich sein,
herauszufinden, ob die Globalisierung nur ein vorübergehendes und relativ unwichtiges
Phänomen in der Menschheitsgeschichte oder die transformative Erfahrung ist, die viele
ihrer Befürworter in ihr sehen und die die Kritiker verteufeln.
Bis heute wurden nur einige umfassende Stichproben der öffentlichen Meinung in
Bezug auf die Globalisierung gemacht. Die wenigen tiefer gehenden Analysen über
amerikanische Einstellungen offenbaren, dass - einer Studie der Universität Maryland
von 1999 zufolge - eine grosse Mehrheit der Amerikaner (70%) sagt, sie habe von der
Globalisierung gehört. In einer gemeinsamen Umfrage der Kaiser Familienstiftung, der
Washington Post und der Harvard-Universität von 2000 gab nur etwas über die Hälfte
der Befragten (57%) an, "gut" oder "sehr gut" zu verstehen, was der Begriff bedeutet.
Dieses Verständnis verwandelt sich in gemässigt positive Ansichten, wenn
Globalisierung in allgemeinen Zusammenhängen präsentiert wird. In einer Gallup-
Umfrage von 1998 betrachteten mehr als die Hälfte der Amerikaner (54%)
Globalisierung als "überwiegend gut" für die Vereinigten Staaten 20% als "überwiegend
schlecht", 15% waren neutral.
Doch es kamen deutlichere Meinungen zutage, wenn die Befragten über die möglichen
Vor- oder Nachteile für spezifische Gesellschaftsgruppen befragt wurden. Die
Konsumenten, die Konzerne, die Wirtschaft und die Arbeitsplatzschaffung im Ausland
werden als die "Gewinner" einer zunehmend globalisierten Welt angesehen. Die
heimische Arbeitsplatzschaffung und die Umwelt werden auf der anderen Seite als die
"Verlierer" angesehen. Dies ist besonders das vorherrschende Gefühl bei geringer
verdienenden Amerikanern. In einer Untersuchung des Pew Research Centers von
1999 kam heraus, dass nur eine von drei Familien, in denen weniger als 50 000 Dollar
verdient wird, eine positive Einstellung zur Globalisierung hat.
In einer Umfrage von Business Week und Harris Interactive von 1999 meinte eine
solide Mehrheit, dass die Globalisierung "gut" für die Konsumenten sei (65%), für
amerikanische Unternehmen (65%), die Wirtschaft (61%) und die Arbeitsplatzschaffung
in armen Ländern (70%). Aber nur weniger als die Hälfte (47%) glaubten, dass die
Globalisierung gut für die Schaffung von Arbeitsplätzen in Amerika sei. Noch weniger
(38%) glaubten, dass sie gut für die Umwelt sei. Zusammengefasst belegen diese
Umfragen eine inkohärente und ambivalente öffentliche Meinung bezüglich der
Globalisierung.
Französische Umfrageinstitute haben ähnliche Fragen wie die amerikanischen Institute
gestellt: Die französische Bevölkerung äusserte grössere Bedenken über die
Globalisierung als die amerikanische. In einer im Jahr 2000 durchgeführten Umfrage
sagte die Hälfte der französischen Befragten, die Globalisierung sei für Frankreich
schlecht, während ein Drittel (36%) meinte, sie sei eine gute Sache. Die Globalisierung
gehörte auch mit zu den zehn modernen beängstigenden Phänomenen, denen sich
Frankreich gegenübersieht, auch wenn sie fast am Ende der Liste auf Platz neun steht.
Die Meinung mässigte sich, wenn genereller zur Globalisierung gefragt wurde.
Insgesamt meinte die Bevölkerung in Frankreich, die Globalisierung sei eher positiv
(47%) als negativ (40%).
Noch weniger wurde das Thema Globalisierung in Grossbritannien untersucht. Aber
eine im Jahr 1999 unter Studenten durchgeführte Umfrage ergab, dass nur 4%
glaubten, dass die zunehmende Globalisierung ihren Erfolg im Leben beeinflussen
würde.
Natürlich ist für die meisten Menschen Globalisierung ein zu abstraktes Konzept, als
dass es starke Gefühle hervorrufen könnte, in welche Richtung auch immer. Es sind die
sichtbaren Folgen des globalisierten Handels, der Investitionen, der Umweltschädigung
und ähnliche Themen, die die Menschen mit dem schnellen, international
herbeigeführten Wandel ihres Lebens in Verbindung bringen.
Diesbezüglich brachte eine vergleichende Studie von Angus Reid über internationalen
Handel in 14 Ländern im Jahr 1998 ein gemischtes Bild zum Vorschein, mit Teilen der
Bevölkerung, die zum Freihandel tendieren und andere zum Protektionismus. In
Russland und Japan zum Beispiel befürwortetet eine solide Mehrheit von 60 bzw. 59%
eine Ausweitung des Handels (nur 19 bzw. 37% zogen Protektionismus vor). In
Deutschland und Belgien sprach sich nur eine knappe Mehrheit von 53 bzw. 51% für
die Ausweitung des Handels aus (35 bzw. 33% wählten Protektionismus). Fast gleich
war die Meinung in folgenden Ländern verteilt: in Kanada waren 48% für den Freihandel
und 46% für Protektionismus; in Israel war das Verhältnis 48 zu 35, in der Ukraine 42 zu
45 und in Südafrika 48 zu 38. Protektionismus bevorzugten die Befragen in Frankreich
(50/44), in den Vereinigten Staaten (53/41), in Grossbritannien (51/36), Italien (58/33),
Südkorea (62/28) und Australien (70/24).
Die umfassendsten nationalen Studien in den Vereinigten Staaten über internationalen
Handel wurde für die Association of Women in International Trade durch EPIC/MRA
durchgeführt. Sie brachten durchweg wiederum zutage, dass eine Mehrheit der
Amerikaner Freihandelsabkommen befürwortet und glaubt, dass ausländische
Investitionen gut für amerikanische Arbeiter seien.
Sorgen und Ängste
Eine Folge der Globalisierung ist die zunehmende Sorge um Arbeitsnormen weltweit. In
einer Umfrage der National Consumers League von 1999 wurden Amerikaner gefragt,
ob sie als Konsumenten über Ausbeuterbetriebe und Kinderarbeit bei der
Warenproduktion beunruhigt seien. Sechs von zehn (61%) Befragten antworteten, dass
sie das sehr beunruhige. Gleichermassen wurde in einer im letzten Jahr von Newsweek
durchgeführten Umfrage herausgefunden, dass neun von zehn (87%) Amerikanern
über Kinderarbeit in Übersee beunruhigt seien, 55% davon sagten, dass sie sogar sehr
beunruhigt seien. In einer Umfrage der Universität Maryland von 1999 wurden
Amerikaner genauer gefragt, ob andere Nationen durch Gewerkschaftsforderungen die
Löhne anheben und Kinderarbeit abschaffen sollten. Acht von zehn (82%) waren der
Meinung, dass die Vereinigten Staaten dies von anderen Ländern erwarten könnten.
Bedenken gegenüber der Globalisierung wurden immer wieder in Form von Besorgnis
über den Zustand der globalen Umwelt manifest. In einer Gallup-Umfrage von 1998
stellte sich heraus, dass so gut wie alle Amerikaner (89%) meinten, dass die
Verbesserung der globalen Umwelt eine wichtige Sache sei, von denen sagte wiederum
die Hälfte (53%), dass es sogar eine sehr wichtige Sache sei. In einer Umfrage des
Pew Research Center von 1999 kam heraus, dass sechs von zehn Amerikaners (62%)
meinten, dass der Schutz der globalen Umwelt von oberster Priorität für die
amerikanische Regierung sein sollte.
Globalisierung hat auch Ängste bei Konsumenten geschürt, die über die Sicherheit
importierter Lebensmittel besorgt sind. In der Studie der Universität Maryland über
Globalisierung von 1999 wurde gefragt, ob die Europäische Union das Recht haben
sollte, die Einfuhr amerikanischen Rindfleischs von Rindern zu verbieten, denen
Wachstumshormone verabreicht wurden, auch wenn dies internationale
Handelsabkommen verletzten würde. Sechs von zehn (58%) sympathisierten mit der
EU, indem sie sagten, dass auch die Europäer amerikanisches Rindfleisch verbieten
können sollten. In ähnlicher Weise glaubten acht von zehn (81%) Amerikanern, dass
die EU und Japan die Kennzeichnung von genmanipulierten Lebensmitteln von den
USA sollten verlangen können, ungeachtet der Tatsache, dass die USA sagen, diese
Lebensmittel seien erwiesenermassen ungefährlich.
Leider ist über die Einstellungen und grundlegenden Werte, an denen sich die
Meinungen über Globalisierung orientieren, noch weniger bekannt. Das Dentsu Institute
for Human Studies in Japan hat vier vergleichende "Analysen globaler Werte" in Tokio,
New York, London und Berlin durchgeführt. Die Untersuchungen verfolgten die Trends
bei den Einstellungen zur Zukunft (eine Vielzahl von Amerikanern denkt, dass das
Beste noch kommen wird) und haben herausgefunden, dass in allen untersuchten
Ländern alle Menschen denken, dass Moral und Ethik sich verschlechtert haben, dass,
während in Deutschland und Japan die Menschen glauben, dass die
Arbeitsbedingungen sich verschlechtert haben, die Leute in den Vereinigten Staaten
und Grossbritannien der Meinung sind, dass sie sich verbessert haben und dass im
Hinblick auf Institutionen, die mit Problemen, die durch die Globalisierung entstehen,
umgehen können, der Privatsektor generell ein höheres Ansehen hat als der öffentliche
Sektor.
Doch überwiegend sagen uns diese Meinungsumfragen mehr über das, was wir nicht
wissen, als darüber, was wir wissen hinsichtlich der Auswirkungen der Globalisierung
auf die Familie und die geistigen Werte, auf die Einstellung der Menschen zur Arbeit
und Gemeinschaft, auf ihre Vorstellungen von einem angemessenen Lebensstandard,
auf ihre Auffassung von öffentlicher Moral und bürgerlichen Pflichten.
Auch sagt uns die bestehende Forschung wenig darüber, wie die Globalisierung die
Erwartungen der Menschen an Regierung, Wirtschaft und Bürgergruppen verändert hat,
welche wirtschaftlichen und sozialen Nöte die Menschen derzeit haben angesichts einer
globalisierenden Wirtschaft und auf wen die Öffentlichkeit schaut, um ihr bei der
Bewältigung der Probleme und dem Erreichen ihrer Ziele zu helfen.
Die Geschwindigkeit der Informationsrevolution hat zum Beispiel die seit langem
bestehenden Schranken beseitigt, die lange Zeit die eine Kultur von der anderen
abgeschirmt haben. Durch Auslandsinvestitionen, Handel und Fortschritte in der
Informationstechnologie erobert die "Kulturindustrie" eines Landes - Film, Musik,
Musikvideo, Software - problemlos andere Märkte. Die kulturellen Normen und Attribute
eines Landes haben sich in alle Teile der Welt ausgebreitet, sowohl symbolisch, wie
das goldene "M" von McDonald, als auch real, wie etwa die amerikanischen Standards
der Konzernführung.
Kulturelle Identität
Konsumenten, besonders die jungen, feiern diese Vielfalt, was durch die weltweite
Popularität von Hollywood-Filmen, Reggae und französischer Mode belegt wird. Aber
die wirtschaftliche Globalisierung kann bedeuten, dass die amerikanische Kultur und die
englische Sprache der übrigen Welt aufgezwungen werden und die reiche Vielfalt
unterschiedlicher Traditionen, Bräuche, Mythen und Moralvorstellungen, die lange Zeit
dazu beigetragen haben, die Identität eines jeden Landes und Region festzulegen,
überwältigen. Weil Kultur so viel mit Identität zu tun hat, manifestierte sich
Antiglobalismus oft als Antiamerikanismus.
Der kulturelle Impetus, der die Globalisierung vorantreibt, hat auch die Bindungen
gelöst, die den Menschen einmal die stark benötigte Vorstellung davon gegeben haben,
wer sie sind. Folglich gehen in vielen Ländern Globalisierungsängste und
Ausländerfeindlichkeit Hand in Hand.
Während diese Herausforderung, die die Globalisierung für die eigene Kultur bedeutet,
zum Prügelknaben der Globalisierungsgegner geworden ist, ist tatsächlich sehr wenig
bekannt über die Auswirkungen des rapiden wirtschaftlichen und technologischen
Wandels auf kulturelle Werte und Haltungen. Die Übernahme einiger kultureller
Manifestationen der Globalisierung, wie Fast Food und Rockmusik, legt im besten Fall
eine Ambivalenz hinsichtlich der Auswirkungen auf ihr Leben nahe. Dennoch: die
derzeitige Wiedergeburt des Interesses an regionalen Sprachen wie etwa Keltisch oder
Baskisch und des Spanischen als zweitwichtigste Sprache im Internet suggerieren,
dass es viel zu einfach wäre, davon auszugehen, dass die Globalisierung die Kulturen
um eine amerikanische oder englische Norm herum homogenisieren würde. Die
langfristigen Auswirkungen erfordern eine viel genauere Untersuchung.
Auch die Auswirkungen der Globalisierung auf die Haltung der Menschen zur
Regierungsfähigkeit werden noch kaum verstanden. Die Globalisierung hat
wirtschaftliche Erwartungen geschaffen, die wiederum Erwartungen der Öffentlichkeit
an die demokratischen Regierungen schüren, die jede Demokratie, besonders die im
Entstehen begriffenen, wohl nur schwerlich erfüllen kann.
Die Fähigkeit, eine gewisse Kontrolle über die Dinge, die das tägliche Leben
beeinflussen, auszuüben, war in der Geschichte immer die treibende Kraft bei
politischen Entscheidungen in der ganzen Welt. Aber wie zum Beispiel der Soziologe
Daniel Bell von der Harvard Universität bemerkt hat, ist der Nationalstaat heute oft zu
klein, um die grossen Probleme zu lösen, und zu gross, um die kleinen Probleme zu
lösen. Daher ist die Frage, wer den Menschen bei der Lösung ihrer Probleme hilft, von
zunehmender Bedeutung.
Die Globalisierung verändert naturgemäss den Ort der Kontrolle der Menschen. Die
Untersuchung "Der Puls Europas", die von der Times Mirror Corporation vor einem
Jahrzehnt in 17 Ländern durchgeführt worden ist, hat ergeben, dass sowohl Ost- als
auch Westeuropäer schon damals glaubten, dass der Erfolg im Leben massgeblich
durch Kräfte ausserhalb ihrer Kontrolle beeinflusst würde. Im Gegensatz dazu waren
die Amerikaner eher der Auffassung, dass sie ihr eigenes Schicksal beeinflussen
könnten. Es ist nicht bekannt, ob sich heutzutage das europäische Gefühl der
Machtlosigkeit durch die zunehmende Globalisierung der europäischen Wirtschaft und
Kultur eher verschlimmert oder verbessert hat, und ob die Globalisierung das
Machtgefühl der Amerikaner erschüttert oder beflügelt hat.
Auch ist nicht bekannt, was die Menschen als die grössten Herausforderungen
ansehen, die sich ihren Regierungen in dieser Globalisierungsära stellen - von wem sie
glauben, dass er die Entscheidungen fällt, die ihr tägliches Leben am meisten
beeinflussen: ihre regionale Regierung, ihre nationale Regierung oder eine
internationale Organisation, und welche Rolle sie für Nichtregierungsorganisationen wie
beispielsweise Umweltgruppen bei der Regierungsführung sehen.
In vielerlei Hinsicht ist trotz aller Strassenproteste und kluger veröffentlichter Kritik das,
was wir über Globalisierung nicht wissen, weit wichtiger als das, was wir wissen. Es
sind die Auswirkungen des rasanten internationalen wirtschaftlichen und
technologischen Wandels auf die Hoffnungen und Ängste der Menschen, ihre
Erwartungen für ihre Kinder, ihre Gemeinden und ihre Regierungen, die uns zeigen
werden, ob die Globalisierung ein evolutionärer oder revolutionärer Prozess ist. Am
wichtigsten dabei ist, dass wir nur dann, wenn wir die Folgen der Globalisierung auf die
Werte und Einstellungen der Menschen besser verstehen, zu erkennen beginnen, wie
diese ihre Erwartungen an Regierung und Gesellschaft beeinflussen. Da alle Menschen
auf der ganzen Welt mit dem global verursachten Wandel ihres Lebens zu kämpfen
haben, ist dies die Herausforderung der Zukunft.
Komplexität - vernetzt, dynamisch und undurchsichtig
Zum wichtigsten Instrument für komplexe Situationen gehört die Erkenntnis oder auch
Einsicht, dass man eine komplexe Situation oder ein komplexes Problem vor sich hat
und nicht nur ein einfaches Problem. So ist die einfache, schnelle Lösung im Normalfall
dann die Falsche.
In der Praxis läuft vieles anders als man es theoretisch erwarten würde oder man es
sich ausgedacht hat. So führen gedachte Verbesserungen zu tatsächlichen
Verschlechterungen. Oder man löst ein Problem und erzeugt viel neue Probleme damit.
Oder "richtige" Einzelentscheidungen führen trotzdem zur Katastrophe.
Immer wenn man es mit einer grossen Anzahl von Elementen zu tun hat, unter denen
es auch Abhängigkeiten gibt, hat man es mit grosser Wahrscheinlichkeit mit
Komplexität zu tun. Komplexität wird immer auch eine subjektive Komponente haben.
Was für einen Anfänger schon hochkomplex ist, ist für den Erfahrenen simple Routine.
Das Autofahren. Für den Fahrschüler sind sowohl die technische Koordination
von Schaltung, Kupplung, Gas und Bremse sehr schwierig oder gar das
Einschätzen einer etwas unübersichtlichen Verkehrsituation. Der routinierte
Autofahrer hingegen handhabt alle diese Probleme so leicht und schnell, dass er
schon gar nicht mehr darüber nachdenken muss.
Kundenportfolio
Die Unterschiede zwischen Kunden sind grösser als die Ähnlichkeiten, in bezug auf
das, was sie von Anbietern wollen und was Anbieter von ihnen bekommen. Dennoch
werden Kunden gleich behandelt. Warum? Weil Unternehmen nicht wissen, was der
einzelne Kunde wünscht, weil es zu teuer oder unmöglich erscheint, dem Kunden
genau das anzubieten, was er haben will?
Der technologische Fortschritt macht es möglich, One-to-One-Marketing zu betreiben:
Fokussierung auf einen kleinen, profitablen Kundenkreis, Aufbau langfristiger,
vertrauensvoller Beziehungen mit diesen Kunden und Verkauf massgeschneiderter
Produkte. Die Frage ist: Lohnt sich das? Ja, und zwar aus folgenden Gründen:
• Meist trägt nur ein kleiner Teil des Kundenkreises den grössten Teil zum
Unternehmensprofit bei (z.T. wird mit 20% der Kunden 120% der Gewinne
erwirtschaftet)
• Nur ein kleiner Teil des potentiellen Umsatzes mit einem Kunden wird
verwirklicht (im Bankenbereich 10-15%)
Es lohnt sich also, sich auf einen kleinen profitablen Kundenkreis zu fokussieren und
beispielsweise durch Cross-Selling den Umsatz mit diesen Kunden zu steigern, also
den eigenen Anteil am "Share of Wallet" des Kunden zu erhöhen.
Wie finde ich nun die Kunden, auf die ich mich fokussieren sollte? Über den Customer
Lifetime Value. Dieser Wert gibt an, welchen potentiellen Wert ein Kunde über seinen
Lebenszyklus für ein Unternehmen besitzt. Er umfasst nicht nur den Umsatz, den das
Unternehmen über die Jahre mit diesem Kunden generiert, sondern bezieht auch
sinkende Kosten bei der Kundenpflege, Veränderungen des Einkommens, Cross-
Selling und Gewinnung von Neukunden durch Empfehlung mit ein.
Der nächste Schritt nach der Bestimmung der wichtigsten Kunden gilt der Identifikation
der Charakteristiken dieser Kunden und der weiteren Kundensegmente. Diese Analyse
erlaubt die Entwicklung spezifischer Angebote für die Kunden, auch für die weniger
profitablen. Denn diese sind häufig eine notwendige Basis für das Unternehmen. Sie
bedürfen aber eines anderen, weniger aufwendigen Marketingansatzes.
Produktbildung
Hören Sie auf die Stimme des Kunden. Warum ziehen Kunden beim Kauf ein Produkt
einem anderen vor? Weil das Produkt einen höheren Wert für den Kunden besitzt. Dies
ist allgemein bekannt, werden Sie sagen. Wenn es nun um die Entwicklung neuer
Produkte oder Dienstleistungen geht, orientieren sich dann die Unternehmen an diesem
Wert? In den meisten Fällen lautet die Antwort: Nein. Denn oft fragen Unternehmen ihre
Kunden überhaupt nicht, obwohl nur diese wirklich die Antwort kennen. Oder sie fragen
die Kunden nach einzelnen Produkteigenschaften, obwohl Kunden bei Ihren
Kaufentscheidungen das Produkt als Ganzes bewerten. Oder sie fragen nach der
Kundenzufriedenheit.
Wenn Sie nach Kundenzufriedenheit fragen, fragen Sie aber nur Ihre aktuellen Kunden
- und nicht potentielle neue Kunden. Sie fragen nach den Erfahrungen mit existierenden
Produkten - und schauen damit in die Vergangenheit und nicht in die Zukunft. Sie
fragen nur nach der Zufriedenheit mit den eigenen Produkten - damit wissen Sie aber
nicht, wie die Produkte der Konkurrenten beurteilt werden, und dies ist die Messlatte.
Denn Ihre Kunden können sehr zufrieden mit Ihren Produkten sein. Wenn sie aber den
Produkten der Wettbewerber einen noch höheren Wert einräumen als Ihren eigenen,
bringt Ihnen das wenig.
Der Kunden-Wert-Ansatz geht weiter als der Kundenzufriedenheitsansatz. Er gibt Ihnen
mit Hilfe des Instruments der Conjoint-Analyse Antworten auf die Fragen, die Sie bei
der Produktentwicklung stellen:
• Was sind die wichtigsten kaufdeterminierenden Faktoren, auf die die Kunden
Wert legen, wenn sie zwischen Ihren Produkten und denen Ihrer grössten
Wettbewerber wählen?
• Wie beurteilen Kunden Ihre Leistung gegenüber Ihren Wettbewerbern bezüglich
der kaufdeterminierenden Faktoren?
• Welche anteilige Bedeutung hat jeder dieser Faktoren für den Kundenwert?
Und damit können Sie die Produkte und Dienstleistungen bestimmen, die aufgrund ihrer
Eigenschaften den im Markt höchsten Wert für den Kunden bedeuten - aber auch, wie
wertvoll die Marke oder der Lieferant ist und damit die Kundenbindung.
Kundenkontakt
Interaktionen zwischen Kunde und Unternehmen sind positiv für das Unternehmen.
Wenn der Kunde mit ihm in Kontakt ist, ist der Kunde noch sein Kunde. Je mehr
Interaktionen mit dem Kunden stattfinden, umso besser ist dies für das Geschäft.
Die Interaktionen mit dem Kunden sind für das Unternehmen aber problembehaftet.
Immer neue Medien wie E-Mail, Videokonferenzen oder Internet-Telefonie entstehen,
über die Kunde und Unternehmen in Kontakt treten können. Und die Kunden wollen
vielfach über diese Medien mit dem Unternehmen interagieren. Und für das
Unternehmen bieten diese Kanäle auch neue Chancen zur effizienten Kommunikation,
zur Vertiefung der Beziehung mit dem Kunden.
Es reicht aber nicht aus, einfach einen neuen Kontaktkanal einzurichten. Dieser muss in
das bestehende Interaktionsnetzwerk integriert werden. Und dies ist eine
Herausforderung für interne Organisationsstrukturen, Prozesse, Systeme. Doch das
interessiert den Kunden nicht. Er tritt in Interaktion mit einem Unternehmen und
erwartet, dass unabhängig vom Kontaktkanal eine Interaktion nach den gleichen
Geschäftsregeln abläuft, mit Mitarbeitern, die über den gesamten
Informationsbackground verfügen, die seine Bedürfnisse, die Beziehungshistorie
kennen.
Wissen managen
Wissen existiert in Ihrem Unternehmen und die meisten Ihrer Mitarbeiter haben keine
Kenntnis davon - und benutzen es deshalb nicht. Ihnen ist nicht bekannt, ob und wo
Wissen vorhanden ist und wie Sie an das Wissen gelangen. Und dies, obwohl für
diesen Wissenserwerb Kosten angefallen sind und obwohl das Wissen dringend
benötigt wird - es ein entscheidender Erfolgsfaktor ist.
Wissensmanagement ist heutzutage essentiell beim Kundenbeziehungsmanagement.
Dem Kunden zu geben, was er will - das ist das Ziel. Und woher weiss man, was der
Kunde will? Meistens vom Kunden selbst. Doch diese Informationen, die der Kunde an
das Unternehmen gibt, werden vielfach nicht aufgenommen, gespeichert oder anderen
Mitarbeitern bekannt gemacht. Und damit vergibt man eine grosse Chance: eine
besondere Verbindung zum Kunden aufzubauen mit Informationen, über die
Wettbewerber nicht verfügen können.
Wissensmanagement ist ein relativ neues Managementkonzept, aber es baut auf vielen
bekannten Instrumenten auf, wie der Prozessanalyse, Informationsplanung und dem
Change Management. Folgende Stufen sind bei der Implementierung zu
berücksichtigen:
• Analyse der Wissensanforderungen im Unternehmen: Welches Wissen wird an
welchen Stellen benötigt?
• Ist-Aufnahme des im Unternehmen vorhandenen Wissens
• Durchführung von Massnahmen und Design von Prozessen zu externem
Wissenserwerb und interner Wissensentwicklung
• Einführung von Wissensinput- (Selektion, Speicherung, Aktualisierung) und
Output-Prozessen (Verteilung)
• Definition der Anforderungen an unterstützende IT-Systeme;
• Auswahl und Einführung der Systeme
• Massnahmen zur Förderung einer offenen Unternehmenskultur, die den
Austausch von Informationen unterstützt
• Design eines Messinstrumentariums zur Bewertung des Erfolgs von
Wissensmanagementaktivitäten
Prozesse optimieren
Wenn Unternehmen den Weg in die neue Welt der Kundenbeziehungen antreten
wollen, werden sie häufig von Schatten aus der Vergangenheit daran gehindert: ihren
IT-Systemen.
Die alten Systemlandschaften können genau das nicht erfüllen, was Kernpunkt des
Kundenbeziehungsmanagements ist: Fokus auf den einzelnen Kunden mit seinen
spezifischen Eigenschaften und Bedürfnissen. Die Mitarbeiter benutzen verschiedene
Systeme mit unterschiedlichen Sichten auf den Kunden, je nach Produkt oder
Vertriebsweg, sie greifen auf unterschiedliche Informationen ohne gegenseitige
Verknüpfung und Abgleich zu. Zweck dieser Systeme war auch nicht die Kundenpflege,
sondern Automatisierung und Effizienzsteigerung. Folge dieser Situation: Die
Unternehmen besitzen viele der Kundeninformationen, die sie dringend brauchen, aber
sie können sie nicht richtig verwenden, weder im Kundenkontakt noch bei Analysen der
Datenbestände.
Fortschritte in der Informationstechnologie und ein neuer Fokus der Systemanbieter auf
die Prozesse mit Kundenorientierung haben zu einem Angebot an Systemen geführt,
mit denen die theoretischen Ansätze des Kundenbeziehungsmanagements umgesetzt
werden können. Diese Systeme werden die Beziehungen zwischen Anbieter und Kunde
grundlegend verändern:
• Data Warehouses und Data Marts erlauben die Extraktion von ungeordneten
(Kunden-) Informationen in eine konsistente strukturierte Datenbasis
• Mittels Ansätzen bzw. Tools wie Data Mining und OLAP kann die Datenbasis
analysiert werden
• Systeme wie Sales Force Automation unterstützen die Vertriebsmitarbeiter und
andere Organisationseinheiten mit Kundenkontakt (z.B. Call Center) beim
Management der Interaktionen mit Kunden.
Die technologischen Möglichkeiten sind vorhanden, die Projekte zur Einführung aber
anspruchsvoll. Der umfassende Charakter des Kundenbeziehungsmanagements
machen eine sorgfältige Systemauswahl, effektive Implementierung und einen
strategisch fokussierten Einsatz notwendig. Die Verantwortung für ein solches Projekt
muss bei der gesamten Unternehmensführung liegen und darf nicht einer einzelnen
Abteilung überlassen werden.
Seien Sie froh, wenn Sie Beschwerden bekommen, denn der überwiegende Teil der
Kunden beschwert sich überhaupt nicht, ehe sie Sie verlassen. Beschwerden geben
Ihnen eine zweite Chance:
• erfolgreiches Beschwerdenmanagement trägt zur Kundenloyalität bei
• Beschwerden liefern wertvolle Informationen über Kundenbedürfnisse und
eigene Schwachstellen
• Beschwerden eröffnen die Möglichkeit, negative Urteile, die an Dritte
weitergetragen werden, zu revidieren
Deshalb: Stimulieren Sie Ihre Kunden zu Beschwerden. Schaffen Sie interne Prozesse,
so dass der Kunde sich leicht und gerne beschwert. Entwickeln Sie eine gegenüber
Beschwerden positive Unternehmenskultur. Und binden Sie Ihre Mitarbeiter mit ein.
Denn sie haben den direkten Draht zum Kunden. Sie wissen, wo der Schuh drückt und
wie man die Probleme beheben kann.
Bleiben Sie aber nicht bei realen Beschwerden stehen. Auch der Verlust von Kunden ist
als (stumme) Beschwerde anzusehen. Kontaktieren Sie diese Kunden, befragen Sie sie
nach den Ursachen für ihre Entscheidung. Analysieren Sie diese Kunden, um ähnliche,
möglicherweise auch abwanderungsgefährdete Kunden zu identifizieren und
Gegenmassnahmen zu ergreifen.
Wenn Dienstleistungen erbracht werden, treten Fehler auf - dies ist nie ganz
vermeidbar. Und der Kunde ist dabei. Ein perfektes Zusammentreffen, um
Unzufriedenheit beim Kunden entstehen zu lassen. Doch Sie können dies verhindern.
Vielmehr können Sie die Loyalität des Kunden zu Ihrem Unternehmen stärken, wenn
Sie sich in dieser Ausnahmesituation bewähren. Durch die richtigen Massnahmen
unmittelbar nach Eintreten des Problems - mit Hilfe eines Krisen-Management-Systems.
Dessen Implementierung umfasst folgende Schritte:
• Identifikation der gravierendsten Problem-/Beschwerdesituationen (aus Kunden-
und Unternehmenssicht)
• Analyse dieser Situationen und Ausarbeitung der effektivsten
Reaktionsmassnahmen
• Umsetzung der erforderlichen Strukturveränderungen (Prozesse,
Organisationsstrukturen, Personalsystem)
• Erfolgskontrolle
Strategie, die; -,-n 1. längerfristiger Plan zur Erreichung eines Zieles, der versucht,
äussere Faktoren und Reaktionen zu berücksichtigen und das weitere Vorgehen darauf
einzurichten 2. (mil.) für bestimmte Kriegssituationen festgelegte mil. Vorgehensweise
3. langfristig angelegte Vorgehensweise, Überlegung zur mittel- und längerfristigen
Entwicklung.
(aus Langenscheidts Fremdwörterbuch)
Im Kontext mit der Unternehmensführung ist Strategie - trotz seiner heutigen weiten
Verbreitung - ein junger Begriff. Erst nach 1980 wurde Strategie zu einem zentralen
Begriff im Management.
Die Strategie wurde je nach dem gerade modischen Schlagwort mit Erfahrungskurve,
Portfolio, Wettbewerbspositionierung, Kernkompetenzen, Lean Management oder
Reengineering gleichgesetzt.
In Wirklichkeit ist Strategie etwas weit Komplexeres und Umfassenderes.
Was umfasst Strategie?
• Durchhalten.
Strategie heisst durchhalten, heisst Ausdauer, nicht aufgeben. Man könnte das
Michelangelo Wort "Genius ist ewige Geduld" in "Strategie ist ewige Geduld"
abwandeln. Trotz der scheinbaren Schnelllebigkeit unserer Zeit und ihrer Märkte
entstehen dauerhafte Erfolgspositionen nicht in kurzer Zeit. Vielmehr erfordern
sie Visionen und Aktionen, die über Jahrzehnte reichen und einem konsistenten
Strategiemuster treu bleiben.
Kommunikation
1. Nur die echte Nachricht zählt. Nur glaubhafte Botschaften und interessante
Informationen haben eine Chance in der täglichen Presse-Flut.
2. Vertrauen gewinnen ist das Ziel. Zuerst auf der redaktionellen Seite und dann auf
den Seiten der Leser und Hörer.
3. Hände weg von unausgegorenen Nachrichten und überzogenen PR-Phrasen.
Sie schaden, denn Journalisten durchschauen Sie schneller als Ihnen lieb ist.
4. Nicht erst in einer Krise an PR, Presse- und Öffentlichkeitsarbeit denken. Nicht
erst dann die ersten Presse-Mitteilungen in der Hoffnung auf Konkursabwehr und
höheren Abverkauf versenden.
5. Kontinuität. Bemühen Sie sich,, regelmässig Informationen aus Ihrem Haus in die
relevanten Redaktionen zu schicken.
6. Bestimmen Sie jemanden in Ihrem Unternehmen, der für das Zusammentragen
von Informationen und Themen verantwortlich ist. Er (es) ist Bindeglied zwischen
Unternehmen und PR-Berater oder PR-Journalist. Je weiter oben Ihr
Beauftragter in der Unternehmenshierarchie angesiedelt ist, desto besser.
7. Aktualität zählt. Ende September interessiert sich kaum noch jemand für Ihre
Halbjahresbilanz.
8. Nutzen Sie Ihre Kontakte und bauen Sie diese aus. Der Kontakt zum
Journalisten sollte in der Hand des Unternehmens sein. Der Hauptgrund:
Journalisten wollen stets Informationen aus erster Hand und keinen PR-Berater,
der etwa in Fragen der Firmenpolitik oder –ausrichtung nie wirklich kompetente
Aussagen ad hoc treffen kann oder darf.
9. In der Anfangsphase gilt: Jede Veröffentlichung zählt, ist sie auch noch so klein.
Nicht ungeduldig werden. Und dies schon gar nicht die Redaktionen in
irgendeiner Form spüren lassen. Sie verscherzen sich so mühsam aufgebaute
Sympathien.
10. Verinnerlichen Sie: Kommunikation ist kein preiswertes Geschäft. Nur wenn Sie
bereit sind, auch langfristig in Ihre Vermarktung zu investieren, können Sie am
Ende auch messbare Ergebnisse erwarten.
Kommunikation
Ziel
Gesamteindruck
Aufbau
Sprache
Stimme
unsicher, ablehnend,
sicherer Stand, zum Publikum hin ++ + 0 - --
verschlossen
steif, verkrampft; aufgesetzte
natürliche Gesten ++ + 0 - --
Gesten
regelmässiger Blickkontakt ++ + 0 - -- kein oder flüchtiger Blickkontakt
Besonderes
... ++ + 0 - -- ...
Kommunikation
Das Interview
Form Eine (prominente) Person wird von einem Interviewer befragt. In der
Regel kündet ein Moderator zuvor an, wer aus welchem Anlass zu
welchem Thema befragt werden soll (Anmoderation).
Funktion Das Publikum soll durch das Gespräch die befragte Person und ihre
Tätigkeiten, Erfahrungen und Meinungen kennenlernen.
Strukturmerkmale Der Interviewer ist über das Thema längst orientiert und kennt die
meisten Antworten bereits. Er stellt somit keine echten Fragen
(Fragen nach Dingen, die er nicht weiss), sondern vorbereitete, auf
das Publikum ausgerichtete Fragen, mit denen er ganz bestimmte
Informationen aus dem Befragten herausholen und ans Publikum
weiterleiten will.
Die folgenden Fragearten sind fair, weil sie dem Befragten die Möglichkeit geben, sein
Wissen und seine Meinung frei zu äussern.
Informationsfrage Alle W-Fragen: wer? was? wieviel? wo? welches? wann? warum?
Sachfrage Frage, auf die es eine "richtige" Antwort gibt: "Wie hoch ist der
Dollarkurs?"
Meinungsfrage Frage nach der persönlichen Meinung: "Was halten Sie davon?"
Kontraversfrage Frage mit oder: "Kann man das lernen oder muss das angeboren
sein?"
Ja-Nein-Frage Frage, die man mit Ja und Nein beantworten kann: "Ist das gut
so?"
Unfaire Fragen
Die folgenden Fragearten sind unfair, weil sie den Befragten in eine bestimmte Richtung
drängen oder ihm eine Meinung unterstellen.
Alternativfrage Gibt dem Befragten nur 2 Möglichkeiten: "Wollen Sie Rot- oder
Weisswein?"
Unterstellende Frage Die Frage: "Wie hoch sind die Raten für Ihr Auto?" unterstellt dem
Befragten, dass er sein Auto nicht bar bezahlt hat.
Ja/Nein-Falle Mit Ja und Nein setzt der Antwortende sich in die Nesseln:
"Haben Sie immer noch Schulden?" "Ja" = ich habe Schulden.
"Nein" = Ich hatte Schulden. Eine Solche Falle muss man
zurückweisen: "Ich hatte noch nie Schulden!"
Fangfrage Man will etwas anderes wissen, als man fragt. Mit "Haben Sie
einen Parkplatz gefunden?" erfährt man, ob der andere mit dem
Auto gekommen ist oder nicht.
Provokativfrage Lockt den Befragten aus der Reserve: "Wollen oder können Sie
keine Antwort geben?" (Kann bei lahmen Befragten nötig werden)
Suggestivfrage Der Befragte soll sich der Meinung des Interviewers anschliessen:
"Sie meinen doch auch...?", "Sie haben sicher schon...?".
Suggestivfragen muss man abklemmen: "Wie kommen Sie
darauf..."
Aber-Nicht Radioreporter-Krankheit: "Aber ist es nicht...", "Aber haben Sie
nicht...". Der Befragte kann nicht mehr antwortn, er muss sich
verteidigen!
Beispiele
Unfair Fair
Wollen Sie Rotwein oder Weisswein? Was möchten Sie trinken?
Fühlen Sie sich nicht elend in dieser Situation? Wie fühlen Sie sich in dieser Situation?
Meinen Sie nicht auch, dass Was sagen Sie zu der Aussage:"..."?
Können Sie keine Alternativen nennen? Können Sie Alternativen nennen?
Kommunikation
Das Statement
Anlässe
• Verkaufspräsentation
• Kongress, Seminar
• Pressekonferenz
• Vereinsversammlung
• Empfang, Apéro
• Feier
• Reise
• Podiumsgespräch
Ziele
• erläutern, darstellen
• begrüssen, eröffnen
• bewerten, analysieren
• Antrag stellen
• danken, gratulieren
• kritisieren, Frage stellen
• werben, auffordern
• Stellung nehmen
Aufbau
Planung
Merksatz
Mit dem ersten Satz gewinnen Sie die Zuhörer.
Mit dem letzten Satz überzeugen Sie die Zuhörer.
Beispiele, Anregungen
Schlechte Einstiegsvarianten: Entschuldigung (Ich bin kein guter Redner usw.), danken,
dass man reden darf, Schleife (Zuerst möchte ich bemerken), Ankündigung, man werde
es kurz machen, Weichmacher (Ich möchte), ziellose Polemik (Es ist doch einfach eine
Schweinerei...)
Der Vortrag
Material sammeln
Grosszügig sammeln, jedoch ohne Ziel und Thema aus den Augen zu
verlieren.
Disposition
Visuelle Hilfsmittel sind sparsam einzusetzen. Sie sollen das Wort ergänzen,
unterstützen und vertiefen (nicht wiederholen, ersetzen oder davon ablenken). Sie
müssen qualitativ hochstehend sein und sich technisch und inhaltlich reibungslos in den
Vortrag einfügen lassen. Der Aufwand für die Herstellung darf nicht unterschätzt
werden.
Üben
• Der fertige Vortrag ist mindestens ein Mal laut vorzutragen, mit allen technischen
Hilfsmitteln!
• Die Handhabung der Folien und Dias ist speziell zu trainieren.
• Zeitkontrolle!
• Ideal ist eine Überprüfung mit Tonband oder Video und/oder einem kritischen
Zuhörer.
• Sprache, Mimik und Gestik überprüfen und trainieren.
Vorbereitungen
Äusseres
Kleidung Herren Anzug mit Hemd und passender Krawatte. Dunkle Schuhe.
Allenfalls Gilet oder Pulli statt Kittel. Keine Jeans, Jacken, Mützen
und Turnschuhe.
Kleidung Damen Hose / Jupe mit Bluse oder Zweiteiler. Stümpfe und flache
Schuhe. Keine Jeans, dicken Pullis, Socken und Stöckelschuhe.
Keine zu grossen Tücher oder Rollkragen um den Hals, Silhouette
wahren.
Frisur Muss absolut sitzen. Haare aus dem Gesicht. Keine
Extravaganzen.
Schmuck Dezenter Ohren- und Halsschmuck für Frauen empfehlenswert,
darf jedoch nicht baumeln und klimpern. Keine Armreife und nicht
zuviele Ringe. Wenn möglich keine Brille.
Schminke In künstlichem Licht Gesicht pudern. Frauen sollten Lippenstift
benützen.
Der Redner muss mindestens so gut gekleidet sein wie das Publikum.
Keine persönlichen Einstellungen demonstrieren.
Raum
Technik
Auftritt
Lampenfieber
Einstimmung
Los geht's
Die Rede sitzt, ist vorbereitet und einstudiert. Jetzt ist nicht der Moment,
um irgendetwas auszuprobieren oder zu üben.
Kommunikation
Die Podiumsdiskussion
Der Gesprächsleiter
Die Startfrage muss offen sein, das heisst sie muss unterschiedliche Stellungnahmen
ermöglichen. Sie soll die Redenden nicht in eine bestimmte Richtung drängen. Sie darf
allenfalls leicht provozieren. Gute Fragen sind: "Wie stellen Sie sich die Entwicklung
des Internets in den nächsten 5 Jahren vor?" "Wie ist es Ihrer Meinung nach zu dieser
Situation gekommen?" "Die Gewerkschaft ist tot. Was sagen Sie zu dieser
Behauptung?" Keine Fragen, die man mit Ja oder Nein beantworten kann! Der GL muss
die Startfrage schriftlich vorbereitet haben.
Der GL erteilt das Wort und sorgt dafür, dass alle gleich viel zum Reden
Diskussionsteil
kommen.
Er fasst zusammen, hält Ergebnisse fest, wiederholt Kernaussagen.
Er führt neue Aspekte in die Diskussion ein, stellt zusätzliche Fragen.
Der GL unterbricht Dauerredner.
Er unterbricht und lenkt zum Thema zurück, wenn die Teilnehmer a)
abschweifen, b) sich in Details verlieren c) sich im Kreis drehen oder d)
persönlich werden.
Er blockt Provokationen ab und sorgt für Ruhe im Saal
Der GL muss die Diskussion nicht nur lückenlos verfolgen, sondern jederzeit im Griff
haben. Er notiert, wer was gesagt hat, damit er zusammenfassen und zum nächsten
Punkt überleiten kann. Er verliert das Thema und den von ihm geplanten Ablauf der
Diskussion nie aus den Augen!
Der GL hat absolute Neutralität zu wahren. Er darf zum Thema selber nicht Stellung
nehmen, er darf die Beiträge der Teilnehmer nicht bewerten ("interessant, was Sie da
sagen"), und er darf nicht Partei ergreifen.
Die Teilnehmer
Das Folgende ist lediglich, eine kleine Auswahl möglicher Argumentationstaktiken. Sie
sind in der Regel ethisch vertretbar, teilweise auch an der Grenze zu den unfairen
Taktiken.
Plus-Minus Bekannte Mängel werden (selber) benannt und zugegeben, die Vorteile
jedoch als überwiegend dargestellt.
Ja-Aber Dem Argument des Gegners wird zugestimmt, dann aber sofort mit
einem Gegenargument widersprochen. ("Natürlich kostet so ein
Weiterbildungskurs viel; wenn Sie aber bedenken, was...")
Beispiel Beispiele beweisen überhaupt nichts! Aber sie sind schwer zu
widerlegen...
Schweigen Wenn der Gegner als Antwort nur vielsagend schweigt, schiesst die
brillanteste Argumentation ins Leere...
Umkehrung Den Einwand zurückgeben. ("Sind Sie wirklich überzeugt, dass...?")
Mehrheit Die eigene Meinung wird als die Ansicht der Mehrheit dargestellt.
Gegner werden isoliert. ("Alle demokratisch gesinnten Bürger..." "Nur
der letzte Hinterwäldler glaubt heute noch...")
Umwertung Was vom Gegner als positiv dargestellt wurde, wird negativ umgedeutet
und umgekehrt. ("Gerade weil das Leben das höchste Gut ist, müssen
wir..." "Sie würden nicht hier sitzen, wenn wir nicht seit Jahren an ...
gearbeitet hätten.")
Fakten Gegen Zahlen, Statistiken und andere Fakten ist schwer anzukommen.
Entweder-Oder Man stellt die Situation dar, als gäbe es nur zwei Lösungen. ("Entweder
wir machen ... oder wir werden alle...")
Widersprüche Man weist dem Gegner Widersprüche in seinen Argumenten nach.
Definition Man lässt den Gegner seine Begriffe definieren, fragt nach Beispielen
und Beweisen, vor allem, wenn er sehr gescheit redet und abstrakte
Begriffe verwendet. ("Was verstehen Sie eigentlich unter E-Business?")
Analogie Man stellt den Gegner in eine Situation, in der er gegen seine
Überzeugung handeln müsste. ("Was würden Sie tun, wenn... ? Sie
würden wohl auch...")
Ad Absurdum Der Vorschlag des Gegners wird aufgenommen un in Gedanken
weitergesponnen, wobei herauskommt, dass der Vorschlag
unbrauchbar ist. ("Wenn wir..., dann passiert... und dann wird... Das
führt zwangsweise zu einem Chaos")
Bumerang Das Argument des Gegners wird gegen ihn selber gerichtet. ("Wenn
Sie ... durchsetzen wollen, müssen Sie die Hälfte Ihrer Abteilungsleiter
entlassen")
Unfaire Taktiken
Reaktion: Unfaire Taktiken muss man erkennen, um reagieren zu können. Man soll
ruhig, aber entschieden, allenfalls mit einer Prise Ironie reagieren: Die Taktik als solche
aufdecken, Fragen stellen, Beweise verlangen, Emotionales zurückweisen, die Dinge
richtigstellen.
Zuhören
Bei jedem Gespräch ist die Hör-Zeit bedeutend länger als die eigene Sprech-Zeit.
Trotzdem sind die meisten Menschen schlechte Zuhörer. Die Folgen:
Diskussionsteilnehmer sind unkonzentriert, warten gelangweilt auf "ihren" nächsten
Auftritt, wiederholen bereits Gesagtes, ohne es zu merken, gehen nicht auf Fragen ein,
zitieren die Diskussionspartner falsch, reden die längste Zeit aneinander vorbei.
Aktives Zuhören will gelernt und geübt sein. Aktiv zuhören heisst, Konzentration auf die
Gesprächspartner, Blickkontakt, den Gedankengängen der anderen bewusst folgen,
Rückmeldungen geben (nicken, "genau", "ach ja?"), Verständigungsfragen stellen,
notizen machen, schweigen.