Lade Inhalt...

ECM in der Cloud - Potenziale und Risiken

©2012 Diplomarbeit 65 Seiten

Zusammenfassung

Das vorliegende Buch hat das Ziel die Potenziale und Risiken des Enterprise Content Management im Verbund mit Cloud-Computing aufzuzeigen. Dazu werden zunächst Grundlagen des Enterprise Content Management erörtert, um ein besseres Verständnis zu geben, was ECM ist, welche Möglichkeiten es bietet und welche rechtlichen An-forderungen zu berücksichtigen sind. In Kapitel 3 werden Grundlagen zum Cloud-Computing vermittelt. Im Anschluss erfolgt eine Einführung wie sich ECM in der Cloud darstellt, was Kunden erwarten und welche Möglichkeiten sich grundlegend bieten. IT-Segmente mit einer hohen Eignung für ECM-Cloud-Dienste werden vorgestellt und erläutert sowie aktuell verfügbare ECM-Cloud-Lösungen verschiedener ECM-Anbieter. Darauf aufbauend werden die Potenziale und Risiken einer ECM-Cloud-Lösung in verschiedenen Kategorien vorgestellt. Abschließend wird eine Schlussbetrachtung vorgenommen, in der die Ergebnisse der vorhergehenden Kapitel festgehalten werden.

Leseprobe

Inhaltsverzeichnis


2.2 Definition

Um das Enterprise Content Management kurz ECM zu definieren, soll zunächst auf das Content Management und den Begriff „Content“ eingegangen werden.

- Content

Der Begriff „Content“ beschreibt elektronische Inhalte. Diese setzen sich aus Akten (Records), Daten (Data) und Metadaten zusammen. Weiter unterteilt wird der Content nach seiner Nutzung in veränderbaren Content und unveränderbaren Content, auch Fixed-Content genannt. Von Records spricht man wenn der Content aufbewahrungswürdig oder gar aufbewahrungspflichtig ist.[1]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1:Contentelemente[2]

Eine bekannte Sprache zur Darstellung und Strukturierung von Content ist XML, Extensible Markup Language. XML wurde durch das World Wide Web Consortium (W3C) 1998 standardisiert und bietet so die Möglichkeit, Content universell zu strukturieren. Im Bereich des Content Management eignet sich XML sehr gut, da es in seiner Anwendung sehr flexibel ist. Das heißt, als offener Standard ist eine allgemeine Syntax vorgegeben, diese kann jedoch individuell erweitert werden. Metadaten beschreiben und strukturieren ein Dokument (Eigenschaften eines Objektes oder Dokumentes), dieses erleichtert den Datenaustausch. So können Daten in vielfältiger Art und Weise verarbeitet, präsentiert und archiviert werden.[3] [4]

Ein Beispiel für eine typische XML-Datei befindet sich im Anhang.

Aus funktionaler Sicht erscheint es sinnvoll zwischen folgenden Kategorien generell zu unterscheiden:

- Content Management

Beschreibt alle Tätigkeiten um Content zu strukturieren, zu planen und zu verwalten. Die Funktion des Content Management kann durch einen einfachen Lebenszyklus erläutert werden. (1) Ein beliebiger Content wird generiert. (2) Dieser wird bearbeitet und zur Freigabe weitergeleitet. (3) Die Freigabe wird erteilt und der Content wird publiziert oder seine Bearbeitung zurückgewiesen. (4) Durch die Publizierung wird der Content an einem für weitere Anwender zugänglichen Speicherort abgelegt. (5) Der Content befindet sich anschließend am Ende seines LifeCycles und wird eliminiert.[5] [6]

- Content Management Systeme

Content Management Systeme (CMS) sind Anwendungen, die das Generieren, Verteilen, Präsentieren, Verwalten und Archivieren von Content ermöglichen. Inhalte werden oftmals dezentral erstellt, durch unterschiedliche Personen, an unterschiedlichen Orten bearbeitet, freigegeben und gespeichert. Diese differenzierte Aufgabenverteilung erfordert die Möglichkeit die Zugriffsberechtigungen einzelner Anwender auf den Content zu kontrollieren bzw. zu beschränken.[7] [8]

- Web Content Management Systeme

Hier liegt der Fokus auf der Verwaltung des Content auf Webseiten bzw. Web-Portalen. Wichtigste Merkmale sind die strikte Trennung von Inhalt und Layout. Dieses ermöglicht es das Erscheinungsbild durchgängig einheitlich zu gestalten (Corporate Design), sowie die automatisierte Aktualisierung der Content-Verweise, sprich Hyperlinks, der einzelnen Seiten und der Navigationsmenüs.[9] [10]

- Enterprise Content Management

Enterprise Content Management versteht sich als Beschreibung, um Produkte, Techniken und Prozesse zu adressieren. Diese Produkte erfassen strukturierte sowie unstrukturierte Informationen, um diese zu bearbeiten, zu verwalten, zu publizieren und zu archivieren.[11]

Als Quelle einer aktuellen und führenden Definition wird in der Literatur die AIIM (Association for Information and Image Management) angegeben. AIIM beschreibt sich selbst als „the global community of information professionals“. Schaut man sich die Definitionen nach AIIM der letzten 9 Jahre an, so fällt auf, dass die Definition sich stetig gewandelt hat. Im Jahr 2000 wurde ECM als eine Technologie zur Verwaltung von „enterprise content“ gesehen, um Geschäftsprozesse zu unterstützen. Heute ist ECM vielmehr eine Strategie, mit Methoden und Tools um alle Formen und Arten an Informationen mit Geschäftsprozessen in Verbindung zu setzen.[12] [13] [14] Die Definitionen der AIIM befinden sich im Anhang.

Zusammenfassend lässt sich folgende Definition erstellen:

Enterprise Content Management (ECM) ist eine Methode um alle strukturierten sowie unstrukturierten unternehmensrelevanten Informationen, aus verschiedenen Quellen zusammenzuführen. Diese zentrale Plattform ermöglicht es, den Mitarbeitern (entsprechend ihrer Funktion innerhalb der Organisation), Content zu erfassen, zu speichern, zu verwalten, zu schützen, zu verteilenund Informationen daraus zu ziehen.[15] [16] [17]

Der Definition nach AIIM besteht ECM aus den fünf Hauptkomponenten, Manage, Store, Deliver, Capture und Preserve, siehe Abbildung 2.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Das 5-Komponentenmodell der ECM[18]

2.3 Geschichte und Entwicklung

Unsere Gesellschaft und Kultur basiert auf der Übermittlung unserer Erfahrungen und Erkenntnisse. Doch wie können wir dieses Wissen für dritte Personen zugänglich machen? Unsere Aufzeichnungen in Form und Schrift erlauben es, Informationen festzuhalten und diese zu übermitteln. Durch die Erzeugung einer Vielzahl an Dokumenten und deren Sammlung war das Dokumentenmanagement (Content Management) geboren. Nachdem die Menschen über tausende von Jahren Informationen auf Tontafeln oder auf Papier festgehalten haben, erlebte die Speicherung unserer Informationen eine technische Revolution. Im Laufe des 19. Und 20. Jahrhunderts wurden Werkzeuge zur elektronischen Verwaltung von Dokumenten entwickelt. Diese Entwicklungen bilden die Grundlage des elektronischen Dokumentenmanagement, welches nun seit ungefähr 25 Jahren ein Bestandteil der Informationstechnologie ist.[19]

Der Begriff ECM als Enterprise Content Management taucht im Jahr 1998 das erste Mal auf. Das Unternehmen Gartner verwendet den Begriff vereinzelt und die Fachzeitschriften „Microcomputer abstracts“ und „Publish!“ erwähnen Enterprise Content Management, allerdings mit dem Hinweis darauf, dass es sich um ein Hype-Thema handelt. Namenhafte Anbieter heutiger ECM-Lösungen, wie IBM FileNet oder OpenText greifen ECM erstmals 1999 auf. Es lässt sich nicht eindeutig feststellen, wie und wann der Begriff oder gar die Idee des ECM initiiert wurde. Die AIIM als Dachverband hat ECM im Jahr 2000 als festen Begriff aufgenommen. und hat im Jahr 2003 zusammen mit verschiedenen Anbietern aus dem Bereich ECM, das Poster „ECM 101“ erstellt. Dieses Poster bildet die Grundlage für das Modell der fünf Hauptkomponenten Capture, Manage, Store, Deliver und Preserve (siehe Abbildung 2).[20] Eine Abbildung des Posters befindet sich im Anhang.

Für die zukünftige Entwicklung des ECM werden nach Riggert sowie Fröschle et. Al. vier Trends als relevant angesehen:

1. Web 2.0 oder auch Social Software

Gemeint ist die Bildung virtueller Gruppen im Internet zu einem gemeinsamen Thema oder einem gemeinsamen Interesse. Oftmals werden hier leicht zu bedienende, webbasierte Tools, mit wenig oder keiner redaktioneller Kontrolle zur inhaltlichen Gestaltung einer Webseite, eingesetzt.

2. Semantische Systeme

Konzentrieren sich darauf, schwach strukturierte Inhalte automatisch oder wenn nötig durch „Handarbeit“ mit einer klaren Bedeutung (Semantik) zu versehen, um diese durch Folgeprozesse automatisch weiter verwenden zu können.

3. Recombinant Growth

Dieser Trend verspricht die Möglichkeit durch die Verknüpfung von Technologien, neue Produkte zu schaffen. Diese wiederrum können neue Märkte oder bestenfalls sogar neue Bedürfnisse hervorrufen. Im Kontext ECM wird hier die Verwendung von Inhalten für verschiedene Ziele verstanden.

4. Open Innovation

Die Idee dieses Trends ist es, die Kunden als Produzenten und Konsumenten zugleich zu sehen. Somit bekommen sie eine aktive Rolle in betrieblichen Prozessen. Die Herausforderung für das ECM ist es, die notwendige Öffnung betrieblicher Prozesse und damit verbundener Schnittstellen zu realisieren.[21] [22]

2.4 Komponenten eines ECM-Systems

ECM umfasst eine Vielzahl von Funktionalitäten, die im Folgenden als einzelne Komponenten dargestellt werden. Es ist nicht notwendig, dass ein ECM-System mit allen möglichen Komponenten betrieben wird. Ein ECM-System ist im Allgemeinen anforderungsspezifisch aufgebaut, je nach benötigtem Funktionsumfang können einzelne Komponenten hinzugefügt werden. Es ist theoretisch möglich, ein ECMS aus Komponenten verschiedener Hersteller aufzubauen. Die fünf Hauptkomponenten oder auch -technologien des ECM haben seit dem Jahr 2003 bestand.[23] [24]

In Kapitel 2.1 wurde aufgezeigt, dass sich ECM als eine Strategie oder Methode empfiehlt, um verschiedene Informationstypen, sowie Quellen zu integrieren. Bevor die fünf Hauptkategorien im Detail erläutert werden, soll ihr Zusammenspiel anhand der folgenden Abbildung (siehe Abbildung 2) erläutert werden. Die Grafik ist der AIIM entnommen und wird vermehrt in der Fachliteratur adressiert. Die CAPTURE-Kom­ponente erfasst neuen Content und übergibt diesen an die MANAGE-Komponente, deren Bestandteile sich ringförmig um die STORE-Komponente aufbauen und durch ihre Einsatzfelder Dokumenten-Management (DM), Collaboration (COLLAB), Web Content Management (WCM), Records Management (RM) und Workflow (WF/BPM) die Hauptkategorien verbinden. Ist der Content bearbeitet und gespeichert, kann er über die Komponente DELIVER abgefragt werden. Die PRESERVE-Komponente sichert den Content langfristig auf einem Speichermedium, oftmals kommen hier Fixed-Content-Devices zum Einsatz.[25]

2.4.1 Capture (Erfassung)

Bei der Dokumentenerfassung kann zwischen manueller Erfassung, teil- oder vollautomatisierter Erfassung unterschieden werden. Aufgabe dieser Input-Komponente ist es dabei immer die Erstellung, Erfassung, Aufbereitung und Verarbeitung analoger sowie elektronischer Informationen.[26] [27]

Ob ein Informationssystem effizient gestaltet ist, entscheidet sich bereits beim Dokumenteneingang und dessen Erfassung. Denn einerseits sind Informationen für Unternehmen überlebenswichtig, anderseits kostet der Umgang mit ihnen Zeit, welche zu Lasten der Verfügbarkeit der eigenen Mitarbeiter geht. Die Herausforderung ist es, neue Dokumente durchgängig, medienbruchfrei und transparent zu verarbeiten. Eine gängige Lösung ist die Errichtung eines virtuellen Eingangsportals für alle Formen neuer Dokumente. Entscheidend ist an dieser Stelle die sichere Erkennung und Klassifizierung der Dokumente. Somit können wachsende Anforderungen an Zeit, Qualität, Leistung und Kosten bedient werden, die in der Summe einen Wettbewerbsfaktor darstellen.[28]

Der Mehrwehrt dieser Komponente liegt demnach darin, Eingangsdokumente sicher und mit geringem Zeitaufwand zu verarbeiten. Um eingehende Post digital zu verarbeiten, müssen Umschläge geöffnet, Dokumente entnommen und ggf. datiert, geheftet und sortiert werden. Dieses ist immer der erste Schritt einer digitalen Postverarbeitung. Bei entsprechendem Posteingangsvolumen gilt es zu überlegen, diesen Prozess maschinell zu unterstützen oder an einen Dienstleister abzugeben.[29] [30] [31]

Auf die Frage, ob Unternehmen heute bereits ganz ohne Papier auskommen bzw. papierlos arbeiten, soll an dieser Stelle nicht weiter eingegangen werden. Sicher ist jedoch, dass der Austausch von Informationen zunehmend digitalisiert wird. Dieses ist das Potenzial der CAPTURE-Komponente. Durch automatische Klassifizierung und Erkennung wird die manuelle Indizierung rationalisiert und traditionelle Abläufe werden angepasst, um Informationen nachhaltig und effizient Hand zu haben.[32] [33]

2.4.2 Manage (Verwaltung)

Diese Komponente bildet den Kern jeder ECM-Lösung. Die Anwendungsfelder Dokumentenmanagement, Collaboration, Web Content Management, Records Management und Workflow-Management (siehe Abbildung 2) verbinden die Komponenten Capture, Store, Deliver und Preserve und ermöglichen es somit Prozesse zu beschleunigen um letztendlich Kosten zu sparen.[34]

Aufgabe der Manage-Komponente ist die Verwaltung, Bearbeitung und Nutzung von Informationen. Dabei bedient sie sich an einer Datenbank sowie eines Berechtigungssystems zur Verwaltung, Recherche und zum Schutz der Informationen. In einem ge­schlossenen ECM-System sind die verschiedenen Manage-Komponenten miteinander verbunden. Diese können einmalig und übergreifend als Dienst zur Verfügung gestellt werden.[35]

Im Folgenden sind die wichtigsten Merkmale der einzelnen Manage-Anwendungen dargestellt:

Dokumentenmanagement:

Die Aufgabe des Dokumenten-Management ist es, die Dokumente von ihrer Entstehung bis zur Langzeitarchivierung zu begleiten bzw. zu kontrollieren. Dokumentenmanagement versteht sich als Lösungskonzept, um die Probleme papiergebundener Vorgänge und Informationen zu mildern. Das Dokumentenmanagement kennt folgende Funktionen: Visualisierung, Versionsmanagement, Checkin / Checkout, Suche und Navigation.[36] [37] [38]

Grundlegend ist zwischen analogen und digitalen Dokumenten zu unterscheiden. Analoge Dokumente jeglicher Form können nur von Menschen gelesen werden, sie lassen sich jedoch mithilfe von Scannern in digitale Dokumente umwandeln. Digitale Dokumente können in zwei Arten vorkommen, als Non-Coded-Information (NCI) und als Coded-Information (CI). NCI-Dokumente sind reine Abbilder des papiergebundenen Originals. Um diese weiterverarbeiten zu können, muss das NCI-Dokument mittels OCR in ein CI-Dokument umgewandelt werden. Die nun verfügbaren Informationen des CI-Dokuments können für eine Volltextsuche oder zur Kategorisierung genutzt werden.[39] [40]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Umwandlung Papierdokument zu einem NCI- bzw. CI-Dokument[41]

Um Dokumente gezielt wiederfinden zu können, muss ein Katalog, ein Index aufgebaut werden. Dieser Index wird in einer Datenbank festgehalten. Die Informationen eines CI-Dokuments können in einen Volltextindex oder in einen Schlagwortindex aufgenommen werden. Die Volltextindexierung kann automatisch ohne Interaktion der End­anwender erfolgen. Der Aufwand, um einen derartigen Indexierungsvorgang auszuführen ist vergleichsweise gering, jedoch kann die Volltextsuche sehr zeitaufwändig sein, da der komplette Index durchsucht wird. Ebenfalls kann das Suchergebnis unscharf sein, und basiert in erster Linie auf den ‚Recherchefähigkeiten’ des entsprechenden Mitarbeiters.

Die Suche in einem Volltextindex nach einer bestimmten Belegnummer kann mehrere Treffer ergeben, da die zu suchende Nummer sowohl auf eine Kunden- als auch auf eine Rechnungsnummer oder einen Teil einer Rechnungsnummer zutreffen kann. Bei der Erstellung eines Schlagwortindexes werden Dokumentenrelevante Attribute, zum Beispiel Autor, Titel, Jahr, Belegart und/oder Ort dem Dokument direkt zugeordnet. Die Recherche wird über ein oder die Kombination mehrerer Schlagwörter durchgeführt und ist somit effizienter als die Volltextrecherche. NCI-Dokumente werden manuell indexiert, die verwendeten Attribute sind abhängig von der Art und des Inhalts des Dokuments.[42]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Recherche indexierter CI-/NCI-Dokumente durch einen Index[43]

Collaboration:

Collaboration versteht sich als kommunikative Infrastruktur, um die Zusammenarbeit zu fördern, indem Informationen unabhängig von Ort und Zeit kontrolliert werden können.[44] [45] Das wohl derzeit bekannteste Collaborationsprodukt ist Microsoft SharePoint. Es versteht sich als Unternehmensportal, das durch eine tiefe Integration in die Office-Produktwelt dabei unterstützt, Dokumente, Termine, Aufgaben und Verbesserungsvorschläge unternehmensweit zu teilen.[46] Zu unterscheiden ist der Begriff Collaboration aus Sicht der Netzwerkhersteller und aus ECM-Sicht. Bei ersteren wird der Fokus auf die Gewährleistung der Erreichbarkeit aller Gruppenteilnehmer durch Kommunikationsdienstleistungen gelegt, bei letzteren auf die inhaltliche Zusammenarbeit von Gruppen auf Anwendungsebene.[47]

Web Content Management:

Web Content Management dient der Bereitstellung von Informationen auf einem Portal, im Internet oder in einem Extranet. Die Bereitstellung sollte dabei auf einer bestehenden Struktur an Berechtigungen und Regeln der Informationsspeicherung aufbauen.[48] Die WCM-Komponente bedient demnach Anwendungen, die für die Weiterverarbeitung und Präsentation im Web vorgesehen sind. Diese Anwendungen kennen folgende Funktionen:[49]

Asset Management: Bereitstellung und Verwaltung der Informationen für die Web-Präsentation
Workflow-Komponente: Generierung neuer oder Aufbereitung vorhandener Dokumente durch einen Erstellungs- und Veröffentlichungsprozess
Benutzerverwaltung: Sichere Trennung des Zugriffs auf öffentliche und nicht-öffentliche Informationen
Export- und Import-Schnittstellen: Automatische Konvertierung für unterschiedliche Anzeigeformate, personalisierte Anzeigen, Web-Visualisierung der Inhalte (Browser-Darstellung)[50] [51]

Nach BITKOM (Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e.V.) ist WCM ein eigenständiger Markt, da die Einsatzfelder stark vom ECM differieren. So bietet WCM Open-Source-Lösungen (zum Beispiel Typo3, Joomla oder WordPress[52] ) deren Schwerpunkt in der Publikation von Inhalten liegt, wobei sich ECM auf die Verwaltung meist dokumentbasierter Inhalte fokussiert.[53]

Records Management:

Records Management, kurz RM, steht für die Verwaltung eingehender, als auch ausgehender geschäftsrelevanter Informationen, die dabei weder verändert noch gelöscht werden dürfen. Durch rechtliche Vorgaben wie z. B. GDPdU (Grundsätze zum Datenzugriff und zur Prüfbarkeit digitaler Unterlagen), SOX (Sarbanes Oxley Act), dem deutschen Umsatzsteuergesetz oder dem internationalen Produkthaftungsgesetz sind Unternehmen angehalten, Informationen ab dem Zeitpunkt des Eintritts jederzeit erkennbar und nachvollziehbar vorzuhalten. Somit müssen alle relevanten Unternehmensinformationen jederzeit kontrollierbar sein und für einen bestimmten Zeitraum aufbewahrt werden.[54]

Workflow:

Workflow folgt dem Trend der Geschäftsprozessorientierung und will dabei mehr sein, als die reine Informationsteilung. Der Anspruch des Workflow ist die Kommunikation in Echtzeit aller Mitarbeiter jeglicher Hierarchieebenen über alle Vorgänge und deren Aufgaben in Echtzeit. Dabei automatisieren Workflows formularbasierte und teil-formularbasierte Vorgänge unter folgenden Kriterien:

– einzelne Vorgangsschritte sind klar abgegrenzt
– Vorgangsabläufe sind eindeutig definiert
– involvierte Mitarbeiter bekommen zur Vorgangsbearbeitung Funktionen, Rollen und Kompetenzen zugeteilt
– die Informationsbereitstellung- und -bearbeitung wird protokolliert, so wird der Prozess transparent[55]

Es wird grundlegend zwischen zwei Workflow-Typen unterschieden. Dem sogenannten „production workflow“, dieser wird ausgelöst durch ein fest definiertes Ereignis und dem „ad-hoc workflow“, hier wählt der bearbeitende Mitarbeiter zur Laufzeit einen Workflowprozess aus und startet diesen.[56]

Das Workflow-Management ermöglicht es, Organisationen Politik und Prozesse, sowie Rollen, Regeln und Routen frei zu gestalten. Dazu zählen folgende Aufgaben:

– Gestaltung der Workflowprozesse
– Empfangen, Verwalten, Visualisieren und Weiterleiten workflowrelevanter Informationen und deren Dokumente
– Koordination der Bearbeitungsvorgänge, Protokollierung und Überwachung der Ergebnisse[57] [58]

Ein Workflow-Management-System unterstützt Workflows bei ihrer Ausführung. Dabei wird die Reihenfolge der Aktivitäten identifiziert, die nächste Aktivität einem Benutzer zugeordnet. Dieser erhält alle notwendigen Daten und Dokumente und kann mit der Bearbeitung der Aufgabe beginnen.[59] [60]

Bereits im Jahr 2003 hat die AIIM in ihrer ECM-Definition den „business process“ erwähnt. Business Process Management, kurz BPM, wird oftmals mit Workflow gleichgesetzt, dabei erhebt BPM den Anspruch sich dem Dokumenten-Workflow überzuordnen und eine vollständige Integration aller Workflow-Anwendungen unternehmensweit herzustellen. Dabei kontrolliert BPM alle Prozesse auf Daten, auf organisatorischer, sowie auf Server-Ebene, unter Anwendung der Konzepte EAI Enterprise Application Integration und BI Business Intelligence (siehe auch Abbildung 9: ECMS-Architektur)[61] [62]

2.4.3 Deliver (Ausgabe)

Die Deliver-Komponente stellt Informationen aus der Preserve-, Store- oder Manage-Komponente bereit. Ihre Aufgabe ist es, diese für die Empfänger aufzubereiten und dabei die Kontrolle der Nutzung zu überwachen. Diese Komponente wird auch als Output-Management bezeichnet und definiert sich nach BITKOM als:[63]

„Output Management Lösungen dienen der Prozesssteuerung von Massendrucksachen und haben Berührungspunkte zu vielen ECM-Lösungen. Der Output Management Markt ist ein sehr eigenständiges Segment innerhalb des ECM-Marktes. Kaum ein ECM-Hersteller ist gleichzeitig Anbieter einer Output-Lösung und umgekehrt. Allerdings ist es in vielen Projekten notwendig, die beiden Welten zu integrieren, wenn „Output“ in einer ECM-Lösung verwaltet werden soll.“[64]

Die Deliver-Komponente wird unterteilt in Distribution, Transformationstechnologien und Security-Technologien.

Distribution

Aufgabe der Distribution ist es die unterschiedlichen Inhalte kontrolliert und nutzungsorientiert über verschiedene Routen dem Anwender bereitzustellen. Dabei werden Informationen, zum Beispiel E-Mails, aktiv verteilt oder als Publikation auf Webseiten und Portalen den Anwender passiv bereitgestellt.[65] [66]

Transformationstechnologien

An dieser Stelle werden die Daten in entsprechende Ausgabeformate umgewandelt. Dies sollte immer verlustfrei, nachvollziehbar und kontrollierbar erfolgen. Zu den Transformationstechnologien zählen Dienste, welche nicht mit dem Endanwender interagieren:

COLD / ERM dient der Aufbereitung von Daten von Ausgaben für Verteilung, Druck und Übergabe an das Archiv. Oft genutzte Anwendungen sind Listen und formatierter Output. Der Begriff COLD steht allgemein für die digitale Archivierung von Druck- und Ausgabelisten, jeglicher Speichermedien.
XML siehe 2.1 Definition Content
PDF erlaubt die plattformunabhängige Bereitstellung bzw. Darstellung von Inhalten. PDF ermöglicht gegenüber einfachen Bildformaten das durchsuchen der Inhalte, das Mitführen von Metadaten, sowie digitale Signaturen. Das Format „PDF/A“ hat sich als ein Standard-Archivformat bewährt.
Konverter und Viewer; ihre Aufgabe ist es, unterschiedliche Formate umzuwandeln und diese anschließend einheitlich anzuzeigen und auszugeben.[67] [68] [69]

Security-Technologien

Sicherheitstechnologien sind ein fester Bestandteil aller ECM-Komponenten. Elektronische Signaturen kommen nicht nur beim Versenden von Dokumenten zum Einsatz, bereits bei der Erfassung werden die Authentizität des Absenders und die Integrität der übermittelten Nachricht überprüft und ggf. auch protokolliert. PKI-Verfahren (Public Key Infrastructure) unterstützen dabei geschäftsrelevante Prozesse ohne Medienbruch zu übermitteln.[70] [71] Die Public-Key-Infrastruktur ist ein Sicherheitssystem, das anhand digitaler Zertifikate, Anwender identifiziert, den Zugang zu Ressourcen steuert, Inhalte verschlüsselt und dabei digital signiert. Nachteile des PKI-Verfahrens ist der Aufwand der Verwaltung der Schlüssel und Zertifikate sowie die Anfälligkeit gegen Chosen-Ciphertext-Angriffe.[72] [73]

2.4.4 Store (Speicherung)

Diese Komponente speichert Daten temporär, d. h. alle Daten die nicht archivierungswürdig oder archivierungspflichtig sind. Die Store-Komponente wird dabei in drei Bereiche aufgeteilt:

1. Repositories

Gemeint sind das Filesystem, Caches, Datenbanken und Data Warehouses; der Einsatz im Verbund ist möglich. Die Repositories halten eine Cacheablage im Filesystem zum schnellen Zugriff auf kürzlich verwendete Daten. Diese Daten werden über die Library Services geladen.

2. Library Services

Dieser Bereich verwaltet den Zugriff auf die Speicherorte, die sogenannten Repositories. Ihre Aufgabe ist es, Daten aus der Capture- oder Manage-Komponente zu empfangen und zu speichern. Werden Daten gesucht oder abgerufen, so greifen die Library Services auf die Datenbanken der Manage- oder Capture-Komponente zu. Die Informationen über den physischen Speicherort der Daten werden in dem Library Services direkt gehalten. Das Versionsmanagement fällt ebenfalls in den Bereich der Library Services.

3. Technologies

Hier werden die verschiedenen Speichertechnologien in Abhängigkeit zu ihrer Anwendung betrachtet. Grundlegend kann zwischen folgenden Typen unterschieden werden:

- Digitale Optische Speichermedien (CD-R, CD-RW, DVD, UDO)
- Mehrfach beschreibbare magnetische Online-Speicher (Festplatten als RAID sowie NAS/SAN als Netzwerkspeicher)
- Tapes / Magnetbänder (DAT, DDS, DLT, LTO)

SAN-Speicher haben in den letzten Jahren zunehmend an Bedeutung gewonnen. Gründe sind der Preisverfall dieses Mediums, die einfache Möglichkeit SAN-Umgebunden in bestehende Infrastrukturen zu integrieren, hohe Speichervolumen, ein hoher Bedienkomfort, sowie eine hohe Zuverlässigkeit der Nutzung.[74] Daher soll diese Technologie im Folgenden kurz vorgestellt werden.

Die Menge an Informationen in Unternehmen wächst kontinuierlich, gleichzeitig gestaltet es sich immer schwieriger, diese sinnvoll zu organisieren. Unter Anwendung traditioneller Storage-Ansätze kann dieses Problem kaum gelöst werden. Ist der gesamte Speicher direkt an die Server angeschlossen, führt dies zu einer erhöhten CPU-Auslastung und der permanente I/O-Verkehr (Input/Output) belastet das Netzwerk. Hier kommt die SAN-Technologie ins Spiel. SAN definiert sich als ein Netz, das Server und Massenspeicher über eine separate Infrastruktur verbindet. Die Speicherlaufwerke der (Applikations-)Server werden physikalisch entkoppelt und finden sich in einem Massenspeicher, dem SAN hinter den Servern in einem gesonderten Netzwerk wieder. Die Anbindung erfolgt dabei über die Blocktransfer-Protokolle iSCSI oder Fibre Channel, die im Vergleich zu paketorientierten Protokollen der IP-Welt einen schnelleren Zugriff erlauben. Somit verliert der Server seine Rolle als Speichergerät und verfügt über zwei „Netzwerkverbindungen“, eine herkömmliche LAN-Verbindung zu den Clients und eine Fibre Channel (FC) oder iSCSI Verbindung zum SAN-Speicher.[75]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: SAN-Architektur[76]

2.4.5 Preserve (Langfristige Speicherung)

Aufgabe dieser Komponente ist die langfristige und unveränderbare Aufbewahrung von Informationen. Im deutschen Sprachraum hat sich der Begriff „elektronische Archivierung“ durchgesetzt.[77] [78] Im Folgenden sollen die Preserve-Bestandteile Compliance und Archivierung vorgestellt werden.

Compliance

Compliance wird im allgemeinen verstanden als die Übereinstimmung und Erfüllung von rechtlichen und regulativen Vorgaben.[79] In Deutschland existieren Vorgaben, wie zum Beispiel GDPdU oder Basel II. Diese beschreiben den Umgang mit Informationen. So wird die sichere Speicherung und Nachvollziehbarkeit aller Transaktionen unumgänglich. Dabei wird nicht zwischen digitalen und analogen Informationen unterschieden, papiergebundene Geschäftsvorfälle sind ebenso von Bedeutung wie E-Mails oder andere elektronische Formate. Die Herausforderung ist es, für jedes Objekt zu erkennen, ob es aufbewahrungspflichtig ist oder nicht. An dieser Stelle definiert Compliance ein für Unternehmen regelkonformes Verhalten, um alle Aktivitäten mit gesetzlichen und regulativen Anforderungen in Einklang zu bringen. So kann Compliance auf die Gestaltung der Geschäftsprozesse Einfluss nehmen, da diese ggf. um Kontrollmechanismen erweitert werden müssen.[80]

Archivierung

Aufgabe der Archivierung ist die systematische Erfassung, Erhaltung und Betreuung (rechtlichen und politischen) von Schriftgut, anders gesagt, die technische Sicherung aller archivierungswürdigen Materialien und dessen Bereitstellung zur Recherche für Interessenten.[81]

Archivierte Dokumente dürfen auf Grund gesetzlicher Vorgaben nachträglich nicht mehr verändert werden. Um nachzuweisen, dass keine Veränderung stattgefunden hat, ist eine Verfahrensdokumentation notwendig. Diese beschreibt den Umgang mit Dokumenten, den Ablauf der damit verbundenen Tätigkeiten. In regelmäßigen Abständen muss die Dokumentation überprüft werden. Zu den aktuell für Unternehmen wichtigsten gesetzlichen Regelungen zählen die Abgabenordnung (AO), das BGB, das HGB, die Grundsätze ordnungsgemäßer Buchführung (GoBS) und die GDPdU. Die Anforderungen an die elektronische Archivierung lassen sich aus diesen Gesetzen ableiten. Aktuelle Rechtsvorschriften und die daraus resultierenden Anforderungen können der Tabelle 3 im Anhang entnommen werden.[82]

Von revisionssicherer Archivierung kann gesprochen werden, wenn die Anforderungen der AO und GoBS erfüllt sind. Dabei wird zwischen den folgenden Ebenen unterschieden. Auf der physikalischen Ebene (Speichermedien, Dateisystem) ist es unerheblich, welche Arten von Ablagemedien verwendet werden, solange die Daten in einem elektronisch codierten Format vorliegen. Die logische Ebene (Dateien, Indizes, Zugriffsmechanismen) erfordert keinen definierten internen Aufbau der Dokumente, solange diese durch geeignete Programme reproduzierbar sind. Erst die Dokumentenebene (Datenstrom) betrachtet die interne Struktur der Dokumente, um z. B. das Format der Dateien zu erkennen. Dabei ist die Auswahl des Datenformats entscheidend, da dieses seine sichere Reproduktion auch nach vielen Jahren oder nach mehreren Migrationen gewährleisten muss.[83] Zur revisionssicheren Langzeit-Archivierung, werden im Allgemeinen folgende Speichermedien eingesetzt: WORM (Write Once Read Many), CAS (Content Adressed Storage), NAS / SAN.[84] Da diese Medien nicht zu überschreiben sind, eigenen sie sich für das revisionssichere Speichern von Daten und können grundsätzlich als Beweismittel vor Gericht zugelassen werden. Jedoch sind auch diese Speichermedien nicht vor Manipulation geschützt, wenn interne Kontrollen versagen und der Angreifer über genügend Fachwissen und Ausstattung verfügt. Die elektronische Archivierung muss strengen formalen Vorschriften genügen, die der Gesetzgeber den Unternehmen vorgibt. Der Betrieb eines ECM-Systems als elektronisches Langzeitarchiv ohne vorherige juristische Absicherung der Verfahren wäre demnach sinnlos.[85] Dazu findet man im Anhang „die zehn Archiv-Gebote“ mit denen überprüft werden kann, ob die eingesetzten ECM-Systeme grundlegend den Anforderungen des Gesetzgebers entsprechen.

[...]


[1] Vgl. (Kampffmeyer, 2006 S. 18)

[2] Eigene Darstellung

[3] Vgl. (Riggert, 2009 S. 2-3)

[4] Siehe auch (Schön, 2003)

[5] Siehe auch (Kampffmeyer, 2003 S. 6-7)

[6] Vgl. (Riggert, 2009 S. 2)

[7] Vgl. (Riggert, 2009 S. 2-3)

[8] Vgl. (Kampffmeyer, 2003 S. 6-7)

[9] Vgl. (Riggert, 2009 S. 3-4)

[10] Siehe auch (Neder, 2006)

[11] Siehe (Riggert, 2009 S. 4)

[12] Vgl. (Riggert, 2009 S. 4-7)

[13] Vgl. (Kampffmeyer, 2006 S. 4-6)

[14] Vgl. (Fröschle, et al., 2007 S. 8-9)

[15] Vgl. (Fröschle, et al., 2007 S. 8-9)

[16] Vgl. (Riggert, 2009 S. 4-7)

[17] Vgl. (Kampffmeyer, 2006 S. 4-6)

[18] Siehe (Kampffmeyer, 2006 S. 15) , (Manhart, 2008) sowie (Fröschle, et al., 2007 S. 11)

[19] Vgl. (Kampffmeyer, 2003 S. 3)

[20] Vgl. (PROJECT CONSULT, 2010)

[21] Vgl. (Fröschle, et al., 2007 S. 13,14)

[22] Vgl. (Riggert, 2009 S. 177,178)

[23] Siehe auch (Kampffmeyer, 2006 S. 14)

[24] Vgl. (Manhart, 2008)

[25] Siehe (Manhart, 2008)

[26] Vgl. (Kampffmeyer, 2003 S. 16)

[27] Vgl. (Riggert, 2009 S. 11)

[28] Vgl. (Riggert, 2009 S. 11,12)

[29] Vgl. (Riggert, 2009 S. 12-14)

[30] Siehe (Manhart, 2008)

[31] Vgl. (Kampffmeyer, 2003 S. 18-19)

[32] Vgl. (Riggert, 2009 S. 24)

[33] Siehe auch (Koch, 2008 S. 3-4,16-18)

[34] Siehe (Manhart, 2008)

[35] Vgl. (Kampffmeyer, 2006 S. 38)

[36] Vgl. (Riggert, 2009 S. 51-52)

[37] Vgl. (Kampffmeyer, 2003 S. 21)

[38] Siehe auch (Riggert, 2009 S. 55)

[39] Vgl. (Riggert, 2009 S. 60-62)

[40] Vgl. (Manhart, 2008)

[41] In Anlehnung an (Manhart, 2008)

[42] Vgl. (Manhart, 2008)

[43] Eigene Darstellung

[44] Vgl. (Fröschle, et al., 2007 S. 12)

[45] Vgl. (Kampffmeyer, 2006 S. 19)

[46] Vgl. (Grenzebach, 2007)

[47] Vgl. (Riggert, 2009 S. 89-90)

[48] Vgl. (Kampffmeyer, 2006 S. 46)

[49] Siehe auch (Manhart, 2008)

[50] Vgl. (Kampffmeyer, 2006 S. 46)

[51] Vgl. (Manhart, 2008)

[52] Siehe dazu http://www.visual4.de/1745-Open-Source-CMS-Vergleich-Joomla-TYPO3-Plone-Wordpress.html, aufgerufen am 04.08.2012

[53] Vgl. (Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e. V., 2012 S. 25)

[54] Vgl. (Prof. Dr. Stefan Otto Sorg, 2009 S. 77,115)

[55] Vgl. (Riggert, 2009 S. 65,66)

[56] Vgl. (Kampffmeyer, 2003 S. 23)

[57] Vgl. (Riggert, 2009 S. 66,67)

[58] Vgl. (Kampffmeyer, 2003 S. 23)

[59] Vgl. (Kenneth C. Laudon, 2010 S. 714)

[60] Siehe auch (Kenneth C. Laudon, 2010 S. 714,715)

[61] Vgl. (Kampffmeyer, 2006 S. 52)

[62] Vgl. (Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e. V., 2012 S. 24)

[63] Siehe (Manhart, 2008)

[64] (Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e. V., 2012 S. 25)

[65] Vgl. (Riggert, 2009 S. 11,9120)

[66] Vgl. (Kampffmeyer, 2006 S. 71)

[67] Vgl. (Bärfuss, 2007)

[68] Vgl. (Riggert, 2009 S. 120,121)

[69] Vgl. (Kampffmeyer, 2006 S. 67-69)

[70] Vgl. (Riggert, 2009 S. 121,122)

[71] Vgl. (Kampffmeyer, 2006 S. 70)

[72] Vgl. (Riggert, 2009 S. 136)

[73] Vgl. (Plötner, et al., 2007 S. 552,553)

[74] Vgl. (Riggert, 2009 S. 175)

[75] Vgl. (Riggert, 2009 S. 169,170,172-175)

[76] Eigene Darstellung

[77] Vgl. (Riggert, 2009 S. 139)

[78] Vgl. (Kampffmeyer, 2006 S. 62)

[79] Vgl. (Kampffmeyer, 2006 S. 20)

[80] Vgl. (Riggert, 2009 S. 139,140)

[81] Vgl. (Riggert, 2009 S. 140)

[82] Vgl. (Riggert, 2009 S. 140-147)

[83] Vgl. (Riggert, 2009 S. 147,148)

[84] Vgl. (Kampffmeyer, 2006 S. 63,64)

[85] Vgl. (Riggert, 2009 S. 153,154)

Details

Seiten
Erscheinungsform
Erstausgabe
Erscheinungsjahr
2012
ISBN (PDF)
9783955495855
ISBN (Paperback)
9783955490850
Dateigröße
10.6 MB
Sprache
Deutsch
Institution / Hochschule
Private Fachhochschule Göttingen
Erscheinungsdatum
2015 (Februar)
Note
2
Schlagworte
DMS Dokumenten-Management Cloud-Computing Cloud Computing Enterprise-Content-Management
Produktsicherheit
BACHELOR + MASTER Publishing
Zurück

Titel: ECM in der Cloud - Potenziale und Risiken
book preview page numper 1
book preview page numper 2
book preview page numper 3
book preview page numper 4
book preview page numper 5
book preview page numper 6
book preview page numper 7
book preview page numper 8
book preview page numper 9
book preview page numper 10
book preview page numper 11
book preview page numper 12
book preview page numper 13
65 Seiten
Cookie-Einstellungen