... | ... | @@ -345,7 +345,7 @@ Ein Problem stellen Webseiten dar, deren Erscheinung durch Interaktionen mit Ben |
|
|
|
|
|
Für den Archivierungsvorgang von Webseiten ist es notwendig den Zeitpunkt der Archivierung festzuhalten und vorab festzulegen, ob es sich um einen einmaligen Vorgang handelt oder ob in bestimmten Zeitabständen eine erneute Archivierung erfolgen soll, um veränderte Inhalte zu dokumentieren.
|
|
|
|
|
|
Es kommen verschiedene Methoden zum Einsatz (vgl. kost-ceco | Studie Webarchivierung | Webarchivierung). Hier soll nur kurz der Vorgang des Crawlen und Harvesting erwähnt werden.
|
|
|
Es kommen verschiedene Methoden zum Einsatz (vgl. [kost-ceco | Studie Webarchivierung | Webarchivierung](https://kost-ceco.ch/cms/web_archiving_study_de.html). Hier soll nur kurz der Vorgang des Crawlen und Harvesting erwähnt werden.
|
|
|
|
|
|
Durch einen Crawler werden zunächst Informationen über Webseiten eigesammelt, wie das letzte Änderungsdatum und Gültigkeit von Hyperlinks. Ausgehend von einer Staradresse werden gefundene Inhalte in ein Archivobjekt geschrieben (Remote harvesting). Hierbei lassen sich Start- und Endpunkt sowie Abbruchbedingungen eines Archivierungsvorgangs festlegen. Eingebundene Objekte wie Texte, Bilder und Grafiken werden eingesammelt und mit den html- und css-Dateien in einem Archivobjekt gespeichert.
|
|
|
|
... | ... | |