Antw: [rak-list] Normierung von Verlagen
Heidrun Wiesenmüller
wiesenmueller at hdm-stuttgart.de
Wed Jun 27 17:30:32 CEST 2007
Lieber Herr Kalok,
> Außerdem:
> Verwenden US-amerikanische Bibliothek Normdaten in der gleichen
> Weise wie wir in Deutschland und Österreich? Meines Wissens gibt
> es da nicht unbedingt Updates in die Lokalsysteme (bei uns klappt
> das ja auch nicht immer und überall).
In der Tat - die technischen Verfahren sind nach meinem Eindruck auf
einem erschreckend ineffizienten Stand. In einem Aufsatz von Michael A.
Weber, Stephanie A. Steeler und Marilou Z. Hinchcliff über "A Consortial
Authority Control Project by the Keystone Library Network" in Cataloging
& Classification Quarterly 43 (2006),1, S. 77 - 98, wird das Vorgehen im
Detail beschrieben. Es ging dabei um eine Gruppe von 14 UBs mit jeweils
eigenen Katalogen und unterschiedlich gut ausgeprägter Authority
Control. Nota bene: Bei sieben Bibliotheken hatte es noch nie zuvor (!)
eine Aktualisierung der Normdaten gegeben.
1. Schritt: sog. "base file cleanup" (Kosten: $100.000):
Die Datenbestände aller Bibliotheken werden an einen externen
Dienstleister geschickt. Dieser gleicht sämtliche Ansetzungen im
Datenbestand mit den überregionalen Normdateien ab und
korrigiert/aktualisiert bei Bedarf. Die gesäuberten Daten werden dann
wieder in die Datenbank eingespielt und überschreiben die alten
Datensätze. Sofern im lokalen System Normsätze gehalten werden können,
liefert der Dienstleister auch eine entsprechende Normdatei mit. Während
der Bearbeitungszeit (im Beispiel waren es drei Monate) darf man an den
ausgelieferten Datensätzen natürlich nichts ändern. Eine Bibliothek, die
lokale Normdaten besaß (z.B. für Autoren ohne LoC-Authorities-Satz) und
diese erhalten wollte, musste die Datensätze getrennt sichern und
nachher wieder einspielen. Der Dienstleister produziert außerdem Listen
von Ansetzungen, für die in den überregionalen Normdateien keine
eindeutige Entsprechung gefunden wurde (im Falle einer Bibliothek waren
es über 13.000 Fälle); diese müssen dann extra von Hand nachbearbeitet
werden.
2. laufende Arbeiten:
Üblich scheint zu sein, dass der Dienstleister in regelmäßigen Abständen
die Bibliotheks-Normdateien wieder mit den überregionalen Normdateien
abgleicht und dann Files mit den neuen bzw. geänderten Datensätzen
ausgibt, damit die Änderungen lokal nachgeführt werden können.
Amerikanische Bibliothekssysteme besitzen dafür offenbar Funktionen
("global headings change"), mit denen auf Knopfdruck eine Ansetzung im
gesamten Datenbestand geändert werden kann - aber: es muss eben immer
noch jemand den Knopf drücken, anders als bei unserer
Verknüpfungstechnik! Im beschriebenen Beispiel löste man es jedoch
anders (mit einer "unusual, highly valuable option" des Anbieters): Der
Anbieter hat eine Kopie des gesamten Katalogs, überprüft regelmäßig neue
und geänderte bibliographische Datensätze und liefert diese sodann den
Bibliotheken in aktualisierter Form zurück.
Das Hin- und Herspielen der Datensätze und die verschiedenen
Update-Routinen müssen sorgfältig aufeinander abgestimmt werden, damit
keine zwischenzeitlichen Änderungen verloren gehen. Es gibt noch
verschiedene andere Problembereiche; man muss beispielsweise
sicherstellen, dass nicht aus der Kopie des Dienstleisters Datensätze
zurückgespielt werden, die im lokalen Katalog bewusst gelöscht wurden.
Auch die lokalen Normdaten bleiben ein Problem; man will auf diese
entweder ganz verzichten (also dafür sorgen, dass ein überregionaler
Normdatensatz angelegt wird) oder spezielle Felder dafür einführen (in
unseren Katalogen haben wir so etwas längst).
Puh - ich weiß nicht, ob ich selbst alles richtig verstanden habe, und
noch weniger, ob ich es nachvollziehbar geschildert habe, aber der
herrschende Standard dürfte wohl zumindest ungefähr deutlich geworden
sein. Während es mir beim Lesen des Aufsatzes eiskalt den Rücken
runterlief, waren die Autoren von den Ergebnissen des Projekts
hochbeglückt und äußerten auch generell die Meinung, dass Outsourcing
von Authority Control eine gute Lösung sei ("This is relatively
inexpensive when compared to the in-house alternative.", S. 87).
>
> Davon wären sicher alle Verlage hellauf begeistert? Wenn schon, dann
> müßte es eine internationale Datenbank sein, und alle Kleinverlage
> von Irland über Indien bis Feuerland würden mitmachen?
Ich gestehe, dass ich beim Thema "Semantic Web" selbst noch viele
Verständnisprobleme habe, aber ich glaube, dass man mit den zugehörigen
Techniken entsprechende Referenzierungen zwischen Informationen eines
Verlags und web-gerecht aufbereiteten Normdaten hinbekommen könnte,
_ohne_ dafür eine zentrale, internationale Datenbank (die natürlich
völlig utopisch wäre) auflegen zu müssen.
Viele Grüße
Heidrun Wiesenmüller
--
-----------------------------------
Heidrun Wiesenmüller M.A.
Hochschule der Medien
Fakultät Information und Kommunikation
Professur für Medienerschließung
Wolframstr. 32, 70191 Stuttgart
Tel. dienstl. 0711 25706-188
Tel. Home Office: 0711 36565868
wiesenmueller at hdm-stuttgart.de
More information about the rak-list
mailing list