Antw: [rak-list] Normierung von Verlagen

Heidrun Wiesenmüller wiesenmueller at hdm-stuttgart.de
Wed Jun 27 17:30:32 CEST 2007


Lieber Herr Kalok,

> Außerdem:
> Verwenden US-amerikanische Bibliothek Normdaten in der gleichen
> Weise wie wir in Deutschland und Österreich? Meines Wissens gibt
> es da nicht unbedingt Updates in die Lokalsysteme (bei uns klappt
> das ja auch nicht immer und überall).

In der Tat - die technischen Verfahren sind nach meinem Eindruck auf 
einem erschreckend ineffizienten Stand. In einem Aufsatz von Michael A. 
Weber, Stephanie A. Steeler und Marilou Z. Hinchcliff über "A Consortial 
Authority Control Project by the Keystone Library Network" in Cataloging 
& Classification Quarterly 43 (2006),1, S. 77 - 98, wird das Vorgehen im 
Detail beschrieben. Es ging dabei um eine Gruppe von 14 UBs mit jeweils 
eigenen Katalogen und unterschiedlich gut ausgeprägter Authority 
Control. Nota bene: Bei sieben Bibliotheken hatte es noch nie zuvor (!) 
eine Aktualisierung der Normdaten gegeben.

1. Schritt: sog. "base file cleanup" (Kosten: $100.000):
Die Datenbestände aller Bibliotheken werden an einen externen 
Dienstleister geschickt. Dieser gleicht sämtliche Ansetzungen im 
Datenbestand mit den überregionalen Normdateien ab und 
korrigiert/aktualisiert bei Bedarf. Die gesäuberten Daten werden dann 
wieder in die Datenbank eingespielt und überschreiben die alten 
Datensätze. Sofern im lokalen System Normsätze gehalten werden können, 
liefert der Dienstleister auch eine entsprechende Normdatei mit. Während 
der Bearbeitungszeit (im Beispiel waren es drei Monate) darf man an den 
ausgelieferten Datensätzen natürlich nichts ändern. Eine Bibliothek, die 
lokale Normdaten besaß (z.B. für Autoren ohne LoC-Authorities-Satz) und 
diese erhalten wollte, musste die Datensätze getrennt sichern und 
nachher wieder einspielen. Der Dienstleister produziert außerdem Listen 
von Ansetzungen, für die in den überregionalen Normdateien keine 
eindeutige Entsprechung gefunden wurde (im Falle einer Bibliothek waren 
es über 13.000 Fälle); diese müssen dann extra von Hand nachbearbeitet 
werden.

2. laufende Arbeiten:
Üblich scheint zu sein, dass der Dienstleister in regelmäßigen Abständen 
die Bibliotheks-Normdateien wieder mit den überregionalen Normdateien 
abgleicht und dann Files mit den neuen bzw. geänderten Datensätzen 
ausgibt, damit die Änderungen lokal nachgeführt werden können. 
Amerikanische Bibliothekssysteme besitzen dafür offenbar Funktionen 
("global headings change"), mit denen auf Knopfdruck eine Ansetzung im 
gesamten Datenbestand geändert werden kann - aber: es muss eben immer 
noch jemand den Knopf drücken, anders als bei unserer 
Verknüpfungstechnik!  Im beschriebenen Beispiel  löste man es jedoch 
anders (mit einer "unusual, highly valuable option" des Anbieters): Der 
Anbieter hat eine Kopie des gesamten Katalogs, überprüft regelmäßig neue 
und geänderte bibliographische Datensätze und liefert diese sodann den 
Bibliotheken in aktualisierter Form zurück.

Das Hin- und Herspielen der Datensätze und die verschiedenen 
Update-Routinen müssen sorgfältig aufeinander abgestimmt werden, damit 
keine zwischenzeitlichen Änderungen verloren gehen. Es gibt noch 
verschiedene andere Problembereiche; man muss beispielsweise 
sicherstellen, dass nicht aus der Kopie des Dienstleisters Datensätze 
zurückgespielt werden, die im lokalen Katalog bewusst gelöscht wurden. 
Auch die lokalen Normdaten bleiben ein Problem; man will auf diese 
entweder ganz verzichten (also dafür sorgen, dass ein überregionaler 
Normdatensatz angelegt wird) oder spezielle Felder dafür einführen (in 
unseren Katalogen haben wir so etwas längst).

Puh - ich weiß nicht, ob ich selbst alles richtig verstanden habe, und 
noch weniger, ob ich es nachvollziehbar geschildert habe, aber der 
herrschende Standard dürfte wohl zumindest ungefähr deutlich geworden 
sein. Während es mir beim Lesen des Aufsatzes eiskalt den Rücken 
runterlief, waren die Autoren von den Ergebnissen des Projekts 
hochbeglückt und äußerten auch generell die Meinung, dass Outsourcing 
von Authority Control eine gute Lösung sei ("This is relatively 
inexpensive when compared to the in-house alternative.", S. 87).
>
> Davon wären sicher alle Verlage hellauf begeistert? Wenn schon, dann
> müßte es eine internationale Datenbank sein, und alle Kleinverlage
> von Irland über Indien bis Feuerland würden mitmachen?
Ich gestehe, dass ich beim Thema "Semantic Web" selbst noch viele 
Verständnisprobleme habe, aber ich glaube, dass man mit den zugehörigen 
Techniken entsprechende Referenzierungen zwischen Informationen eines 
Verlags und web-gerecht aufbereiteten Normdaten hinbekommen könnte, 
_ohne_ dafür eine zentrale, internationale Datenbank (die natürlich 
völlig utopisch wäre) auflegen zu müssen.

Viele Grüße
Heidrun Wiesenmüller

-- 
-----------------------------------
Heidrun Wiesenmüller M.A.
Hochschule der Medien
Fakultät Information und Kommunikation
Professur für Medienerschließung
Wolframstr. 32, 70191 Stuttgart
Tel. dienstl. 0711 25706-188
Tel. Home Office: 0711 36565868
wiesenmueller at hdm-stuttgart.de



More information about the rak-list mailing list