Abstract von Xenia Kitaeva, Alexander Winkler, Joshua Ramon Enslin
Spätestens seit der öffentlichkeitswirksamen Veröffentlichung von ChatGPT im Jahr 2022 gibt es vermehrte Diskussionen zum Einsatz von Künstlicher Intelligenz auch in Museen. Naheliegende und in verschiedenen Foren besprochene Einsatzszenarien von KI im Bereich der direkt Sammlungsbezogenen Museumsarbeit beziehen sich dabei oft auf die Bildanalyse: Automatische Verschlagwortung auf Basis der Objekt-Abbildungen, Erkennung von Orten, Ähnlichkeitssuchen. Ironischerweise sind – möglicherweise mit Ausnahme der Ähnlichkeitssuche – all diese Anwendungen klassische Anwendungen für machinelles Lernen abseits der in der Öffentlichkeit richtungsweisenden Large-Language Models (LLMs).
In diesem Beitrag wird ein experimentell in Zusammenarbeit von museum-digital, digiS, dem Zuse-Institut Berlin und dem Freien Deutschen Hochstift, Frankfurt am Main entwickelter, LLM-basierter Ansatz vorgestellt werden. Hierbei werden bestehende, strukturierte Objektmetadaten zur Generierung von Vorschlägen für Objektbeschreibungstexten genutzt.
Kurze, allgemeinverständliche Objektbeschreibungen sind bei der Veröffentlichung von Objektdaten in museum-digital Pflicht. Sie dienen einerseits der Zugänglichkeit der Inhalte für Datenbanken fremdere Benutzergruppen und Menschen mit eingeschränkten Sehvermögen, verbessern die Sichtbarkeit der Objekte gegenüber Suchmaschinen, und erlauben gleichzeitig eine nuanciertere Beschreibung von Sachverhalten, als das mit rein strukturierten und maschinenlesbaren Metadaten möglich wäre. Bisher steht das Ausformulieren der Prosatexte allerdings in einer natürlichen Konkurrenz zur strukturierten Datenerfassung – beide brauchen schlicht Zeit und Arbeitskraft.
Die Zusammenfassung und Umformulierung von natürlichsprachlichen Inhalten ist eine der primären Stärken von Large-Language Models. Wenn es also gelänge, bestehende strukturierte Metadaten zur automatischen Generierung von Objektbeschreibungstexten zu nutzen, könnte dies eine starke Veränderung der Anreize bedeuten: Um bessere Objektbeschreibungstexte zu gewinnen, besteht ein Anreiz, bessere strukturierte Metadaten zu erzeugen. So würden beide Aspekte profitieren. Da bei Prosa-Texten aber eben auch neue Möglichkeiten von nuanciertem Ausdruck entstehen, KI-Modelle kein tatsächliches Verständnis der Inhalte haben, und die Texte zur Publikation gedacht sind, ist eine manuelle Kontrolle und Verbesserung der KI-generierten Vorschläge dringend nötig.
Im vorliegenden, vorerst experimentellen Aufbau, erhalten seit Juli 2025 alle deutsch Benutzer von museum-digital die Möglichkeit sich auf Knopfdruck drei Vorschläge für Beschreibungstexte eines Objektes, das ein Mindestmaß an strukturierten Metadaten hat, generieren zu lassen. Hierzu werden die strukturierten Objektmetadaten serialisiert, in eine natürlichsprachliche, ggfs. objektart-spezifische Prompt-Vorlage eingefügt, und an das KI-Cluster des Zuse-Institutes gegeben. Dort werden die Vorschläge mithilfe frei verfügbarer und zum jetzigen Zeitpunkt nicht nachtrainierter Open-Weights-Modelle (derzeit Gemma 2, Gemma 3, Phi 4) generiert und an die User zurückgegeben. Die Generierung dreier Vorschläge ist dabei ein essentieller Teil des Designs: So sollen Nutzende dazu inzentiviert werden, alle Vorschläge eingehend zu lesen und den besten im Anschluss einfach korrigieren und vervollständigen zu können. Jeder der beschriebenen Arbeitsschritte wird eingehend protokolliert. Eine erste Auswertung wird im Rahmen des Vortrages vorgestellt.