„Alexa, wer hat versucht, uns zu erpressen?“ Ganz so leicht ist es dann doch nicht. Die Forensische Linguistik ist eine kriminalistische Hilfswissenschaft, die sich mit Sprache im gerichtlichen Kontext beschäftigt. Dazu zählen sowohl die vor Gericht verwendete Sprache wie auch beispielsweise die Autoren- und Sprechererkennung (Fobbe, S. 15 f.). Oder, um es mit den Worten von Patrick Rotter, selbst in der Forensischen Linguistik tätig, zu sagen: „Für uns Sprachprofiler ist Sprache in erster Linie Identität. Egal ob gesprochen oder geschrieben. Sie ist ein Teil von uns.“ (Rotter, S. 15) Um Identität(-sfindung) soll es in diesem Beitrag gehen – und um die Frage, wie sehr die Künstliche Intelligenz (KI) in diesem Bereich Ermittler*innen entlasten oder vielleicht sogar ersetzen kann.
Entwicklung der Spracherkennung
Der Versuch, Sprache mittels Computern zu analysieren und zu erkennen, ist nicht neu:
Zeitleiste: Meilensteine der computergestützten Spracherkennung
Was aber, wenn es nicht nur darum geht, kurze Nachrichten in Text zu verwandeln, sondern etwa herauszufinden, wer eine anonyme Drohbotschaft versendet hat? In den letzten Jahren gab es mehrere Studien dazu, von denen ich hier zwei vorstellen möchte.
Software & Audioerkennung
Mit Spracherkennung von komplexeren Audiodateien hat sich unter anderem Franz Bellmann in seiner Bachelorarbeit beschäftigt: er testete sechs frei verfügbare Softwares auf die Eignung zur Transkription von Audiodateien (mit verschiedenen Längen, in verschiedenen Sprechgeschwindigkeiten und mit und ohne Dialekt) in einem polizeilichen Kontext (Bellmann, S. 23). Wie seinen Schlussfolgerungen zu entnehmen ist, haben alle benutzten Programme Schwierigkeiten bei der Worterkennung, Google Web Speech API hat sich am besten geschlagen (Bellmann, S. 47). Doch selbst diese beste Alternative hat immer noch eine Fehlerrate von ca. 30%(!) bei der Transkription (Bellmann, S. 44).
Software & Textzuordnung
Manuel Dorobek untersuchte in seiner Masterarbeit 2021 ein ähnliches Projekt, aber auf geschriebene Texte bezogen: kann die KI im Internet veröffentliche Rezensionen zuverlässig den jeweiligen Autor*innen zuordnen? Er wählte 25 Autor*innen mit jeweils 100 verfassten Texten aus (Dorobek, S. 25), die vom besten Modell mit einer Genauigkeit von 96,4% erkannt wurden (Dorobek, S. 149). Zum Trainieren der KI wurden 60 Vorlagetexte genutzt (Dorobek, ebd.). Zwei Autor*innen voneinander zu unterscheiden, gelang schon mit drei Vorlagen (Dorobek, ebd.). Das sind sehr gute Werte, doch in der echten Welt ist der Kreis der Verdächtigen nicht immer so leicht eingrenzbar. Außerdem kann es sein, dass nicht genug Vergleichstexte vorliegen oder keine Texte in ausreichender Länge – weshalb auch Dorobek selbst zu dem Ergebnis kommt: „Für einen Anwendungsfall in der Praxis sind diese Ergebnisse deshalb mit Vorsicht zu betrachten.“ (Dorobek, ebd.)
Fazit
KI kann also bisher beim geschriebenen Wort besser unterstützen als beim gesprochenen. Bis die Technik weit genug entwickelt ist, um gerichtsfeste Ergebnisse zu liefern – denn immerhin geht es hier auch um Straftaten und die Frage, ob Menschen ins Gefängnis kommen! – wird also noch einige Zeit vergehen. Bis dahin gilt die Einschätzung von Patrick Rotter:
„Unsere Lebensleistung an Wort und Text ist schlicht nicht zu erfassen. Und dank der zwangsläufigen Veränderungen auch nicht in starre Muster zu packen. […] Keine künstliche Intelligenz dieser Welt ist in der Lage, sämtliche Dialekte, feinste Nuancen und die ständigen Veränderungen in der Sprache zu begreifen.“ (Rotter, S. 40)
Quellen
Fobbe, Eilika (2011): Forensische Linguistik. Tübingen: Narr Francke Attempto Verlag Rotter, Patrick (2021): Die geheimen Muster der Sprache. 3. Auflage, München: Redline-Verlag Bellmann, Franz (2020): Prototypische Systemintegration und Evaluation von Open Source Sprachmodellen zur automatischen Spracherkennung gesprochener deutscher Texte. Online-Ressource, abrufbar unter BA Bellmann Dorobek, Manuel (2021): Automatisierte Autorschaftsanalyse in der deutschen Sprache mittels forensischer Linguistik. Online-Ressource, abrufbar unter MA Dorobek Bildquelle: Wedekind, Kai: HTML 5 Speech Recognition API. Online abrufbar unter *iYxrR4zaECeQ5AgSq3jy_A.png Beitragsbild: mohammed_hassan auf Pixabay. Online abrufbar unter https://pixabay.com/images/id-7620463/
Im folgenden Artikel erfahren Sie, was Search Engine Optimization ist, warum das für jeden Host einer Website von Bedeutung ist und was das mit weißen, schwarzen und grauen Hüten zu tun hat. Viel Vergnügen!
Search Engine Optimization, kurz SEO, umfasst alle Maßnahmen, die zu einem besseren Ranking einer Website innerhalb der organischen Suchergebnisse von Google, Bing und Co. führen (vgl. Kohring 2022, S. 10). Organische Suchergebnisse sind dabei die „kostenlosen“ Treffer auf der Search Engine Result Page (SERP), die nicht über Anzeigenformate wie Google Ads oder Google Shopping generiert werden (vgl. Searchmetrics 2022a).
Ein gutes Ranking verschafft eine bessere Sichtbarkeit und eine höhere Reichweite. Dass Treffer, die nicht unmittelbar auf der ersten Ergebnisseite angezeigt werden, von Nutzer*innen angeklickt werden, ist schließlich eine Rarität (vgl. Kohring 2022, S. 10-11). Durch SEO sollen deshalb häufig auch der Bekanntheitsgrad der eigenen Marke, der Marktanteil und/oder der Umsatz gesteigert werden (vgl. Searchmetrics 2022b).
Die Maßnahmen, die zur Suchmaschinenoptimierung eingesetzt werden können, sind sehr vielfältig. Man unterscheidet dabei zwischen White-Hat- und Black-Hat-Methoden. In den folgenden Abschnitten können Sie mehr darüber erfahren.
Was versteht man unter White-Hat-SEO?
Marion Davies portraitiert von Hamilton King 1920 Quelle: Wikimedia Commons (public domain)
Definition
White-Hat-SEO orientiert sich an den Richtlinien, die Suchmaschinenanbieter für SEO-Maßnahmen vorgeben (vgl. Searchmetrics 2022b). Auf der Entwickler-Plattform „Google Developers“ hat Google beispielsweise einen umfassenden „Startleitfaden“ zur Umsetzung von Suchmaschinenoptimierung veröffentlicht.
Erlaubt ist in der Regel, was einen technischen oder inhaltlichen Mehrwert bietet, den Nutzerkomfort steigert und ethisch unbedenklich ist (vgl. Google 2022). Eine Manipulation der Suchergebnisse, die Suchmaschine oder User*innen in die Irre führen soll, hingegen ist nicht zulässig (vgl. SEO Küche 2022). Die User Experience hat bei Google und Co. mittlerweile einen sehr hohen Stellenwert, deshalb wird im Zusammenhang mit Search Engine Optimization manchmal auch von „Search Experience Optimization“ gesprochen (Searchmetrics 2022b). Es gilt der Grundsatz, dass eine Website nicht für Suchmaschinen, sondern für Nutzer*innen optimiert werden sollte (vgl. SEO Küche 2022).
Beispiele
Verwendung von qualitativ hochwertigen und einzigartigen Inhalten
Verbesserung der Navigation innerhalb der Website
technische Fehler beheben
Ladezeiten verkürzen
Optimierung der Metaangaben
natürliches Linkbuilding: ein besseres Ranking kann erreicht werden, wenn andere Websites auf die eigene Website verlinken – man spricht dabei auch von sogenannten „Backlinks“; „natürlich“ heißt in diesem Zusammenhang, dass die Verlinkungen nicht durch Linkkauf oder das Posten von Spam-Links in Foren, Blogs o.ä. erreicht werden
Vorteile
langfristiger Erfolg
ethisch unbedenklich
eine bessere User Experience sorgt neben einem besseren Suchmaschinenranking auch für eine bessere Kundenbindung
ist im Einklang mit den Guidelines der Suchmaschinenanbieter, wird von ihnen nicht abgestraft
Nachteile
hoher Aufwand, komplex in der Umsetzung
benötigt Geduld
dauerhafte Aufgabe (ständiges Monitoring, Analyse und erneute Anpassungen sind notwendig, damit der Erfolg anhält)
Als Black-Hat-SEO bezeichnet man Methoden der Suchmaschinenoptimierung, die gegen die Guidelines der Suchmaschinenanbieter und/oder gegen ethische Grundsätze verstoßen (vgl. Pollitt 2020). Die Verwendung von Black-Hat-SEO kann zu einem schnellen Erfolg führen, dieser Erfolg ist in der Regel aber nur von kurzer Dauer (vgl. OSG Team 2018). Wenn die Anwendung von Black-Hat-Methoden von Suchmaschinen bzw. deren Algorithmen erkannt wird, werden die entsprechenden Websites mit einem schlechten Ranking bestraft oder sogar komplett aus dem Index der Suchmaschinenanbieter entfernt (vgl. Pollitt 2020). In extremen Fällen können sogar rechtliche Konsequenzen drohen (vgl. Searchmetrics 2022b).
Auch Taktiken, die aktuell nicht explizit von den Suchmaschinen verboten sind, können zukünftig von Bestrafungen betroffen sein. Googles Algorithmen werden kontinuierlich weiterentwickelt. Die Bekämpfung von Spam-Content wurde beispielsweise durch das Panda Update und das Penguin Update verbessert (vgl. Ryte 2021). Eine Verwendung von Black-Hat-Methoden ist aufgrund der ethischen Fragwürdigkeit und drohenden Strafen also nicht empfehlenswert.
Beispiele
Cloaking: Nutzer*innen und Suchmaschine werden unterschiedliche Versionen einer Website angezeigt
Hidden Text: Text wird so auf der Website platziert, dass er von Suchmaschinen beim Crawling erkannt wird, aber für Nutzer*innen unsichtbar ist (z.B. Schrift und Hintergrund im gleichen Farbton)
Keyword Stuffing: übermäßige Verwendung eines Keywords in Text, Überschrift etc. ohne inhaltliche Relevanz
Linkkauf: Betreiber*innen anderer Websites werden dafür bezahlt, dass sie auf die eigene Website verlinken
Vorteile
schnelle Erfolge
weniger komplex und kostengünstiger als White-Hat-SEO
Nachteile
unethisch
Erfolg nur von kurzer Dauer
wird langfristig von Suchmaschinen durch ein schlechtes Ranking oder komplettes Entfernen aus dem Index abgestraft
Grey-Hat-SEO ist im Grunde genommen alles, was zwischen White-Hat- und Black-Hat-SEO liegt – Maßnahmen, die nicht explizit von Suchmaschinenanbietern verboten sind, aber vielleicht ethisch grenzwertig oder nur eine leichte Abwandlung von bekannten Black-Hat-Instrumenten sind. Teilweise wird unter dem Begriff auch die Kombination von White- und Black-Hat-Methoden verstanden. Eine genaue Auflistung von Grey-Hat-Maßnahmen ist schwierig, weil sowohl der Übergang zwischen White Hat und Grey Hat als auch zwischen Grey Hat und Black Hat oftmals fließend ist (vgl. für diesen Absatz Pollitt 2020).
SEO-Experten sind sich uneinig darüber, ob die Anwendung von Grey-Hat-SEO empfehlenswert ist. Einige betonen die Unsicherheit, die mit Grey-Hat-Methoden einhergeht, da es keine Garantie dafür gibt, dass deren Verwendung nicht zukünftig von Google oder anderen Suchmaschinen abgestraft wird (vgl. Ryte 2021). Andere gehen davon aus, dass ein gutes Ranking nicht ausschließlich durch White-Hat-Methoden erreicht werden kann, insbesondere, wenn die Konkurrenz groß ist (vgl. Pollitt 2020).
Woher stammt die Hüte-Terminologie?
Jack Kelly, Kathleen Crowley und Mike Road in der TV-Serie Maverick 1962 Quelle: Wikimedia Commons (public domain)
Die Begriffe White Hat und Black Hat findet man u.a. auch im Zusammenhang mit ethischem oder unethischem Hacken. Ihren Ursprung hat die Terminologie allerdings in der Kostümierung in Westernfilmen. Hier trug der gute Cowboy traditionell einen weißen Hut und der böse Cowboy einen schwarzen (vgl. Pollitt 2020). Für die Zuschauer*innen war so auf einen Blick erkennbar, wer auf welcher Seite steht.
Autor*innen: Mandy Tanneberger und Andreas Schlüter
Lesezeit: 6 Minuten
Sie interessieren sich für Citizen Science, wissen aber nicht wie Sie anfangen können? Keine Angst! Dieser Leitfaden soll Ihnen den Einstieg erleichtern.
Eine einheitliche Definition des Begriffes gibt es nicht, die deutschsprachige Wikipedia liefert einen guten und verständlichen Überblick.
„Mit Citizen Science (auch Bürgerwissenschaft oder Bürgerforschung) werden Methoden und Fachgebiete der Wissenschaft bezeichnet, bei denen Forschungsprojekte unter Mithilfe von oder komplett durch interessierte Laien durchgeführt werden. Sie formulieren Forschungsfragen, recherchieren, melden Beobachtungen, führen Messungen durch, publizieren oder werten Daten aus.“ [1]
Kurz und knapp: Jede*r von uns kann ein Citizen Scientist werden. In der Regel startet alles mit einer Frage, die Sie nicht mehr loslässt oder dem Wunsch selbst wissenschaftlich aktiv zu werden. Dabei ist es vollkommen egal, um welche Thematik es sich handelt. Sie können sich beispielsweise mit dem Schutz der Meere[2], dem Bienensterben[3] oder den Auswirkungen der Corona-Pandemie[4] beschäftigen. Haben Sie sich für eine Thematik entschieden, gilt es einen möglichen Erkenntnisgewinn für die Forschung zu definieren und anschließend mit Ausdauer und persönlichem Engagement seine Ziele zu verfolgen. Sie können in einem bestehenden Projekt mitwirken oder eigene Wissenschaft betreiben. Es kann sich lohnen Mitstreiter für ihr Projekt zu begeistern und anzuwerben. Hierfür spielt es keine Rolle, ob sie bereits über Erfahrung in der wissenschaftlichen Arbeit verfügen oder sich einfach gesellschaftlich engagieren wollen.[5]
Alle Kinder sind geborene Wissenschaftler, bis wir es ihnen austreiben. Nur ein paar wenige sickern mit intakter Neugier und Begeisterung für die Wissenschaft durch das System.
Die Wege um als Citizen Scientist aktiv zu werden sind vielfältig. International gibt es zahlreiche Forschungsprojekte die nach freiwilligen Mitwirkenden suchen. Eine aktuelle Übersicht der in Deutschland stattfindenden Bürgerwissenschaft finden Sie auf den folgenden Seiten:
Dort können Sie ein zu ihren Interessen passendes Projekt finden oder nach Inspiration für eigene Ideen suchen.
2. Schritt – Vorbereitung
Haben Sie erstmal ein spannendes Vorhaben gefunden, gilt es nicht vorschnell zu Handeln und in Ruhe zu konzipieren, was für die Umsetzung benötigt wird. Dazu zählt beispielsweise:[6]
Erstellung eines Protokolls für die anfallenden Daten
Wichtige Fragen des Projekts klären (Zielstellung, Verfahren, Art der Beteiligung)
Rechtliche Handhabe im Bezug auf Datenerfassung-/Speicherung
die eigene Rolle definieren
3. Schritt – Starten
Aller Anfang ist schwer, aber es lohnt sich! Denken Sie immer daran: Citizen Science ist keine Raketentechnik! In erster Linie soll es Ihnen Freude bereiten. Seien Sie offen für diese neue Erfahrung. Trauen Sie sich, Fragen zu stellen. Es gibt in jedem Projekt Personen, die Einsteigern helfen können und wollen! Suchen Sie sich einen Mentor oder eine Mentorin, knüpfen Sie Kontakte. Und wer weiß, vielleicht werden Sie auch selbst bald zur gefragten Personen. Teilen Sie Ihr Wissen.
Hier finden Sie hier Antworten und Unterstützung:
Netzwerk und Arbeitsgruppen | Bürger schaffen Wissen (buergerschaffenwissen.de)
Zum Schluss noch ein kleiner Anreiz: Ihre Arbeit kann sogar finanziell honoriert werden. Im Rahmen des Citizen-Science-Wettbewerbes werden in Deutschland besonders gelungene Projekte ausgezeichnet und erhalten ein Preisgeld von 50.000€. Jeder kann sich und sein Projekt bewerben[7] . Also los geht’s!
Citizen Science… das klingt so großstädtisch, so modern. So gar nicht nach der dörflichen Abgeschiedenheit mit ihrem quälend langsamen Internet oder den in Ballungsräumen kaum bekannten Funklöchern.
Brauchen wir wirklich Bürgerwissenschaften? Für die Forschung sind doch Universitäten und diverse Forschungsgesellschaften zuständig? Mehrere Gründe sprechen für die Wichtigkeit von Citizen Science und die Beteilung von Bürgerwissenschaftler:innen.
Zum einen profitiert die Wissenschaft selbst von den Bürgerwissenschaften. Wissenschaftler und Forscher können gar nicht alle benötigten Daten selbst erfassen und auswerten. Denken Sie an die unglaubliche Menge beobachteter und gezählter Vögel beim „bird count“! [8]
Menschengruppe beim Christmas Bird Count im Lee Metcalf National Wildlife Refuge.
Ausserdem entsteht ein gesamtgesellschaftlicher Nutzen. Die Wissenschaft wird ermutigt, den sprichwörtlichen Elfenbeinturm zu verlassen. Die Bevölkerung kann ihrerseits einen Beitrag zur Wissenschaft leisten. Dabei kommt es geradezu zwangsläufig zum Austausch zwischen allen Beteiligten.
Und natürlich haben auch Sie als Bürgerwissenschaftler selbst etwas von der Teilnahme. Sie leisten einen aktiven Beitrag zu wissenschaftlicher Forschung. Sie selbst können Forschungsfragen definieren und wissenschaftliche Ergebnisse auch kritisch hinterfragen.
Aber muss Citizen Science überhaupt zwingend im digitalen Raum stattfinden? Schaut man sich die Liste der Projekte auf der Internetseite „Bürger schaffen Wissen“ an, kann schon der Eindruck entstehen, dass hier ohne Smartphone und internetfähigem PC nur wenig geht.
Aber der Eindruck täuscht. Denn oft müssen nur die finalen Ergebnisse elektronisch per App übermittelt werden. Ein Großteil der eigentlichen Arbeit kann gänzlich analog stattfinden. Oft verlangen Citizen Science Projekte nämlich vor allem eines: Geduld. Das folgende Bild zeigt sehr eindrucksvoll, dass Bürgerwissenschaften auch eine sehr praktische Komponente beinhalten kann. Es werden zum Beispiel Rezepte nachgekocht, die vorher aus einem handgeschriebenen Kochbuch mühsam transkribiert worden sind.[9] Neben einer Transkription finden Sie auf den Internetseiten des Volkskundemuseums Wien auch ein Glossar für die heute nicht mehr gebräuchlichen Begriffe. Und beim Kochen spielen weder Internet noch Smartphone eine Rolle. Hier geht es um praktische Fähigkeiten.
Handschriftlich verfasstes Kochbuch aus dem 18. Jahrhundert, Volkskundemuseum Wien.
Andreas Schlüter Herzogin Anna Amalia Bibliothek (@DirektorHAAB) / Twitter
E-Mail: andreas.schlueter@klassik-stiftung.de
Quellenverzeichnis
Fußnoten
1 Wikipedia 2022
2 Vgl. Pham 2018
3 Vgl. Bundesministerium für Bildung und Forschung 2019
4 Vgl. Forschung und Lehre 2020
5 Vgl. Bürger schaffen wissen (o.J.)
6 Vgl. Wissenschaftskommunikation (o.J.)
7 Vgl. Jördens 2022
8 Vgl. Audubon 2022
9 Vgl. Paukner 2019
Literaturverzeichnis
Audubon (2022): Join the Christmas Bird Count. You can add to a century of community science by joining a count near you. Online unter Join the Christmas Bird Count | Audubon [Abruf am 29.12.2022]
Bundesministerium für Bildung und Forschung (2019): Dem Bienensterben auf der Spur. Zuletzt aktualisiert am 12.07.2019. Online unter Dem Bienensterben auf der Spur – BMBF [Abruf am 15.12.2022]
Ein klassischer hölzerner Zettelkatalog mit dutzenden kleinen Schubladen
Ursprünglich wurden Bibliotheksbestände in Zettelkatalogen verzeichnet. Ein Zettelkatalog bestand aus vielen Katalogkarten (oder Zetteln), wobei auf jedem Zettel genau eine der in der jeweiligen Bibliothek vorhandenen Publikationen verzeichnet wurde. Die Zettel wurden üblicherweise in extra dafür angefertigten Katalogkästen nach dem Alphabet geordnet aufbewahrt. Meist wurden mehrere Zettelkataloge geführt, die nach verschiedenen Kriterien (Verfassernamen, Themen, Titel der Publikation) geordnet waren. Diese benötigen aber viel Platz und die Recherchemöglichkeiten sind limitiert – in der Regel sind Zettelkataloge nach dem Nachnamen der Autoren aufgestellt, manchmal auch unter dem Titel des Werks. Ist beides nicht bekannt, kommen Bibliotheksnutzende schnell an ihre Grenzen und werden im schlechtesten Fall gar nicht fündig.
Deshalb entstanden in den späten 1970ern die ersten digitalen Kataloge in Bibliotheken, vorrangig an solchen mit wissenschaftlichem Schwerpunkt, und legten den Grundstein für den modernen OPAC.1
Was ist eigentlich ein OPAC?
OPAC steht für "Online Public Access Catalogue". Es ist ein international genutzter Begriff, der Online-Kataloge von Bibliotheken bezeichnet.2
Aber auch die ersten digitalen Kataloge bestachen noch nicht durch eine große Auswahl an Sucheinstiegen oder Komfortfunktionen, über die heutige OPACs verfügen. Im Laufe der Zeit wurden bekannte Funktionen wie Trunkierungen etabliert, die inzwischen als selbstverständlich gelten. An eine erweiterte bzw. Expertensuche, die es ermöglicht, exakt nach dem Erscheinungsjahr, der Sprache oder dem Verlag des gewünschten Titels zu suchen, war beim Gebrauch eines Zettelkatalogs nicht zu denken. Zudem erleichterten diverse Anzeigemöglichkeiten wie eine Sortierung nach Erscheinungsdatum oder Relevanz die Recherche.3
Anfangs gestaltete sich die Etablierung des OPACs als schwierig, da sie eine gravierende Umstellung für Bibliothekspersonal und -nutzende bedeutete. Die gesamte Herangehensweise musste geändert werden, um das Gewünschte erfolgreich recherchieren zu können. Manche Bibliotheken hielten ihren OPAC unter Verschluss, sodass er nur für das Personal nutzbar war. Das Übertragen der Daten aus dem Zettelkatalog in ein digitales Format war zeitaufwendig. Manche Bibliotheken übertrugen deshalb keine Altbestände, nutzen den OPAC nur für die Suche nach neuen Medien und parallel den Zettelkatalog, um nach älteren Beständen zu recherchieren.4
Vor der Verbreitung des Internets waren OPACs nur vor Ort in den jeweiligen Bibliotheken nutzbar, seit Mitte der 1990er Jahre können die meisten aber bequem von Zuhause eingesehen werden.5
OPAC-Recherchestationen früher und heute
Usability eines modernen OPACs
Unter Usability versteht man die Gebrauchstauglichkeit von Produkten. Dabei geht es um die Betrachtung, wie effektiv, effizient und zufriedenstellend die Nutzung eines Produktes ist.7 Für den Bereich des Onlinekatalogs liegt momentan das Augenmerk auf dem Angebot der Recherchemöglichkeiten, den Onlineservices im Benutzerkonto und der Barrierefreiheit.
Für die Recherche bieten moderne Onlinekataloge meist verschiedene Recherchewege an. Die von Nutzenden am häufigste verwendete ist die Einfache Suche über einen Suchschlitz, wie er insbesondere durch Google bekannt ist. In einem nächsten Schritt können die Ergebnisse über sogenannte Facetten weiter eingegrenzt werden. Über die erweiterte Suche lassen sich je nach OPAC-Anbieter vor dem Beginn der Suche die Ergebnisse, beispielsweise nach einem Medientyp oder einem Autor, eingrenzen. Eine weitere Möglichkeit ist der Gebrauch von Schlagworten bei der Recherche.
Durch den OPAC können die Nutzenden auf das eigene Benutzerkonto zugreifen und dort verschiedene Services nutzen. So können Nutzende einsehen, welche Medien sie entliehen haben, diese verlängern oder sie bei der Nutzung von E-Medien auch online zurückgeben. Einige OPACs bieten ihren Nutzenden den Service, nicht verfügbare Medien vorzumerken oder sich für angebotene Veranstaltungen anzumelden.
Die Umsetzung der Barrierefreiheit bei der Nutzung eines Onlinekatalogs beschäftigt momentan die meisten Bibliotheken.
Was ist Barrierefreiheit?
Die barrierefreie Gestaltung von digitalen Angeboten, bedeutet diese auch für Menschen mit körperlichen oder kognitiven Einschränkungen uneingeschränkt und eigenständig, bzw. mit Hilfe von Assistenzprodukten, nutzbar zu machen.8
Visionen für die Zukunft
Sowohl wissenschaftliche als auch öffentliche Bibliotheken haben erkannt, dass ein Onlinekatalog ihren Nutzenden einen weitaus größeren Mehrwert bieten kann, als nur eine vielfältigeres Recherchetool zu sein oder den Zugriff auf das eigene Benutzerkonto zu bieten.
Viele Bibliotheken legen den Fokus schon jetzt eher aufs Stöbern als auf das gezielte Suchen. Nutzende sollen nicht zwingend mit einem exakten Titel in die Recherche starten müssen, sondern sich vom Angebot der Bibliothek inspirieren lassen. Dabei helfen z.B. Themen- bzw. Genre-Sucheinstiege, Titel, die dem gerade aufgerufenen ähnlich sind, oder eine Sortierung nach Beliebtheit. Auch Neuerscheinungen oder gerade zurückgegebene Medien können direkt auf der Startseite angepriesen werden.
Bei der Entwicklung von OPACs wird vermehrt Wert darauf gelegt, sie auf Mobilgeräten mindestens genauso funktional und ansprechend benutzbar zu machen wie auf dem klassischen PC oder Laptop. Mobile Endgeräte haben stationäre überholt und sind das beliebtere Mittel der Nutzenden um im Internet zu surfen – und um Recherchen durchzuführen.9
Eine weitere zukunftsweisende Idee ist, Nutzende beim Bestandsaufbau und der Erschaffung inhaltlichem Mehrwerts der Medienbeschreibungen mit einzubeziehen. So können Anschaffungswünsche anonym oder auch personenbezogen über ein Formular geäußert werden. Ein OPAC-Anbieter macht den Nutzenden persönliche Lesevorschläge anhand der Titel die andere Leser auch ausgeliehen haben. Die Nutzenden können Medien mit Sternen bewerten und eigene Rezensionen schreiben.
Youtubevideo zur Gestaltung eines OPACs zur Kundengewinnung
Denkbare Weiterentwicklungen sind Wunschlisten und die Benachrichtigung über neuerworbene Titel aus diesen Listen. Für eine neue Ausstellung im Schiller-Nationalmuseum in Marbach soll ein digitales Miniaturmodell eines literarischen Gedächtnisspeichers entstehen, der aus verschiedenen Perspektiven erforscht und erfahren werden kann.10
Abschließend lässt sich sagen: Ein OPAC muss einfach und intuitiv zu bedienen sein und eine Suche schnell zum Ziel führen. Gleichzeitig soll er aber auch zum Verweilen und Stöbern einladen und Nutzende auf die vielen verschiedenen Möglichkeiten hinweisen, die die Bibliothek bietet, ohne überladen zu wirken.
Themenverwandte Blogs
Digitale Transformation – Digitale Leseräume als neuer Ort des Zusammenkommens
Die Website ist die Bibliothek
Quellen
1Frank, Silke (o.J.): Gestaltung von Benutzeroberflächen und Recherchemöglichkeiten bei OPACs: State of the art und Trends. Berlin: Institut für Bibliotheks- und Informationswissenschaft (Berliner Handreichungen zur Bibliotheks- und Informationswissenschaft, Heft 188). S. 9
2vgl. IGI-Global (2022): What is OPAC. Online unter: https://www.igi-global.com/dictionary/social-software-use-public-libraries/21147 [Abruf am 07.03.2022]
3vgl. Störberl, Cornelius (2016): Discovery-System versus OPAC der Herzog August Bibliothek. Eine vergleichende Studie der Recherchefunktionalitäten. Hannover, Hochschule Hannover. S. 4-5
4vgl. Bowman, J. H. (2007): OPACs: the early years, and user reactions. London: University College. Library History, Vol. 23. S. 317-318
5vgl. Klaus Gantert (2016): Bibliothekarisches Grundwissen. 9., vollständig neu bearbeitete und erweiterte Auflage. München: Saur. S. 228.
6vgl. Tiemann, Sarah (2016): Vom klassischen OPAC zum modernen Rechercheportal : Ansätze zur Einführung eines Discovery Systems an der ZHB Lübeck. Berlin: Institut für Bibliotheks- und Informationswissenschaften der Humboldt-Universität. (Berliner Handreichungen zur Bibliotheks- und Informationswissenschaft , Bd. 406). S. 16
7vgl. Grünwied, Gertrud (2017): Usability von Produkten und Anleitungen im digitalen Zeitalter. Handbuch für Entwickler, IT-Spezialisten und Technische Redakteure. Erlangen. Publicis Publishing. S. 11
8vgl. ebenda S. 76
9vgl. Enge, Eric (2021): Mobile vs. Desktop Usage in 2020. Online unter: https://www.perficient.com/insights/research-hub/mobile-vs-desktop-usage [Abruf am 16.03.2022]
Bibliotheken haben den Auftrag, Medien und Informationen für Nutzerinnen und Nutzer aufzuarbeiten und bereitzustellen. Doch jedes Jahr werden mehrere Millionen Publikationen veröffentlicht. Die DNB allein verzeichnete den Zugang 2.352.693 neuer Einheiten im Jahre 2020[1]. Wer soll da den Überblick behalten? Text und Data Mining kann hier Abhilfe schaffen.
Text Mining, Data Mining, Text Data Mining, Textual Data Mining, Text Knowledge Engineering, Web Mining, Web Content Mining, Web Structure Mining, Web Usage Mining, Content Mining, Literature Mining und sogar Bibliomining[2] – viele Begriffe, die alle das selbe Konzept – teilweise mit unterschiedlichen Schwerpunkten – bezeichnen, welches im Folgenden Text und Data Mining, kurz TDM, genannt werden soll. Grob gesagt ist damit die algorithmusbasierte automatische Analyse digitaler Daten jeglicher Form gemeint.
TDM beinhaltet dabei explizit sowohl die Verarbeitung natürlichsprachiger Texte, sogenannter unstrukturierter Daten, als auch beispielsweise Tabellen und anderer strukturierter Daten, welche unterschiedliche Anwendungsfälle und Herausforderungen mit sich bringen. Dabei gibt es zwei große Aspekte: das Auffinden bereits bekannter Informationen und die Schaffung neuen Wissens durch die Verknüpfung oder Neuinterpretation von Bekanntem.[3]
Ganz allgemein lassen sich Verfahren des TDM in drei große Bereiche aufteilen:
Musterextraktion (Programm analysiert, welche Daten oft gemeinsam auftreten)
Es lässt sich natürlich noch feiner unterteilen in Regressionsanalysen, Abhängigkeits- oder Abweichungsanalyse, Beschreibung, Zusammenfassung, Prognose, Assoziation etc., was die große Bandbreite an Nutzungsmöglichkeiten des TDM aufzeigt[4], für uns aber gerade zu weit geht, da wir nur den Bereich der Bibliotheken betrachten wollen.
Anwendungsmöglichkeiten für Bibliotheken
Empfehlungssysteme
Eine Möglichkeit der Kataloganreicherung ist die Implementierung eines Empfehlungsdienstes. Dieser analysiert Recherche- und/oder Ausleihdaten, um Nutzenden während ihrer Recherche weitere Medien vorzuschlagen, die relevant für sie sein könnten[5]. Ein solcher Dienst ist BibTip, welcher an der Universität Karlsruhe entwickelt wurde und mittlerweile von vielen wissenschaftlichen und öffentlichen Bibliotheken in Deutschland verwendet wird.
Maschinelle Indexierung
Die inhaltliche Erschließung bietet einen großen Mehrwert bei der Recherche, ist jedoch ein zeit- und personalaufwendiger Aspekt der bibliothekarischen Arbeit. Schon 2009 begann die Deutsche Nationalbibliothek, diese Arbeit mit maschineller Unterstützung durchzuführen. Dabei wurden die in der GND hinterlegten Schlagwörter als Grundlage für die automatische Verschlagwortung mithilfe des Averbis-Programms verwendet.[6]
Herausforderungen
Urheberrecht
TDM war viele Jahre eine rechtliche Grauzone. Unklarheiten bezogen sich unter anderem darauf, ob maschinelle Verarbeitung durch die bestehenden Lizenzverträge abgedeckt war, ob temporäre für die Auswertung erstellte Kopien unerlaubte Vervielfältigung bedeuteten, inwieweit die Ergebnisse Dritten zugänglich gemacht werden durften und vieles mehr.[7] Die Urheberrechtsnovelle 2018 sorgte für mehr Klarheit, indem durch § 60d UrhG explizit die Nutzung von TDM für die wissenschaftliche Forschung erlaubt wurde.
Datenschutz
Datenschutz ist vor allem bei der Verarbeitung personenbezogener Daten wie der Analyse von Ausleih- oder Recherchevorgängen relevant. Im Sinne der Datensparsamkeit dürfen nur so viele Daten erhoben werden, wie erforderlich sind und diese auch nur so lange wie nötig gespeichert werden. Aus Datenschutzgründen werden die Daten deshalb anonymisiert gespeichert und verarbeitet. Dies schränkt beispielsweise die Empfehlungsdienste ein, da so nur die aufgerufenen oder ausgeliehenen Medien während eines einzelnen Vorgangs analysiert werden, diese jedoch nicht mit früheren Vorgängen der selben Person verknüpft werden können.
Formatvielfalt
TDM kann nur funktionieren, wenn die auszuwertenden Daten in geeigneter Form vorliegen. Dabei kann es verschiedene Hürden geben, sowohl rechtlicher Natur, wenn Daten im Besitz von Personen oder Institutionen sind, sowie technischer Natur, wenn Daten nicht in maschinenlesbarer Form vorliegen, oder zu viele verschiedene (inkompatible) Dateiformate genutzt werden.[8]
Ausblick
Schon heute profitieren Bibliotheken von TDM-Anwendungen, besonders Empfehlungsdienste sind verbreitet. Maschinelle Indexierung wird zumindest vereinzelt eingesetzt, bleibt in der Qualität aber noch weit hinter der intellektuellen Erschließung durch Menschen zurück.[9] Aufgrund des technischen Fortschritts und dem immer zuverlässiger werdenden natural language processing darf man hier jedoch hoffnungsvoll in die Zukunft blicken.
Doch Bibliotheken sind nicht nur Anwenderinnen, sondern können und sollten ebenfalls Sorge dafür tragen, dass ihre eigenen Bestände für TDM nutzbar sind. Dies wird erleichtert durch § 60d UrhG, aber sollte auch bei der Aushandlung von Lizenzverträgen, bei der Auswahl der anzubietenden Formate von elektronischen Medien wie auch bei der Retrodigitalisierung beachtet werden.
Quellen
[1] Deutsche Nationalbibliothek (2021): Jahresbericht 2020. S.45. Online unter urn:nbn:de:101-2021051859
[2] Mehler, Alexander; Wolff, Christian (2005): Einleitung: Perspektiven und Positionen des Text Mining. In: LDV-Forum, Jg. 20, Nr. 1, S. 1–18. Online unter urn:nbn:de:0070-bipr-1688
[3] Saffer, Jeffrey; Burnett, Vicki. (2014). Introduction to Biomedical Literature Text Mining: Context and Objectives. In Kumar, Vinod; & Tipney, Hannah (Hg.): Biomedical Literature Mining. New York: HumanaPress, Springer. S. 1–7. Online unter doi.org/10.1007/978-1-4939-0709-0_1
[4] Drees, Bastian (2016): Text und Data Mining: Herausforderungen und Möglichkeiten für Bibliotheken. In: Perspektive Bibliothek, Jg. 5, Nr. 1, S. 49-73. Online unter doi.org/10.11588/pb.2016.1.33691
[5] Mönnich, Michael; Spiering, Marcus (2008): Erschließung. Einsatz von BibTip als Recommendersystem im Bibliothekskatalog. In: Bibliotheksdienst, Jg. 42, Nr. 1, 54–59. Online unter doi.org/10.1515/bd.2008.42.1.54
[6] Uhlmann, Sandro (2013): Automatische Beschlagwortung von deutschsprachigen Netzpublikationen mit dem Vokabular der Gemeinsamen Normdatei (GND). In: Dialog mit Bibliotheken, Jg. 25, Nr. 2, S.26-36. Online unter urn:nbn:de:101-20161103148
[7] Okerson, Ann (2013): Text & Data Mining – A Librarian Overview [Konferenzbeitrag]. Herausgegeben von IFLA. Online unter http://library.ifla.org/252/1/165-okerson-en.pdf (Abruf am 29.01.2022)
[8] Brettschneider, Peter (2021): Text und Data-Mining – juristische Fallstricke und bibliotheksarische Handlungsfelder. In: Bibliotheksdienst, Jg. 55, Nr. 2, S. 104-126. Online unter doi.org/10.1515/bd-2021-0020
[9] Wiesenmüller, Heidrun (2018): Maschinelle Indexierung am Beispiel der DNB. Analyse und Entwicklungmöglichkeiten. In: O-Bib, Jg. 5, Nr. 4, S. 141-153. Online unter doi.org/10.5282/o-bib/2018H4S141-153
Dieser Beitrag ist im Studiengang Informationsmanagement an der Hochschule Hannover im Rahmen des Kurses Content Management (Wintersemester 2021/22, Dr. Stefanie Elbeshausen) entstanden.
Die besten Beiträge stellen wir Euch hier in den nächsten Wochen nach und nach vor.
Wie sich die Fan-Fiction-Kultur professionalisiert und was aus dieser Entwicklung erwächst
Abschnitt 1 – Der ReichenbaChfall
Altes Konzept – modernes Phänomen
„Handschrift“ by Rob van Hilten is licensed under CC BY-NC-SA 2.0
Das Weitererzählen, Verändern oder Umformen bestehender Erzählungen hat eine lange Historie und Tradition.
Im Mittelalter wurden antike Stoffe aufgegriffen und für die bestehende höfische Gesellschaft neu interpretiert und arrangiert. Auch die Artus-Sage wurde vielfach aufgegriffen und in Versform gegossen. Für die eigene Erzählung griff man dabei fast immer auf bereits bestehendes Material zurück. Alles war miteinander verwoben.
Auch Bertold Brechts berühmte Dreigroschenoper ist eine Bearbeitung eines bestehenden Werkes. Der Dramatiker ließ sich von der Beggar’s Opera aus dem Jahr 1728 inspirieren. Einige Lieder, die Brecht in seinem Stück verwendet, stammen zudem von dem spätmittelalterlichen Dichter François Villon. Brecht übernahm sie wortgetreu. Ohne Quellenangabe.[1]
Ein weiteres modernes Beispiel ist der Kosmos von H. P. Lovecraft, der noch zu seinen Lebzeiten durch Erzählungen von befreundeten Autoren, mit denen er rege korrespondierte, angereichert und erweitert wurde.
Fan Fictions und schriftbasierte Roleplaying-Games, die an ein beliebtes Buch, eine Serie oder einen Film anknüpfen, reihen sich also in eine lange Tradition der Stoffadaption ein. Was sie machen ist somit keineswegs neu. Doch aufgrund ihrer Form und der veränderten Bedingungen sind sie doch etwas vollkommen Neuartiges – ein modernes Phänomen. Ein Phänomen, das von Beginn an ein Spannungsfeld erzeugte.
Denn nach wie vor sind die meisten Fan Fictions und RPGs eigentlich illegal.
Wie sich die Fan-Fiction-Kultur entwickelte
Im Jahr 1893 stürzen zwei Männer in den Tod. Die tragische Szene ereignet sich in der Schweiz, aber sie wird vor allem in Großbritannien für große Bestürzung sorgen. Aber auch für Empörung und Unverständnis. Dabei sind die beiden zu Tode gekommenen Männer nicht einmal real. Es sind fiktive Figuren. Der eine ist der »Napoleon des Verbrechens«, der andere der vermutlich schon damals berühmteste Detektiv der Welt – Sherlock Holmes.
„‚The Death of Sherlock Holmes‘ (frontispiece from The Memoirs of Sherlock Holmes, 1894)“ by Toronto Public Library Special Collections. Licensed with CC BY-SA 2.0.
Arthus Conan Doyle tötet den Protagonisten seiner Detektivgeschichten und die Tat treibt seine Leser auf die Straße. Öffentlich wird der Tod der literarischen Figur betrauert. Weil Doyle erst 1903 ein Einsehen hat und Holmes von den Toten auferstehen lässt, vernetzen sich die Leser miteinander, um das Gedenken an den Detektiv lebendig zu halten.[2] Damit legen sie den Grundstein für das erste organisierte Fandom. In verlagsunabhängig publizierten Magazinen und Essays werden Figuren und Handlung besprochen, Lücken gefüllt und kontradiktorische Angaben in den Geschichten diskutiert.[3]
Die Begrifflichkeit Fan Fiction etabliert sich in den 1960ern, als das Star-Trek-Universum immer mehr Menschen in seinen Bann zieht und mit Spockanalia das erste Fanzine entsteht, in dem Fans Bilder, Kommentare und eigene Geschichten publizieren.[4]
Seitdem entstanden unzählige weitere Fandoms, basierend auf Filmen, Serien, Büchern oder Comics und sie alle fanden in den 90ern im Internet eine neue Heimat, das mit seinen Möglichkeiten der weltweiten Vernetzung, Interaktion und Publikation optimale Bedingungen für die kreative Fankultur bot.
Verbreitung im Internet
»Heute ist Fan Fiction ohne die zugrunde liegenden digitalen Praktiken der Vernetzung von Dokumenten und Akteuren kaum mehr denkbar.«
Reißmann, Klaas, Hoffmann: Fan Fiction, Urheberrecht und Empirical Legal Studies
Fan Fictions fanden zunächst über fandom-spezifische Foren und Mailinglisten Verbreitung[5], waren aber auch bald schon auf eigenständigen Plattformen zu finden. Dadurch konnten sie mitunter eine große Leserschaft gewinnen. Die größten Plattformen und Archive diese Art, wie die englischsprachigen Seiten ‚Archiv of your own‘ (AO3) und ‚FanFiction.net‘, haben heute Nutzerzahlen in Millionenhöhe.[3]
Durch die Vernetzung der Community entstehen ständig neue Projekte. Es kommt zu Kooperation oder inhaltlichen Crossovers, bei denen Charaktere aus verschiedenen Vorlagen aufeinandertreffen.
Fan Fictions sind aber nicht die einzige Ausdrucksform literarischer Kreativität von Fans im Internet. In forengestützten Role-Playling Games (RPGs) werden Geschichten aus Sicht einzelner Figuren kollaborativ erzählt. Als Grundlage dient dabei meist ein spezifisches Universum, das durch die verschiedenen Handlungsstränge stetig erweitert, verändert oder neu ausgestaltet wird. Durch den kollektiven Schreibprozess kommt es zu einer Verschmelzung von Autor und Leser und oft auch zu einer starken Identifizierung mit der eigenen Figur.
Die Urheberrechtsproblematik
Durch das Internet wurden Fan Fictions immer mehr zu einem Massenphänomen. Die bereits bestehende Frage, in welchem Rahmen die Nutzung von urheberrechtlich geschütztem Material in einem nicht-kommerziellen Kontext praktiziert werden kann, gewann durch diese Entwicklung neue Brisanz. Denn was im Privaten problemlos möglich ist, erhält im Internet eine ganz andere Dimension.
Sobald ein Text der Allgemeinheit zugänglich gemacht wird, und dazu zählt auch das Publizieren in Foren oder Online-Archiven, fällt er unter geltendes Recht. Und dieses besagt:
»Bearbeitungen oder andere Umgestaltungen des Werkes dürfen nur mit Einwilligung des Urhebers des bearbeiteten oder umgestalteten Werkes veröffentlicht oder verwertet werden.«
§ 23 UrHG
Dieser Schutz gilt bei literarischen Werken nicht nur für die Gesamtdarstellungen, sondern auch für einzelne Figuren, sofern deren Darstellung charakteristisch für das Werk ist. Gemeint sind damit handelnde Figuren mit Wiedererkennungswert, wie bpsw. Harry Potter oder Bella Swan, aber auch Nebenfiguren, wie Severus Snape oder Charlie Swan, Bellas Vater.
»Der Gestaltenschutz der Rechtsprechung honoriert somit die individuelle Konzeption einer fiktiven Figur.«
Claudia Summerer: „Illegale Fans“
Allerdings gibts es unter Juristen eine differenzierte Debatte darüber, wie eng oder weit der Gestaltenschutz gefasst werden kann und sollte.[6] Für Fan-Fiction-Autoren und RPG-Autoren ist diese Uneindeutigkeit ein Unsicherheitsfaktor, da im Zweifelsfall unklar bleibt, ob bspw. bereits die Zuschreibung bestimmter Charakteristiken für eine bestimmte Figur den Gestaltenschutz berührt oder nicht.
Mit dieser Problematik befasst sich auch Rechtsanwalt Christian Solmecke in seinem Video zum Thema Urheberrecht und Fan Fiction.
In der Fan-Fiction-Community (RPGs mit eingeschlossen) herrschte lange die Annahme vor, sich in einer rechtlichen Grauzone zu bewegen. Mitunter wird auch heute noch vereinzelt davon ausgegangen.
Gründe für diese Annahme waren und sind zum einen Differenzen zwischen verschiedenen nationalen Rechtsnormen, wie dem deutschen Urheberrecht und dem amerikanischen Copyright Law, aber auch einzelne Aspekte der jeweiligen Gesetze.
Das Urheberrecht unterscheidet bspw. zwischen freier Benutzung und unfreier Bearbeitung.[7] Die freie Benutzung greift immer dann, wenn ein urheberrechtlich geschütztes Werk lediglich als Inspirationsquelle verwendet wird und das neu entstandene Werk selbst urheberrechtlich schutzfähig ist. Dafür müssen beide Werke jedoch ausreichend unterschiedlich sein. Trifft dies zu, dann gilt:
»Ein selbständiges Werk, das in freier Benutzung des Werkes eines anderen geschaffen worden ist, darf ohne Zustimmung des Urhebers des benutzten Werkes veröffentlicht und verwertet werden.«
§ 24 UrhG
Ab wann sich zwei Werke ausreichend voneinander unterscheiden, ist allerdings nicht näher bestimmt. Es sollte daher nicht verwundern, dass die freie Benutzung von Fan-Fiction- und RPG-Autoren im Zweifelsfall weiter gefasst wurde und wird als von Urheberrechtsinhabern.
Es muss jedoch davon ausgegangen werden, dass bereits die Erwähnung charakteristischer Handlungsorte oder Nebenfiguren, selbst wenn der Rest des Werkes eindeutig eine kreative Eigenleistung darstellt, dazu führen kann, dass das gesamte Werk nicht mehr im Einklang mit dem Recht auf freie Benutzung steht.
E. L. James, Autorin von Fifty Shades of Grey, änderte aus einem ähnlichen Grund, noch bevor ihre Geschichte als Buch publiziert wurde, die Namen ihrer Protagonisten, die an Edward Cullen und Bella Swan angelegt waren, ab.
Dem Gestaltenschutz, der nicht näher definierten Trennlinie zwischen freier Bearbeitung und unfreier Benutzung, sowie weiteren rechtlichen Unsicherheiten wird durch die gängige Praxis Tribut gezollt, in einem Disclaimer auf die Rechteinhaber des Ausgangsmaterials zu verweisen und sich von allen Eigentumsansprüchen an den verwendeten Figuren und übernommenen Inhalten freizusprechen.
Diese Disclaimer, egal welcher Art, haben jedoch keine rechtliche Gültigkeit und schützen im Zweifelsfall nicht vor einer Abmahnung oder Anklage. Diese Tatsache ist auch bereits seit langem in der Community bekannt, dennoch werden Disclaimer standardmäßig verwendet, weil sie a) zum guten Ton gehören b) den Schöpfer des zugrundeliegenden Werks würdigen und c) nach außen signalisieren, dass sich die Autoren bewusst sind, dass sie ein urheberrechtlich geschütztes Werk als Grundlage für ihre eigenen Texte verwenden und es sich somit nicht heimlich „aneignen“.
Die Urheberrechtsreform
Auch die Urheberrechtsreform, die 2018 vom EU-Ministerrat auf den Weg gebracht und im März 2019 vom EU-Parlament beschlossen wurde und bis zum 07. Juni 2021 in nationales Recht umgesetzt werden muss, half nicht dabei, die bereits bestehenden Unsicherheiten auszuräumen. Zwar waren Fan-Fiction- und RPG-Autoren von der Reform allenfalls indirekt betroffen, bedingt durch den allgemeinen Aufschrei im Internet und den massiven Protest, der sich sowohl im Digitalen als auch auf der Straße formierte, wurde allerdings ein neues Bewusstsein für geltende Rechtsnormen und bestehende Probleme geschaffen.
Aber auch außerhalb der Community geriet durch die Urheberrechtsreform einiges in Bewegung. Fan Fictions wurden bspw. im Kontext der Grundsatzdiskussion über das Urheberrecht in Bezug auf Mashups und Remixes thematisiert[8] oder zum Gegenstand wissenschaftlicher Forschung.
An der Universität Siegen befasste sich eine Projektgruppe im Rahmen des Sonderforschungsbereichs „Medien der Kooperation“ am Beispiel von Fan Fiction mit den sozialen und juristischen Rahmenbedingungen kooperativen und derivativen Werkschaffens im Netz. Die Projektleiterin Dr. Dagmar Hoffmann (Professorin für Medien und Kommunikation) kommt zusammen mit Dr. Wolfgang Reißmann dabei zu folgender Einschätzung:
»Zwar suggeriert die derzeitige Situation – zumindest im Bereich Fan Fiction – eine Koexistenz der kreativen Fans, die gewisse rote Linien nicht überschreiten, und der Medienindustrie, die von weitgehender Verfolgung absieht. Dieses fragile Nebeneinander kann letztlich jedoch nicht darüber hinwegtäuschen, dass für die Fans Rechtsunsicherheit besteht und sie im Zweifelsfall, wenn ihr Handeln nicht in die Verwertungs- und Marketingstrategien der großen Medienunternehmen passt, rechtlich am „kürzeren Hebel“ sitzen.«
Selbstbestimmung in Fan-Fiction-Kulturen. In: M&K, Jahrgang 66 (2018), Heft 4.
Die beiden Forscher äußern im Weiteren ihre Hoffnung, dass die wissenschaftliche Betrachtung eine produktive Grundlage für die bestehende Auseinandersetzung bieten wird.
Derzeit zeigen sich die meisten Autoren und Verlage aufgeschlossen gegenüber dem kreativen Schaffen der Fans. Ohne eine Sicherheiten schaffende Reformierung des geltenden Urheberrechts auf nationaler Ebene bleibt die Fan-Fiction-Kultur damit aber abhängig vom guten Willen und der Duldung der Urheberrechtsinhaber.
Dass eine solche Toleranz keinesfalls selbstverständlich ist, hat die Vergangenheit gezeigt.
Abschnitt 3 – Trends und Herausforderungen
Wie Autoren die Fan-Fiction-Kultur bewerten
Zu Beginn des neuen Jahrtausends spitzte sich der Konflikt zwischen Rechteinhabern und Fan-Autoren zu. Es wurde mit Abmahnungen gedroht und vereinzelt kam es auch zu juristischen Auseinandersetzungen.[9] Einzelne Autoren ging es darum, die alleinige Deutungshoheit über ihr Schaffenswerk zu behalten, andere fürchteten Plagiate und Umsatzeinbußen durch Fan Fictions.
Die kommerzielle Verwertung von Fan Fictions und RPG-Inhalten spielte allerdings weder zum damaligen Zeitpunkt noch danach eine relevante Rolle. Auch Plagiate blieben eine absolute Seltenheit. Stattdessen erkannten große Verlage und Markeninhaber, dass die Fan-Fiction-Kultur vor allem positive Effekte hervorruft, bspw. indem sie zur Bekanntheit eines Werkes beiträgt oder für eine langfristige Kundenbindung sorgt.[9]
Das veränderte die Wahrnehmung der Fan-Fiction-Kultur, die nun weitaus positiver bewertet und auch von einigen äußerst populären Autoren, wie J. K. Rowling, Stephanie Meyer oder Terry Pratchett, als Würdigung ihrer eigenen Werke verstanden wurde. Das führte im Allgemeinen zu einem weniger konfrontative Umgang mit Fan-Fiction- und RPG-Autoren.
Trotzdem befassen sich auch aufgeschlossene Schriftsteller meistens nicht direkt mit den Texten ihrer Fans, zum einen weil sie mögliche Rechtsstreitigkeiten von vorneherein vermeiden wollen, aber auch, um nicht in einen Interessenskonflikt zu geraten. Im Regelfall bleiben Fan Fictions daher bewusst unbeachtet. Die meisten erfolgreichen Autoren sind sich allerdings ihrer schreibenden Fans bewusst.
Fortschreitende Professionalisierung
Inzwischen ist aber nicht nur die Außenwahrnehmung von Fan Fictions eine andere, auch die Fan-Fiction-Kultur hat sich stetig verändert und weiterentwickelt. Durch neue Plattformen, wie Wattpad, aber auch ein gewandeltes Selbstverständnis der Autoren befindet sich die Community in einem Prozess der Professionalisierung.
Hinter großen Online-Archiven und Plattformen aber auch kleineren RPG-Foren stehen Administratoren- und Support-Teams, die sich um den technischen Unterbau kümmern. Moderatoren betreuen die Community, kontrollieren den Einhalt der Regeln und schlichten Streitigkeiten. Archive of Our Own bietet seinen Mitgliedern im Einzelfall sogar Unterstützung bei Rechtsstreitigkeiten.
»We are committed to defending fanworks against legal challenges. Our position on transformative fanworks is detailed in the OTW FAQ. We have legal resources and alliances on which we can draw. However, that is not a guarantee that the organization can or will fight each battle. The Board will take into account a variety of factors, both legal and otherwise, in responding to a legal challenge.«
AO3 – Terms of Service – What we believe
„Spend“ by 401(K) 2013. Licensed with CC BY-SA 2.0.
Diese Arbeit wird entweder durch Spenden finanziert (z. B. bei AO3) oder durch Werbeeinnahmen (z. B. bei Wattpad). Generell ausgeschlossen ist jedoch weiterhin, dass die Autoren mit ihren Geschichten Geld verdienen. An diesem Grundsatz, der aufgrund der urheberrechtlichen Bestimmung eigentlich nicht verhandelbar ist, wird derzeit jedoch gerüttelt. Auf Patreon suchen inzwischen auch vermehrt Fan-Fiction-Autoren nach monetärer Unterstützung, was in der Community recht kritisch gesehen wird, weil befürchtet wird, dass, sollten immer mehr Autoren diesem Beispiel folgen, die Duldung von Fan Fiction durch die Rechteinhaber auf’s Spiel gesetzt wird.
Für die großen Plattformen ist dies ebenfalls ein Problem. Bei AO3 ist die Verbreitung von kommerziellen Produkten und Aktivitäten bspw. generell untersagt. Bereits die Verlinkung auf Patreon ist in diesem Kontext hochproblematisch, weshalb es immer wieder zur Sperrung von Accounts kommt. Letztlich können aber auch die Plattformbetreiber die Nutzung von Patreon nicht unterbinden.
Im Bereich der RPGs ist diese Entwicklung eher irrelevant, da an den kollaborativ erzählten Geschichten kein einzelner Autor die Rechte daran für sich allein beanspruchen und auf diesem Wege monetarisieren könnte.
Ob die Nutzung von Patreon und ähnlicher Angebote daher zu einem Problem für die Fan-Fiction-Kultur an sich wird, ist zumindest im Moment noch nicht klar. Zweifelsohne wird diese Entwicklung aber zu neuerlichen Debatten über die derzeit geltenden rechtlichen Bestimmungen führen und gegebenenfalls sogar eine juristische Nachjustierung erzwingen.
Die Urheberrechtsreform ist zwar erst vor 2 Jahren beschlossen worden und wird erst in diesem Jahr in nationales Recht umgesetzt, das bedeutet aber noch lange nicht, dass sie auch auf der Höhe der Zeit ist.
[9] Reißmann, Wolfgang; Hoffmann, Dagmar: Selbstbestimmungen in Fan Fiction Kulturen. In: M&K, Jahrgang 66, Heft 4, S. 470 (2018)
Beitragsbild
„Urheberrecht“ by Skley. Licensed with CC BY-ND 2.0.
Dieser Beitrag ist im Studiengang Informationsmanagement an der Hochschule Hannover im Rahmen des Kurses Content Management (Wintersemester 2020/21, Prof. Dr.-Ing. Steinberg) entstanden. Die besten Beiträge stellen wir Euch hier in den nächsten Wochen nach und nach vor.
Oder: It’s not about the design, it’s about the thinking!
Autorin: Katharina Kroupa
„Man kann über Design Thinking noch so viel Positives erzählen, die Arbeitsweise und ihre Wirkung erklären: Um sie wirklich zu verstehen, muss man sie selber hautnah miterlebt haben.“
Marcel Plaum, VP Terminal Development Fraport
Na, macht dich das neugierig zu erfahren, was Design Thinking ist? Du hast den Begriff nun schon öfter gehört, aber noch keine Idee, was dahinter alles steckt?
Dann bist du hier genau richtig! Ich bringe dir in diesem Beitrag die Innovationsmethode Design Thinking näher. Was dich alles erwartet im Überblick:
Stell dir vor, du arbeitest – sagen wir mal – in einer großen Bibliothek. Ihr stellt Nutzer:innen Medien zur Verfügung, bietet diverse Dienstleistungen an und außerdem kann man bei euch auch vor Ort arbeiten. Eure Bibliothek wird als Lernort grundsätzlich gern genutzt, aber ihr merkt, dass es Verbesserungspotenzial gibt. Euer Gebäude ist schon älter, ebenso die Einrichtung und ihr möchtet den Lernraum für eure Nutzer:innen attraktiver gestalten. Und so bildet sich ein Team aus Mitarbeiter:innen, die sich beratschlagen, was einen modernen Lernraum ausmacht. Eine Kollegin schlägt vor, weitere Computer zur Nutzung anzuschaffen, ein anderer ist der Meinung, dass voll ausgestattete Gruppenarbeitsräume her müssen. Und so suchen Bibliotheksmitarbeiter:innen untereinander nach geeigneten Lösungen.
Doch wofür eigentlich? – Na für ein neues Raumkonzept! – Okay…
Aber für wen eigentlich? – Na für die ganzen Benutzer:innen der Bibliothek!
– Ahaaa..! Aber wäre es da nicht sinnvoll, diese Personen erstmal nach ihrer Meinung zu fragen und sie miteinzubeziehen, wenn man doch für genau diese eine Lösung sucht?
Und damit sind wir beim ersten Grundsatz der Design Thinking Methode, der in jeder Phase des Innovationsprozesses zentral ist: Der Mensch als Inspirationsquelle.
Der Gedanke des Design Thinking ist, dass ein Produkt oder eine Dienstleistung dann richtig gut werden kann, wenn die Bedürfnisse der Zielgruppe richtig ermittelt und bedient werden. Dazu wird diese Zielgruppe aktiv in den Innovationsprozess miteingezogen.[1] Wie das geschieht, erfährst du in weiter unten im Beitrag.
Ein weiterer Grundsatz der Methode ist das Bilden und Zusammenarbeiten innerhalb multidisziplärer Teams. Die Idee hierhinter ist, dass Menschen verschiedener Disziplinen bzw. Fachrichtungen, ihre unterschiedlichen Erfahrungen in den Ideenprozess einbringen und so gemeinsam eine (bessere) Lösung für das Problem finden können. Diversität in Geschlecht, Alter, Fachrichtung ist hier zielführend. Meist bestehen diese Teams aus 4-6 Teilnehmer:innen, den sogenannten Design Thinkers. Noch unerfahrene Teams werden dazu von ein bis zwei Moderator:innen beim Prozess unterstützt.[2]
Quelle: giphy
Da bei diesem Zusammenspiel unterschiedlicher Personen schnell das Ziel – nämlich das Finden einer zielgruppenorientierten Lösung – aus den Augen verloren werden kann, ist es wichtig, dabei einem strukturierten Prozess zu folgen.[3] Das bringt uns zum nächsten Inhaltspunkt dieses Beitrags.
Wie läuft der Prozess der Methode ab?
Der Prozess des Design Thinking besteht aus aufeinander folgenden Phasen. Die Phasen bauen aufeinander auf. Erst, wenn eine Phase abgeschlossen ist, kann mit den dabei entstandenen Ergebnissen in der nächsten Phase weitergearbeitet werden.
In allen Phasen ist die Zielgruppe im Fokus. Innerhalb der ersten drei Phasen (Verstehen, Beobachten, Point of View) empathisiert das Team mit der Zielgruppe. Es versucht das zentrale Problem zu verstehen und zu definieren. In den darauffolgenden Phasen (Ideation, Prototyping, Testen) werden Ideen zur Problemlösung gesammelt und konkretisiert. Prototypen werden erstellt und aus Nutzersicht oder von tatsächlichen Nutzer:innen getestet.
Klicke auf die Info-Buttons der verschiedenen Phasen, um Einzelheiten zu erfahren:
Im besten Fall wird dieser Prozess einmal vom Anfang bis zur Entscheidung durchlaufen. Fallen den Testnutzer:innen in der Testphase allerdings Schwachstellen auf oder sie sind in sonst einer Weise nicht zufrieden mit der Lösung, müssen vorherige Phasen wiederholt werden. Beispielsweise werden in der Ideation-Phase dann noch einmal diverse Ideen gesammelt. Daraus werden dann wieder vereinzelte Lösungsansätze ausgewählt, sodass aus diesen nachfolgend ein Protoyp entwickelt wird. Oder die testende Zielgruppe fühlt sich insgesamt noch nicht ausreichend verstanden. Dann beginnt der Prozess erneut beim Verstehen.[4]
Das wird so lange wiederholt bis sich das Team Schritt für Schritt der idealen Lösung angenähert hat. Diesen Vorgang nennt man Iteration. Demnach wird der Prozess des Design Thinking auch als iterativer Prozess bezeichnet.[5]
Welche Voraussetzungen und Tools unterstützen den Innovationsprozess?
Aus dem vorherigen Abschnitt kennst du nun die einzelnen Phasen des Design Thinking Prozesses. Aber wie oder wodurch kann dieser Prozess unterstützt werden? Und wie fördert man die Kreativität am besten?
Die folgenden Abschnitte geben Einblick über die Voraussetzungen für einen gelungenen Innovationsprozess sowie Beispiele für nutzbare Tools zur Kreativitätsförderung[6]:
Wieso sich Design Thinking in jedem Lebensbereich lohnt
Die Methode findet Anwendung in verschiedenen Bereichen und zu verschiedenen Themen. Beispielhaft werden nachfolgend ihr Nutzen und ihre Anwendbarkeit in einer Tabelle dargstellt:
Nutzen
Anwendbarkeit
nachhaltige Teamentwicklung
Aufbau von Kundenverständnis
effizientere Innovationsprozesse durch schnelles Feedback
Gestaltung neuer Produkte und Dienstleistungen
Kundenloyalität steigern durch Integration
Optimierung von Organisationsprozessen
geringe Kosten
Erstellen von Marketingkampagnen
Tabelle: Nutzen und Anwendbarkeit von Design Thinking
Als Innovationsmethode definiert sich Design Thinking unter anderem über seine Anwender:innen. Da diese und ihre Probleme sehr unterschiedlich sein können, eignet sie sich für das Finden von Lösung in jedem Lebens(Problem-)bereich.
Wie Bosch Design Thinking für User Experience nutzt
Auch bekannte Firmen nutzen mittlerweile die Design Thinking Technik zur Lösung verschiedenster Probleme oder zur Entwicklung neuer Produkte.
Eine davon ist Bosch. Das Unternehmen nutzt die Technik für eine enge Zusammenarbeit mit ihrer Zielgruppe. Im nachfolgenden Video geben Bosch-Mitarbeiter Einblick darin, wie die Methode in der Firma umgesetzt wird.
Youtube-Video: Design-Thinking bei Bosch – Zwischen Post-Its, Lego und Fritz-Kola[7]
Fazit – Its’s not about the design …
… it’s about the thinking!
Die Angst vor Fehlern bringt Menschen dazu, die Risiken im Fokus zu haben – nicht die Möglichkeiten!
Aber aus Fehlern lernt man. Design Thinking gibt den Raum für diese offene Denkweise in einem geführten Prozess. Jeder Prozess-Teil führt zu klaren Ergebnissen, mit denen der nächste Prozess-Schritt beginnt.
Obwohl jede Design Thinking Aktivität darauf ausgerichtet ist, die Erfahrungen der Mitmenschen zu verstehen, verändert sie auch die Erfahrungen und Denkweisen der Innovatoren.
Kreutzer, Ralf T. (2018): Toolbox für Marketing und Management. Kreativkonzepte, Analysewerkzeuge, Prognoseinstrumente. Berlin: Springer. DOI: doi.org/10.1007/978-3-658-21881-2
Plattner, H.; Meinel, C. u. Weinberg, U. (2009): Design Thinking. Innovation lernen, Ideenwelten öffnen. München: mi.
Schallmo, Daniel (2017): Design Thinking erfolgreich anwenden. So entwickeln Sie in 7 Phasen kundenorientierte Produkte und Dienstleistungen. Wiesbaden: Springer Gabler. DOI: doi.org/10.1007/978-3-658-12523-3
Dieser Beitrag ist im Studiengang Informationsmanagement an der Hochschule Hannover im Rahmen des Kurses Content Management (Wintersemester 2020/21, Prof. Dr.-Ing. Steinberg) entstanden. Die besten Beiträge stellen wir Euch hier in den nächsten Wochen nach und nach vor.
Offenbar muss heutzutage fast alles mit Hilfe einer Identifikationsnummer zugeordnet werden. Selbst der Mensch. Jeder kennt z. B. mehr oder weniger auswendig seine eigene, ihm individuell zugewiesene Steuer-, Matrikel- oder Personalausweisnummer. Im Bibliothekswesen und im speziellen bei den Büchern nennt sich diese ISBN (International Standard Book Number) und bei den Zeitschriften ISSN (International Standard Serial Number). Jeder, der sich auch nur sporadisch in Bibliotheken aufhält, hat diese gesehen. Jedoch weiß keiner so genau wie der DOI aufgebaut ist. Der DOI – ausgeschrieben als digitaler Objektidentifizierer verhält sich ähnlich wie eine ISBN/ISSN, weil er statt einem Buch oder einer Zeitschrift ein digitales Objekt eindeutig identifiziert.
Dieser Blogbeitrag handelt von der Geburtsstätte der DOI in den Registrierungsagenturen bis zum Zielobjekt – dem digitalen Objekt. Die drei Buchstaben „D-O-I“ stehen für „Digital Object Identifier“ (Digitaler Objektidentifizierer). Diese Identifikationsnummer gehört jeweils zu einem digitalen Objekt. Dies können u.a. Texte oder digitale Forschungsdaten sein. Aber wozu ist eine Zuordnung überhaupt nötig und warum werden DOIs für das wissenschaftliche Arbeiten so dringend gebraucht?
Studierende wissen, dass alle von ihm zitierten Stellen sich auch im Literaturverzeichnis wieder gefunden werden müssen. Da im wissenschaftlichen Bereich dauerhafte Zitatensicherheit gefordert ist und DOIs sich nicht wie URLs verändern, werden diese anstelle von URLs für Literaturverzeichnisse gemeinhin empfohlen. So können Belege auch nach Jahren überprüft werden, weil auf digitale Objekte nachhaltig und eindeutig zugegriffen werden kann. Jedoch ist dies nicht immer der Fall. So gesehen wird eine DOI für die Identifizierung von physischen, digitalen oder anderen Objekten benutzt und führt den Nutzer direkt zum endgültigen Speicherort des bezeichneten Objektes.
DOI-Vergabe
Es haben jedoch noch nicht alle akademischen Texte eine DOI Nummer auch erhalten und erst seit dem Jahre 2000 werden DOIs für Onlineartikel aus wissenschaftlichen Fachzeitschriften vergeben.[1]EBooks haben ebenfalls in den meisten Fällen eine DOI. Auch verwenden viele wissenschaftliche Verlage DOIs zur persistenten Adressierung ihrer Artikel.[2] Persistenz bedeutet in diesem Fall, dass das digitale Objekt überall wiedergefunden werden kann. Doch wie werden diese nun vergeben? Wird da gewürfelt oder einfach wilde Zahlenreihen ausgelost?
Die Vergabe von DOIs werden von einer amerikanischen Non-Profit-Gesellschaft betrieben. Inzwischen beträgt die Zahl der vergebenen DOIs mehrere Millionen. Die oberste Organisation der DOI ist die „International DOI Foundation“ (IDF). Diese vergibt Lizenzen an über 10 weltweite DOI-Registrierungsagenturen, von denen DOIs erworben werden können. Die wichtigsten Hauptagenturen sind: „Crossref“, „mEDRA“, „Datacite“ (scientific data sets). Von „DataCite“ wird der DOI-Registrierungsservice für Forschungsdaten zur Verfügung gestellt.[3] Die Verteilung der DOIs erfolgt ausschließlich durch die DOI-Registrierungsagenturen, die eine Lizenz von der IDF erworben haben. Somit kann sichergestellt werden, dass Standards von der IDF, eingehalten werden.
„Wir leben in einer postdigitalen Situation. Die Leute wollen sich wieder real begegnen, öffentliche Räume werden wieder wichtiger.“[4]
– Reinert Mithassel, Leiter der Biblio Tøyen
Reinert Mithassel, Leiter der Biblio Tøyen in Oslo, spricht damit wohl nicht nur die andauernde Corona Pandemie an, sondern äußert den Wunsch vieler Menschen ihrer Umgebung und ihren Mitmenschen wieder näher zu kommen. Auch wenn die Corona Pandemie uns sicherlich in Hinblick auf Digitalisierung in (Hoch-) Schulen und am Arbeitsplatz große Schritte nach vorn gebracht hat, vermissen und beklagen wir doch, wie sehr uns die sozialen Kontakte fehlen.
Wie aber kann öffentlicher Raum so gestaltet werden, dass Menschen hier Zeit verbringen wollen? Es sind dabei insbesondere die Biblio Tøyen und die 2020 neu eröffnete Bjørvika Bibliothek zu nennen. Sie zeigen uns zwei zukunftsweisende Wege wie das Bibliothekswesen aussehen kann.
Deichman Biblio Tøyen
Die eigentlich in einem Problemviertel liegende Jugendbibliothek Biblio Tøyen steht dem Neubau im entstehenden neuen Kulturhafen Oslos in nichts nach. In Zusammenarbeit mit jungen Osloern und dem niederländischen Architekten/Creative Guide Aat Vos wurde die Bibliothek neu eingerichtet und umgestaltet.[11] Die Idee hinter der Umgestaltung bestand darin, ein Kulturhaus zu schaffen, das Jugendlichen ihren Bezug zur Realität nicht verlieren lässt. Denn durch die immer schneller werdenden Modernisierungen und die rasante Entwicklung der Gesellschaft kann ein solcher öffentlicher Rückzugsort für Jugendliche einen Ankerplatz bieten.[11]
So entstanden in alten, ausrangierten Kleinlastern und Seilbahnkabinen kleine Oasen der Ruhe und Orte zum Lesen. Ebenso Nester aus Kissen oder umfunktionierte Schubkarren dienen als Plätze zum Entspannen oder zum Lesen. Des Weiteren verleihen die vielen schwebende Elemente diesem Ort eine unglaubliche Leichtigkeit.[8][11]
Eltern und Erwachsenen ist der Zugang ausdrücklich nicht erlaubt, sodass die 10- bis 15-Jährigen hier ihre ganz eigenen Erfahrungen mit ihrer Freiheit, Umgebung und eben den Büchern machen können. Diese dadurch entstehende Wohnzimmeratmosphäre dient der Inspiration und lässt seine jugendlichen Besucher viel Freiraum. Dies wird zudem dadurch unterstützt, dass die Räumlichkeiten der Biblio Tøyen auch ohne Bibliothekspersonal zugänglich sind. [8]
Begib Dich auf einen kleinen Rundgang durch die Biblio Tøyen.[6]