Big Data und Datenschutz – Wunschdenken oder bereits Realität?

Autor: Philippe Paszkier


Wir alle kennen es, man spricht mit einem Freund oder Partner über irgendein Produkt o.ä. ohne dabei überhaupt das Handy entsperrt zu haben und dann möchte man etwas googeln und die Werbung handelt von dem eben besprochenen Thema. Ich meine klar, hat so seine Vorteile da weiter machen zu können, wo die Unterhaltung aufgehört hat. Aber ist das nicht eigentlich ein bisschen unheimlich, dass dir dein Smartphone immer zuhört und alles mitbekommt, was man in dessen Umgebung sagt? Passieren tut das durch Big Data.

Was ist denn eigentlich Big Data?

Der Begriff Big Data beschreibt eine große Masse an personenbezogenen Daten, die Unternehmen wegen ihrer Schnelllebigkeit und Komplexität zu Analysezwecken nutzen. Unter den Begriff fallen unter anderem Daten in Form von Zahlen, Texten, Standortverläufen, Videos, Zahlungsunterlagen, Bilder oder auch das gesprochene Wort.

3V-Modell

Der Branchenanalytiker Douglas Laney beschrieb Big Data mit dem 3V-Modell. Das erste V steht für Velocity, also die Geschwindigkeit, mit der neuen Daten ankommen und man diese verarbeiten muss. Dann gibt es noch das Volume, also die gesamte Masse an Daten aus den unterschiedlichsten Quellen. Als drittes V gibt es Variety, welches die Vielfalt der Formen der gesammelten Daten beschreibt. Aber im Laufe der Zeit kamen weitere Vs dazu. So auch das V für Variability, also der Schwankung des Datenflusses und Form der Daten. Des Weiteren gibt es noch Veracity, was die Richtigkeit der Daten beschreibt und diese einordnet und sortiert. Je nachdem wo man schaut, gibt es noch die Kategorie Value. Diese beschreibt den Geschäftswert der Daten.

Speicherung

Anfang der 2000er fand der Begriff Big Data das erste Mal Einzug in die Köpfe der Menschen. Da fing nämlich die Speicherung und Interpretation von Daten aus dem Internet an. Damals ging es noch eher um das Klickverhalten auf der eigenen Webseite oder die IP-Adresse des Kunden. Von damals zu heute hat sich aber einiges getan, die Form der Daten hat sich geändert und natürlich auch die Datenmenge. Allein im Jahr 2012 wurden weltweit 6,5 Zettabyte an Daten gesammelt. Was ist ein Zettabyte, fragt ihr euch jetzt? Ein Zettabyte steht für EINE MILLIARDE TERRABYTE. Im Jahr 2020 waren es dann auch schon 64,2 Zettabyte. Das bedeutet, dass jeder Mensch, der irgendwie mit dem Internet verbunden ist, durchschnittlich tagtäglich ca. 150 Gigabyte an persönlichen Daten übermittelt. Um sich das mal auf der Zunge zergehen zu lassen, der Film Titanic aus dem Jahr 1997, der wohlgemerkt über drei Stunden läuft, verbraucht in HD einen Speicherplatz von 8,5 Gigabyte.

Screenshot der Statista-Statistik zu Speicherplatz von Big Data

Zweck

Diese unfassbar riesige Menge an Daten wird für Unternehmen interessant, da diese dadurch Zeit in der Entwicklung neuer Produkte und Dienstleistungen einsparen. So analysiert man Trends um zu prüfen, wo es noch Marktlücken gibt. Ein offensichtlicher Vorteil der Big Data Analyse ist auch die personalisierte Werbung. Der Algorithmus weiß, wie man einen am besten anspricht und wofür man sich interessiert, vielleicht sogar besser als man selbst. Des Weiteren können klügere geschäftliche Entscheidungen getroffen werden, da man durch die Echtzeitanalyse, Veränderungen und Unsicherheiten bewerten und dementsprechend handeln kann. Zudem kann die Produktion effizienter gestaltet werden, da der Kunde einem sagt, was man braucht, wenn auch unfreiwillig. Das Gesprochene und geschriebene Wort, so wie Chats oder Sprachnachrichten, wird zum Füttern von Deep Learning KIs genutzt, um die maschinelle Art des Schreibens und Sprechens zu optimieren und menschlicher/natürlicher machen zu können.

Weitere Orte an denen Daten über einen gesammelt werden sind Autos die mit dem Handy und mit dem Internet verbunden sind. Außerdem auch Bankdaten, Smart-Home Gadgets und ihre Assistenten wie bpsw. Alexa oder halt klassische Überwachungsmaßnahmen.

Aufschrei Big Data

Facebook Skandal

Erinnert ihr euch noch ans Jahr 2018? Bevor die Pandemie über uns hereinbrach, brach etwas anderes zusammen. Die Reputation von Facebook. Damals kam nämlich raus, dass Facebook (Meta) Daten von mindestens 87 Millionen Nutzern durch Camebridge Analytica (C.A.) auswerten ließ, um so illegal Werbung für den Trump-Wahlkampf zu machen. Die Muttergesellschaft von C.A., die SCL-Group hat es sich zum Geschäftsmodell gemacht, politische Wahlen und Stimmungen durch Big Data Auswertung zu beeinflussen.

Auswertung

Big Data ist aber nicht nur für Meta ein Geschäftsmodell. Google und TikTok machen nichts anders. Es wird alles gespeichert, von der Sucheingabe (was suchst du, wie suchst du es, was schreibst du, welche Wörter nutzt du) bis zurzeit, die du brauchst um dich für ein Ergebnis zu entscheiden. Was klickst du auf der Seite an? Wie lange bist du auf der Seite unterwegs? Wo geht es nach dem Besuch der Webseite hin? Wie schnellt scrollst du weiter? Welche Webseiten besuchen deine Freunde und Familie? All das wissen die Unternehmen wie C.A. schon bevor du selbst irgendwas gemacht hast. Jeder Schritt wird verfolgt, jede neue Suche, jede Meinungsänderung wird wahrgenommen. Man wird komplett durchleuchtet.

Social-Credit-Score

Kleiner Funfact am Rande, wusstest du, dass Big Data der Grundbaustein für den Social-Credit-Score in China ist? So wird genau erkannt, wo du wie viel reininvestiert, was du mit deinem Alipay Account bezahlt und ob du dein Leihfahrrad auch wieder am richtigen Ort abgestellt hast. Das in Verbindung mit ausgereifter Gesichtserkennungssoftware an öffentlichen Plätzen und du bist durchsichtig. Dadurch, dass heutzutage alles miteinander verbunden ist und alles einfacher werden soll, wird auch vieles noch komplizierter. So auch das Profil was Meta über Nicht-Nutzer anlegen kann, welches auf Daten basiert, die von Bekannten irgendwie irgendwo gespeichert worden sind und die Organisation Zugriff drauf hat.

kurzer Einblick in das System Social-Credit-Score

Wert

Es gibt noch ewig viele Beispiele, was mit Big Data überall auf der Welt gemacht wird und wie man mehr und mehr die Entscheidungsgewalt über sich selbst abgibt. Aber eine Frage ist noch interessant, auf die ich noch nicht eingegangen bin. Wie viel sind diese Daten eigentlich Wert? Auch wenn man Big Data als das Erdöl der digitalen Wirtschaft bezeichnet, kann ich hier leider keine sichere Zahl nennen. Aber ich möchte nur so viel sagen, dass die E-Scooter, die man überall in der Stadt sieht, mit einer durchschnittlichen Lebensdauer von wenigen Monaten, so viele Daten über uns sammeln, dass die Unternehmen locker an die Börse gehen können. Und das nur durch den Verkauf der gesammelten Daten.

Emissionen

Ach so, ganz vergessen. Diese Zettabyte an Daten, die anfallen, müssen irgendwo gespeichert werden. Und wo macht man das? Genau. In riesigen Rechenzentren, die weltweit im Jahr 2020 zwischen 100 und 500 Millionen Tonnen CO2 ausgestoßen haben. Und das Problem hierbei ist, dass es nur noch mehr wird. Es werden mehr Menschen -> mehr Menschen, die einen Internetzugang haben -> mehr Daten -> mehr Server -> mehr Rechenzentren -> mehr CO2. Aus einer ARTE Dokumentation habe ich entnommen, dass im Jahr 2025 geschätzt wird, dass 25 % des gesamten Energieverbrauches nur auf Rechenzentren zurückzuführen sind.

Rechenzentrum von Meta in Odense

Die Datenschutzgrundverordnung (DSGVO)

Doch wie sieht das Ganze in der Europäischen Union aus? Was für Vorgaben gibt es hier?

In der EU wurde im Jahr 2016 die DSGVO eingeführt. Die erste Datenschutzbestimmung kam aus dem Jahr 1995, als das Internet noch lange nicht den Umfang angenommen hat wie heute. Die DSGVO soll somit alle datenschutzrechtlichen Themen und Rechte aus den unterschiedlichen Mitgliedsstaaten für die gesamte EU festhalten. Der Grund für die Einführung der neuen Verordnung ist, dass Unternehmen einen festen Fahrplan brauchen, wie sie mit den personalisierten Daten umzugehen haben, um nicht das Persönlichkeitsrecht der Nutzer und Besucher zu verletzen. Folgende Grundlagen werden deshalb in der DSGVO festgehalten:

  1. Rechtmäßigkeit (Ob die Daten verarbeitet werden dürfen/ wenn ja wie)
  2. Transparenz (welche Daten werden verarbeitet)
  3. Zweckbindung (nur für bestimmten Zweck)
  4. Speicherbegrenzung (Daten müssen gelöscht werden, wenn irrelevant oder gewollt)
  5. Richtigkeit (keine falschen Daten verwenden)
  6. Datenminimierung (Menge für Zweck angemessen)
  7. Integrität und Vertraulichkeit (Schutz vor unfreiwilliger Weitergabe)
  8. Rechenschaftspflicht (Dokumentation des Verarbeitungsprozesses)
Neue Datenschutzregeln

direkter Widerspruch

Das Problem hierbei ist jedoch, dass Big Data ein Sammelbegriff für solche Daten ist. Somit ist festzuhalten, dass Big Data an sich gar nicht den Prinzip der Datenminimierung einhalten kann. Big Data sammelt nicht nach einem Zweck, sondern die Daten an sich bestimmen zu welchem Zweck sie dienen. Vergleichbar ist das mit der Vorratsdatenspeicherung, die hierzulande für Aufsehen gesorgt hatte, da diese ab 2015 gegen das EU-Recht verstoßen hat. Big Data ist das, nur in noch größer… Die einzige Ausnahme sind Kinder, denn ihre Daten dürfen nicht analysiert werden. Da frage ich mich nur, woher wissen die denn, ob es sich um ein Kind handelt?

Witzige finde ich persönlich ja auch, dass in der DSGVO der Begriff Big Data unter dem Punkt Profiling fällt. Allein dieses Wort beschreibt die Existenzgrundlage der Big Data. Man versucht damit ein Bild oder Profil des Nutzers zu schaffen, mit all seinen guten und schlechten Seiten, Kreditwürdigkeit, Essgewohnheiten und alles was zum Leben dazugehört. Sozusagen ein Freundebuch, nur dass wir keine Freunde sind, sondern ein Stalkingopfer, ohne uns darüber bewusst zu sein.

Positive Entwicklung

Aber es muss trotzdem festgehalten werden, dass die restlichen Maßnahmen einen ernsthaften Unterschied im Umgang mit unseren Daten ausmachen. So wird beispielsweise die Dokumentation des Verarbeitungsprozesses eine besonders wichtige Aufgabe, denn dadurch kann nachvollzogen werden, was ausgewertet worden ist und ob das Unternehmen die Analyse solcher Daten valide begründen kann. Außerdem muss eine Risikoanalyse der Datenverarbeitung entwickelt werden und aufgefallene Risiken an die dafür zuständige Aufsichtsbehörde weitergeleitet werden. Einen weiteren positiven Faktor bringt die DSGVO noch mit sich. Dadurch, dass die Datenschutzproblematik mitten in der Öffentlichkeit steht, werden die unterschiedlichen Umgänge mit personenbezogenen Daten ein durchaus wichtiger Wettbewerbsfaktor für viele Unternehmen. Aber nur für die Unternehmen innerhalb der EU. Im EU-Ausland sieht das ganze anders aus.

Eine Expertenmeinung

Die Expertin ist Prof. Yvonne Hofstetter. Sie ist Autorin, Juristin und Essayistin, welche in Softwareunternehmen tätig ist und sich um die „Positionierung von Multi-Agentensystemen bei der Rüstungsindustrie und für den algorithmischen Börsenhandel“ kümmert, schilderte in einem Vortrag vom YouTube-Kanal BildungsTV aus dem Jahr 2014, wie das Geschäft mit Big Data funktioniert. So beschreibt sie unter anderem, dass der Finanzmarkt durch die Auswertung jeglicher verfügbaren Informationen, dem Militärsektor sehr ähnelt. So funktioniert der teilweise illegale Hochfrequenzhandel, bei dem Händler und Banken zusammenarbeiten, um dem Investor die Aktien möglichst teuer, weiterzuverkaufen. Auch Aktienpreise werden durch Algorithmen, die durch Unmengen an Finanzdaten gefüttert werden, gedrückt bzw. manipuliert. Außerdem zeigt sie das Ziel der Big Data Analyse im Wirtschaftssektor auf, welches ist, den Menschen zu manipulieren.

Das Beispiel

Der Wirtschaftlicher Erfolg ist nicht der einzige Zweck der durch Verarbeitung großer Datenmengen verfolgt wird. So habe sie einst an einem Projekt dem LKA Bayern mitgeholfen, bei dem man überprüfen wollte, ob sich der Drogenhandel von der einen Stadt in die andere verlegt hat. Dafür wurde ausgewertet, welche Delikte begangen worden sind, wer mit wem im Gefängnis saß, wer mit wem verwandt ist oder wer mit wem schonmal etwas zu tun hatte. Durch diese Analyse wurde dann klar, dass sich sowohl die Gruppierung, verantwortlich für den Drogenhandel geändert hatte, als auch Informationen über den Hintermann. Problematisch ist es nur dann geworden, als die Vorstrafen des Mannes gelöscht worden sind, jedoch das Wissen der Hintermann-Tätigkeit noch immer bestand. Das LKA entschied sich dann für den Datenschutz und das Löschen dieser Informationen, nachdem das Löschdatum von einem Rohdatensatz überschritten worden war.

Das Problem

Frau Professor Yvonne Hofstetter sieht das große Problem darin, dass die Technik, die zur Überwachung von Personen einst nur dem Militär zur Verfügung stand, jetzt auch im Privatsektor zu finden ist. Aber der Zweck ist kein anderer. So sagt sie unter anderem: „Wir, wir sind die Ursache für riesige Milliardengewinne bei Google oder Facebook, aber wir kriegen nichts dafür. Wir werden wie ich gerade gesagt habe, ausgebeutet.“

Forderungen

So fordert sie zu einem das Recht auf Gegenleistung für die eigenen Daten. Zudem ein Recht der Kontrolle und die damit verbundene Löschung der Daten. Zuletzt das Recht auf negative Freiheit, was so viel heißt wie, dass man keinen Nachteil durch die Nicht-Nutzung von digitalen Technologien erleidet. Diese Punkte wurden zum Teil in der DSGVO von 2018 umgesetzt und zu EU-Recht gemacht. So beispielsweise das Fenster, in dem man seine Cookies bestimmen kann.

Fazit

Nun denn, was halten wir nun von Big Data? Big Data hat sowohl Vorteile als auch massive Nachteile. Die Analyse der Daten hat zur Folge, dass zukünftige Ereignisse vorhergesagt werden oder bessere Entscheidungen getroffen werden können. Prozesse und Lieferketten können optimiert werden. Werbung wird immer besser die Zielgruppe ansprechen und Dinge über die man gerade gesprochen hat, schon als Werbung angezeigt bekommen. Irgendwie entsteht das digitale Abbild eines Selbst. Nur kommt man hier wieder zu dem unausweichlichen Kritikpunkt, dass der Mensch zum Produkt gemacht wird und eigentlich nichts von der Analyse der eigenen Daten hat. Der Mensch wird manipuliert und unterbewusst zu Entscheidungen gezwungen. Klar sollte sein, dass das eine kritische Entwicklung des Kapitalismus ist. Nur nicht von staatlicher Seite, sondern von Milliardenunternehmen, die nichts mehr interessiert, als uns zu Geld zu machen. Daher, passt, auf was ihr macht. Alleine seid ihr nie.

Die Datenschutzgrundverordnung, versucht hier die Sicherheit für die Nutzer zu wahren, bzw. wiederzuerlangen. Problematisch hierbei ist jedoch, dass nur 20 % der bei einer Bitkom-Umfrage befragten Unternehmen die DSGVO komplett umsetzt. 60 % der Unternehmen sagen, dass man in Deutschland mit dem Datenschutz übertreibe. Gut 80 % der Unternehmen haben fünf Jahre nach DSGVO Verabschiedung noch immer Probleme die Vorgaben durchzusetzen. Aber zumindest haben 60 % der Befragten angeben können, zumindest den Großteil der DSGVO umsetzten zu können. Ein Schritt in die richtige Richtung. Aber fertig sind wir noch lange nicht.

Quellen

Künstliche Intelligenz in Filmen

Autor*innen: Angelique Pál und Dennis Schmidt


Wie wird die zukünftige Welt aussehen? Das ist eine Frage mit der die Menschheit sich oft auseinandersetzt und die auch in Filmen immer wieder aufgegriffen wird. Häufig spielt dabei Künstliche Intelligenz in Filmen eine Rolle. In vielen Fällen werden Maschinen dargestellt, welche mit Künstlicher Intelligenz oder kurz KI ausgestattet, ihre Schöpfer irgendwann unterwerfen. Aus Science Fiction Filmen sind Roboter dieser Art längst nicht mehr wegzudenken, doch die technischen Voraussetzungen dafür existieren in der realen Welt (noch) nicht.

Inhaltsverzeichnis

 

Künstliche Intelligenz in der Wissenschaft

Im Jahr 1956 wurde der Begriff „Artificial Intelligence“ also Künstliche Intelligenz von einer kleinen Gruppe Wissenschaftlern, die sich am Dartmouth College in den USA trafen, eingeführt. Dieser Workshop, der auch als „Dartmouth Conference“ bezeichnet wird, gilt als die Geburtsstunde der KI (vgl. Siekmann 1994, S. 20). Doch schon fünf Jahre vorher hat Alan Turing einen Test entwickelt, nachdem beurteilt werden kann, ob ein Computersystem „intelligent“ ist oder nicht. Bei diesem Test, den Turing „The Imitation Game“ nannte, wird mit Hilfe natürlicher Sprache getestet, ob ein Computersystem so kommunizieren kann, dass es von einem Menschen nicht mehr zu unterscheiden ist (vgl. Manhart 2022).

Alan Turing (ca. 1938)

Die Geschichte der Künstlichen Intelligenz in Medien

Auch schon bevor es die uns heute bekannte Künstliche Intelligenz gab, wurde sich in früheren Medien mit dem Thema der lebendigen Maschine auseinandergesetzt. So wurde der Begriff der Maschine im deutschsprachigen Raum schon etwa seit dem 17. Jahrhundert verwendet und findet sich so auch im Deutschen Wörterbuch der Brüder Grimm aus dieser Zeit. Hier wurde die Maschine noch als etwas Lebloses, synthetisches mit einem Artefakten-Charakter beschrieben (vgl. Brössel 2021, S. 28). Außerdem befindet sich eine frühe Darstellung von künstlicher Intelligenz auch in dem Werk „Die Automaten“ von E.T.A Hoffmann aus dem Jahr 1814 , in dem eine mechanische Puppe beginnt Fragen von Menschen zu beantworten (vgl. Brössel 2021, S. 27).

Der Beginn von Künstlicher Intelligenz in Filmen

Mit der Erfindung von Filmen verlagerte sich das Thema der lebendigen Maschine auch immer mehr ins Kino und Fernsehen. Eine frühe Darstellung von Künstlicher Intelligenz in Filmen ist z. B. die Verfilmung des Science-Fiction-Romans Metropolis. Der gleichnamige Stummfilm erschien im Jahre 1927 und zeigt eine düstere Zukunft, in der Menschen von Androiden unterdrückt werden. Für den damaligen Stand der Filmtechnik war der Film visuell sehr eindrucksvoll und zeigte unter anderen Aufnahmen von riesigen Häuserschluchten, großen Maschinen und fortschrittlichen Verkehrsmitteln. Auch beeinflusste Metropolis spätere Filme wie Blade Runner oder Matrix stark (vgl. Schreiner 2022).

Trailer zu Metropolis (1927)

Terminator und Ex Machina

Eine Filmreihe, die sich mit einer düsteren Zukunft für die Menschheit auseinandergesetzt, ist Terminator. Der große Erfolg der Terminator Filme prägt bis heute unser Bild von künstlicher Intelligenz und Robotern. Bei der in den Terminator Filmen dargestellten KI handelt es sich stets um eine bösartige Super-KI und Killer-Roboter, die als einziges Ziel die Auslöschung der Menschheit haben (vgl. Schreiner 2022). Mit aktuell 6 Filmen, welche in den Jahren 1984 bis 2019 entstanden sind, gehört die Terminator Filmreihe zu einer der bekanntesten, welche sich mit den negativen Seiten und Folgen von Künstlicher Intelligenz auseinandersetzt. Auch der Film Ex Machina aus dem Jahr 2015 behandelt das Thema der künstlichen Intelligenz und setzt sich unter anderem mit der Frage auseinander, was Bewusstsein ist und ob eine Maschine ein Bewusstsein haben kann (vgl. Schreiner 2022).
Eine Besonderheit von Ex Machina ist hierbei, dass die Künstliche Intelligenz in diesen Film nicht primär als Böse dargestellt wird, wie es z.B. in Terminator und vielen anderen Filmen der Fall ist. Sondern das in diesem Werk der Zuschauer dazu ermutigt wird, über das menschliche Wesen, menschliche Züge und die Frage, was einen Menschen von einer Künstlichen Intelligenz unterscheidet, nachzudenken (vgl. Mehnert 2016).

Filme über Künstliche Intelligenz (KI)

  • Blade Runner (1982)
  • Tron (1982)
  • Terminator (1984)
  • Matrix (1999)
  • I,Robot (2004)
  • Transcendence (2014)
  • Ex Machina (2014)
  • Avengers: Age of Ultron (2015)
  • Blade Runner 2049 (2017)
  • I am mother (2019)
  • Free Guy (2021)
  • Ich bin dein Mensch (2021)

 

Weltherrschaft der Maschinen?

Künstliche Intelligenz in Filmen begegnet uns häufig, aber in den seltensten Fällen wird die Handlung des Films durch sie positiv beeinflusst. Entweder sind sie nur „kindliche Maschinen“ als Nebendarsteller, wie z.B. C-3PO oder aber die Künstliche Intelligenz unterjocht die Menschheit und strebt die Weltherrschaft an, wie die Superintelligenz in „I, Robot“. Doch trotz all der Forschung auf dem Gebiet der KI sind solche, in ihrem Handeln flexible Maschinen, nach heutigem Stand, nicht realistisch (vgl. Lenzen 2020, S.119).

KIs werden in hochspezialisierten Gebieten eingesetzt, in denen sie die Leistung, die ein Mensch erbringen könnte, teilweise heute schon übertreffen. Diese Art Künstliche Intelligenz nennt man schwache KI, da sie nur für eine bestimmte Aufgabe erschaffen wurde. Sobald man dieser KI komplexere Aufgaben stellt, würde sie scheitern. Im Gegensatz zu dieser schwachen KI gibt es noch die starke KI, die ähnlich wie ein Mensch, flexibel auf unterschiedliche Situationen reagieren kann (vgl. zu diesem Abschnitt Volland 2018, S.14).

Doch starke Künstliche Intelligenz existiert bis heute (noch) nicht. Es gibt die unterschiedlichsten Aussagen von Wissenschaftlern, ob und wann diese starke Künstliche Intelligenz tatsächlich entwickelt werden könnte. Dabei schwanken die Aussagen zwischen 20 und 200 Jahren oder auch nie (vgl. Lenzen 2020, S. 120). Zumindest können wir starke Künstliche Intelligenz in Filmen weiterhin bewundern. Im folgenden Abschnitt könnt ihr euer Wissen über KIs in Filmen testen. Viel Spaß!

Quiz

Quellen

Brössel, Stephan (2021): Die Anthropologie der Goethezeit und Automaten:
Ein diskursanalytischer Aufriss und eine exemplarische Analyse
von E. T. A. Hoffmanns Die Automate (1814). In: Irsigler, Ingo u.a. (Hg.): Roboter, Künstliche Intelligenz und Transhumanismus in Literatur, Film und anderen Medien. Heidelberg: Universitätsverlag Winter, S. 27 – 44

Lenzen, Manuela (2020): Künstliche Intelligenz. Fakten, Chancen, Risiken. Originalausgabe. München: C.H.Beck

Manhart, Klaus (2022): Eine kleine Geschichte der Künstlichen Intelligenz. Online unter https://www.computerwoche.de/a/eine-kleine-geschichte-der-kuenstlichen-intelligenz,3330537,2 [Abruf am 15.12.22]

Mehnert, Ann-Kristin (2016): „Ex Machina“ (2015). Philosophische Betrachtungen über das (Selbst-) Bewusstsein im Spannungsfeld zwischen Mensch und Maschine. Online unter https://www.grin.com/document/322981 [Abruf am 26.12.2022]

Schreiner, Maximilian (2022): Filme über Künstliche Intelligenz: Sieben Meilensteine der KI-Filmgeschichte. Online unter https://the-decoder.de/beste-filme-kuenstliche-intelligenz/ [Abruf am 04.01.2023]

Siekmann, Jörg (1994): Künstliche Intelligenz: Von den Anfängen in die Zukunft. In: Cryanek, Günther; Coy, Wolfgang (Hg.): Die maschinelle Kunst des Denkens. Braunschweig: Vieweg, S. 11-41

Volland, Holger (2018): Die kreative Macht der Maschinen. Warum Künstliche Intelligenzen bestimmen, was wir morgen fühlen und denken. 1. Auflage. Weinheim: Beltz

Der Einsatz von Spracherkennungssoftware und ihre Grenzen in der Forensischen Linguistik

Autorin: Kimberley Stips

Alexa, wer hat versucht, uns zu erpressen?
Ganz so leicht ist es dann doch nicht. Die Forensische Linguistik ist eine kriminalistische Hilfswissenschaft, die sich mit Sprache im gerichtlichen Kontext beschäftigt. Dazu zählen sowohl die vor Gericht verwendete Sprache wie auch beispielsweise die Autoren- und Sprechererkennung (Fobbe, S. 15 f.). Oder, um es mit den Worten von Patrick Rotter, selbst in der Forensischen Linguistik tätig, zu sagen: „Für uns Sprachprofiler ist Sprache in erster Linie Identität. Egal ob gesprochen oder geschrieben. Sie ist ein Teil von uns.“ (Rotter, S. 15)
Um Identität(-sfindung) soll es in diesem Beitrag gehen – und um die Frage, wie sehr die Künstliche Intelligenz (KI) in diesem Bereich Ermittler*innen entlasten oder vielleicht sogar ersetzen kann.

Entwicklung der Spracherkennung

Der Versuch, Sprache mittels Computern zu analysieren und zu erkennen, ist nicht neu:

Zeitleiste: Meilensteine der computergestützten Spracherkennung

Was aber, wenn es nicht nur darum geht, kurze Nachrichten in Text zu verwandeln, sondern etwa herauszufinden, wer eine anonyme Drohbotschaft versendet hat? In den letzten Jahren gab es mehrere Studien dazu, von denen ich hier zwei vorstellen möchte.

Software & Audioerkennung

Mit Spracherkennung von komplexeren Audiodateien hat sich unter anderem Franz Bellmann in seiner Bachelorarbeit beschäftigt: er testete sechs frei verfügbare Softwares auf die Eignung zur Transkription von Audiodateien (mit verschiedenen Längen, in verschiedenen Sprechgeschwindigkeiten und mit und ohne Dialekt) in einem polizeilichen Kontext (Bellmann, S. 23). Wie seinen Schlussfolgerungen zu entnehmen ist, haben alle benutzten Programme Schwierigkeiten bei der Worterkennung, Google Web Speech API hat sich am besten geschlagen (Bellmann, S. 47). Doch selbst diese beste Alternative hat immer noch eine Fehlerrate von ca. 30%(!) bei der Transkription (Bellmann, S. 44).

Software & Textzuordnung

Manuel Dorobek untersuchte in seiner Masterarbeit 2021 ein ähnliches Projekt, aber auf geschriebene Texte bezogen: kann die KI im Internet veröffentliche Rezensionen zuverlässig den jeweiligen Autor*innen zuordnen? Er wählte 25 Autor*innen mit jeweils 100 verfassten Texten aus (Dorobek, S. 25), die vom besten Modell mit einer Genauigkeit von 96,4% erkannt wurden (Dorobek, S. 149). Zum Trainieren der KI wurden 60 Vorlagetexte genutzt (Dorobek, ebd.). Zwei Autor*innen voneinander zu unterscheiden, gelang schon mit drei Vorlagen (Dorobek, ebd.). Das sind sehr gute Werte, doch in der echten Welt ist der Kreis der Verdächtigen nicht immer so leicht eingrenzbar. Außerdem kann es sein, dass nicht genug Vergleichstexte vorliegen oder keine Texte in ausreichender Länge – weshalb auch Dorobek selbst zu dem Ergebnis kommt: „Für einen Anwendungsfall in der Praxis sind diese Ergebnisse deshalb mit Vorsicht zu betrachten.“ (Dorobek, ebd.)

Fazit

KI kann also bisher beim geschriebenen Wort besser unterstützen als beim gesprochenen. Bis die Technik weit genug entwickelt ist, um gerichtsfeste Ergebnisse zu liefern – denn immerhin geht es hier auch um Straftaten und die Frage, ob Menschen ins Gefängnis kommen! – wird also noch einige Zeit vergehen. Bis dahin gilt die Einschätzung von Patrick Rotter:

„Unsere Lebensleistung an Wort und Text ist schlicht nicht zu erfassen. Und dank der zwangsläufigen Veränderungen auch nicht in starre Muster zu packen. […] Keine künstliche Intelligenz dieser Welt ist in der Lage, sämtliche Dialekte, feinste Nuancen und die ständigen Veränderungen in der Sprache zu begreifen.“ (Rotter, S. 40)

Quellen

Fobbe, Eilika (2011): Forensische Linguistik. Tübingen: Narr Francke Attempto Verlag
Rotter, Patrick (2021): Die geheimen Muster der Sprache. 3. Auflage, München: Redline-Verlag
Bellmann, Franz (2020): Prototypische Systemintegration und Evaluation von Open Source Sprachmodellen zur automatischen Spracherkennung gesprochener deutscher Texte. Online-Ressource, abrufbar unter BA Bellmann
Dorobek, Manuel (2021): Automatisierte Autorschaftsanalyse in der deutschen Sprache mittels forensischer Linguistik. Online-Ressource, abrufbar unter MA Dorobek
Bildquelle: Wedekind, Kai: HTML 5 Speech Recognition API. Online abrufbar unter *iYxrR4zaECeQ5AgSq3jy_A.png
Beitragsbild: mohammed_hassan auf Pixabay. Online abrufbar unter https://pixabay.com/images/id-7620463/

Search Engine Optimization und was das mit verschiedenfarbigen Hüten zu tun hat

Autorin: Magdalena Sinsel

Im folgenden Artikel erfahren Sie, was Search Engine Optimization ist, warum das für jeden Host einer Website von Bedeutung ist und was das mit weißen, schwarzen und grauen Hüten zu tun hat. Viel Vergnügen!

Inhaltsverzeichnis

Was ist Search Engine Optimization?

Search Engine Optimization, kurz SEO, umfasst alle Maßnahmen, die zu einem besseren Ranking einer Website innerhalb der organischen Suchergebnisse von Google, Bing und Co. führen (vgl. Kohring 2022, S. 10). Organische Suchergebnisse sind dabei die „kostenlosen“ Treffer auf der Search Engine Result Page (SERP), die nicht über Anzeigenformate wie Google Ads oder Google Shopping generiert werden (vgl. Searchmetrics 2022a).

Ein gutes Ranking verschafft eine bessere Sichtbarkeit und eine höhere Reichweite. Dass Treffer, die nicht unmittelbar auf der ersten Ergebnisseite angezeigt werden, von Nutzer*innen angeklickt werden, ist schließlich eine Rarität (vgl. Kohring 2022, S. 10-11). Durch SEO sollen deshalb häufig auch der Bekanntheitsgrad der eigenen Marke, der Marktanteil und/oder der Umsatz gesteigert werden (vgl. Searchmetrics 2022b).

Die Maßnahmen, die zur Suchmaschinenoptimierung eingesetzt werden können, sind sehr vielfältig. Man unterscheidet dabei zwischen White-Hat- und Black-Hat-Methoden. In den folgenden Abschnitten können Sie mehr darüber erfahren.

Was versteht man unter White-Hat-SEO?

Marion Davies portraitiert von Hamilton King 1920
Quelle: Wikimedia Commons (public domain)

Definition

White-Hat-SEO orientiert sich an den Richtlinien, die Suchmaschinenanbieter für SEO-Maßnahmen vorgeben (vgl. Searchmetrics 2022b). Auf der Entwickler-Plattform „Google Developers“ hat Google beispielsweise einen umfassenden „Startleitfaden“ zur Umsetzung von Suchmaschinenoptimierung veröffentlicht.

Erlaubt ist in der Regel, was einen technischen oder inhaltlichen Mehrwert bietet, den Nutzerkomfort steigert und ethisch unbedenklich ist (vgl. Google 2022). Eine Manipulation der Suchergebnisse, die Suchmaschine oder User*innen in die Irre führen soll, hingegen ist nicht zulässig (vgl. SEO Küche 2022). Die User Experience hat bei Google und Co. mittlerweile einen sehr hohen Stellenwert, deshalb wird im Zusammenhang mit Search Engine Optimization manchmal auch von „Search Experience Optimization“ gesprochen (Searchmetrics 2022b). Es gilt der Grundsatz, dass eine Website nicht für Suchmaschinen, sondern für Nutzer*innen optimiert werden sollte (vgl. SEO Küche 2022).

Beispiele

  • Verwendung von qualitativ hochwertigen und einzigartigen Inhalten
  • Verbesserung der Navigation innerhalb der Website
  • technische Fehler beheben
  • Ladezeiten verkürzen
  • Optimierung der Metaangaben
  • natürliches Linkbuilding: ein besseres Ranking kann erreicht werden, wenn andere Websites auf die eigene Website verlinken – man spricht dabei auch von sogenannten „Backlinks“; „natürlich“ heißt in diesem Zusammenhang, dass die Verlinkungen nicht durch Linkkauf oder das Posten von Spam-Links in Foren, Blogs o.ä. erreicht werden

Vorteile

  • langfristiger Erfolg
  • ethisch unbedenklich
  • eine bessere User Experience sorgt neben einem besseren Suchmaschinenranking auch für eine bessere Kundenbindung
  • ist im Einklang mit den Guidelines der Suchmaschinenanbieter, wird von ihnen nicht abgestraft

Nachteile

  • hoher Aufwand, komplex in der Umsetzung
  • benötigt Geduld
  • dauerhafte Aufgabe (ständiges Monitoring, Analyse und erneute Anpassungen sind notwendig, damit der Erfolg anhält)

Was versteht man unter Black-Hat-SEO?

Portrait einer Dame von Hans Baldung Grien um 1530
Quelle: Museo Thyssen-Bornemisza Madrid,
CC BY-NC-ND

Definition

Als Black-Hat-SEO bezeichnet man Methoden der Suchmaschinenoptimierung, die gegen die Guidelines der Suchmaschinenanbieter und/oder gegen ethische Grundsätze verstoßen (vgl. Pollitt 2020). Die Verwendung von Black-Hat-SEO kann zu einem schnellen Erfolg führen, dieser Erfolg ist in der Regel aber nur von kurzer Dauer (vgl. OSG Team 2018). Wenn die Anwendung von Black-Hat-Methoden von Suchmaschinen bzw. deren Algorithmen erkannt wird, werden die entsprechenden Websites mit einem schlechten Ranking bestraft oder sogar komplett aus dem Index der Suchmaschinenanbieter entfernt (vgl. Pollitt 2020). In extremen Fällen können sogar rechtliche Konsequenzen drohen (vgl. Searchmetrics 2022b).

Auch Taktiken, die aktuell nicht explizit von den Suchmaschinen verboten sind, können zukünftig von Bestrafungen betroffen sein. Googles Algorithmen werden kontinuierlich weiterentwickelt. Die Bekämpfung von Spam-Content wurde beispielsweise durch das Panda Update und das Penguin Update verbessert (vgl. Ryte 2021). Eine Verwendung von Black-Hat-Methoden ist aufgrund der ethischen Fragwürdigkeit und drohenden Strafen also nicht empfehlenswert.

Beispiele

  • Cloaking: Nutzer*innen und Suchmaschine werden unterschiedliche Versionen einer Website angezeigt
  • Hidden Text: Text wird so auf der Website platziert, dass er von Suchmaschinen beim Crawling erkannt wird, aber für Nutzer*innen unsichtbar ist (z.B. Schrift und Hintergrund im gleichen Farbton)
  • Keyword Stuffing: übermäßige Verwendung eines Keywords in Text, Überschrift etc. ohne inhaltliche Relevanz
  • Linkkauf: Betreiber*innen anderer Websites werden dafür bezahlt, dass sie auf die eigene Website verlinken

Vorteile

  • schnelle Erfolge
  • weniger komplex und kostengünstiger als White-Hat-SEO

Nachteile

  • unethisch
  • Erfolg nur von kurzer Dauer
  • wird langfristig von Suchmaschinen durch ein schlechtes Ranking oder komplettes Entfernen aus dem Index abgestraft
  • kann dem eigenen Ruf langfristig schaden

Was versteht man unter Grey-Hat-SEO?

Auf der Eisbahn, unbekannter Künstler um 1910
Quelle: Staatliche Museen zu Berlin – Kunstbibliothek, CC BY-NC-SA 4.0

Grey-Hat-SEO ist im Grunde genommen alles, was zwischen White-Hat- und Black-Hat-SEO liegt – Maßnahmen, die nicht explizit von Suchmaschinenanbietern verboten sind, aber vielleicht ethisch grenzwertig oder nur eine leichte Abwandlung von bekannten Black-Hat-Instrumenten sind. Teilweise wird unter dem Begriff auch die Kombination von White- und Black-Hat-Methoden verstanden. Eine genaue Auflistung von Grey-Hat-Maßnahmen ist schwierig, weil sowohl der Übergang zwischen White Hat und Grey Hat als auch zwischen Grey Hat und Black Hat oftmals fließend ist (vgl. für diesen Absatz Pollitt 2020).

SEO-Experten sind sich uneinig darüber, ob die Anwendung von Grey-Hat-SEO empfehlenswert ist. Einige betonen die Unsicherheit, die mit Grey-Hat-Methoden einhergeht, da es keine Garantie dafür gibt, dass deren Verwendung nicht zukünftig von Google oder anderen Suchmaschinen abgestraft wird (vgl. Ryte 2021). Andere gehen davon aus, dass ein gutes Ranking nicht ausschließlich durch White-Hat-Methoden erreicht werden kann, insbesondere, wenn die Konkurrenz groß ist (vgl. Pollitt 2020).

Woher stammt die Hüte-Terminologie?

Jack Kelly, Kathleen Crowley und Mike Road in der TV-Serie Maverick 1962
Quelle: Wikimedia Commons (public domain)

Die Begriffe White Hat und Black Hat findet man u.a. auch im Zusammenhang mit ethischem oder unethischem Hacken. Ihren Ursprung hat die Terminologie allerdings in der Kostümierung in Westernfilmen. Hier trug der gute Cowboy traditionell einen weißen Hut und der böse Cowboy einen schwarzen (vgl. Pollitt 2020). Für die Zuschauer*innen war so auf einen Blick erkennbar, wer auf welcher Seite steht.

Abschließendes Rätsel


Quellen

Google (2022): Startleitfaden zur Suchmaschinenoptimierung (SEO). Zuletzt aktualisiert am 18.11.2022. Online unter https://developers.google.com/search/docs/fundamentals/seo-starter-guide/  [Abruf am 26.11.2022]

Kohring, Silvia (2022): 30 Minuten Suchmaschinenoptimierung. Offenbach: Gabal Verlag

OSG Team (2018): White & Black Hat SEO. Zuletzt aktualisiert am 23.04.2018. Online unter https://www.seoagentur.de/seo-handbuch/white-black-hat-seo/ [Abruf am 29.11.2022]

Pollitt, Helen (2020): White Hat vs. Black Hat vs. Gray Hat SEO. What’s the Difference? Zuletzt aktualisiert am 04.05.2020. Online unter https://www.searchenginejournal.com/white-hat-vs-black-hat-vs-gray-hat-seo/365142/ [Abruf am 04.11.2022]

Ryte (2021): Black Hat SEO. Online unter https://de.ryte.com/wiki/Black_Hat_SEO [Abruf am 29.11.2022]

Searchmetrics (2022a): Organic Traffic. Online unter https://www.searchmetrics.com/de/glossar/organic-traffic/ [Abruf am 26.11.2022]

Searchmetrics (2022b): Suchmaschinenoptimierung. Online unter https://www.searchmetrics.com/de/glossar/suchmaschinenoptimierung/ [Abruf am 01.11.2022]

SEO Küche (2022): White Hat SEO. Zuletzt aktualisiert am 23.09.2022. Online unter https://www.seo-kueche.de/lexikon/white-hat-seo/ [Abruf am 26.11.2022]

Beitragsbild: Pch.vector auf Freepik

Finden die Roboter den Weg in die Bibliothek? – Wir treffen unsere zukünftigen Chatbot-Kollegen

Autor*innen: Laura Dembowski und Erit Grünefeld


Wie oft unterhältst du dich im Alltag mit Robotern? Wenn du Siri oder den Assistenten von Google auf dem Handy benutzt, dann könnte es schon mehrmals am Tag sein. Seit ChatGPT im November letzten Jahres der breiten Öffentlichkeit zu Verfügung steht, ist das Thema Künstliche Intelligenz zudem wieder präsenter in den Medien vertreten. Aber hast du schon mal einen Roboter in einer Bibliothek getroffen? Vielleicht sogar auf eine Tasse Kaffee? Das gibt es wirklich, am Ende dieses Blogbeitrags siehst du, wo. Aber zuerst ein paar Grundlegende Informationen über Chatbots.

  1. Was ist ein Chatbot?
  2. Geschichte der Chatbots
  3. Chatbots in Bibliotheken
  4. Drei Chatbot Unterhaltungen
  5. Fazit

Was ist ein Chatbot?

Was ist eigentlich ein Chatbot? Wir könnte jetzt lang und breit erklären, was ein Chatbot ist und wofür so etwas genutzt wird. Einfacher und knapper fassen es jedoch diverse Definitionen aus dem Internet zusammen:


„Ein Chatbot ist eine Anwendung, die Künstliche Intelligenz verwendet, um sich mit Menschen in natürlicher Sprache zu unterhalten. Benutzer können Fragen stellen, auf welche das System in natürlicher Sprache antwortet. Er kann Texteingabe, Audioeingabe oder beides unterstützen.“

IBM

„Chatbots sind Dialogsysteme mit natürlichsprachlichen Fähigkeiten textueller oder auditiver Art. Sie werden, oft in Kombination mit statischen oder animierten Avataren, auf Websites oder in Instant-Messaging-Systemen verwendet, wo sie die Produkte und Dienstleistungen ihrer Betreiber erklären und bewerben respektive sich um Anliegen der Interessenten und Kunden kümmern – oder einfach dem Amüsement und der Reflexion dienen.“

Gabler Wirtschaftslexikon

„Bei einem Chatbot handelt es sich um ein technisches Dialogsystem, mit dem per Texteingabe oder Sprache kommuniziert werden kann. Chatbots werden häufig eingesetzt, um Anfragen automatisiert und ohne direkten menschlichen Eingriff zu beantworten oder zu bearbeiten.“

Big Data Insider

Im Grunde sind diese Definitionen alle gleich. Chatbots imitieren die menschliche Kommunikation, um individuelle Fragen von Personen zu beantworten. Zudem erklärt IBM, dass Chatbots auf Künstlicher Intelligenz (KI), oder im englischen Artificial Intelligence (AI), basieren, also kurz gesagt: auf Anwendungen, die programmiert werden, um menschenähnliche Intelligenz zu erlangen. Zurzeit ist das nur sehr begrenzt, und wenn überhaupt, in gesonderten Teilbereichen möglich.

Das Gleiche gilt auch für Chatbots. Gibt eine Person über Schrift oder Sprache eine Frage in das Chatfenster ein, versucht der Chatbot diese auf Basis von vorhanden Informationen zu beantworten. Mit Hilfe von maschinellem Lernen werden Künstliche Intelligenzen wie Chatbots trainiert, um langfristig aus Erfahrungen und Feedback der Fragenden zu lernen und stetig passendere Antworten zu liefern.

Für Organisationen, wie Bibliotheken, können Chatbots eine hilfreiche Serviceergänzung für die Kundschaft sein, wenn sie in der Lage sind einfache Fragen zu beantworten und Informationsbedarfe der Menschen zu stillen.  

Geschichte der Chatbots

Der erste Chatbot erblickt schon im Jahre 1966 das Licht der Welt. Er heißt ELIZA, und soll oberflächliche Kommunikation zwischen Menschen und Maschinen darstellen. Doch selbst ELIZAs Empathieansätze – es kann Aussagen wiederholen und Fragen dazu stellen – reichen aus, um ein Gefühl der Verbindung in den Chat-Partner:innen hervorzurufen. Von diesen Anfängen entwickelt sich die Chat Technologie in verschiedene Richtungen: Psychologieforschung, Computerlinguistik, und die Entwicklung von Künstlicher Intelligenz. Einige Jahrzehnte lang ist es hauptsächlich ein akademisches Projekt, Menschliche Kommunikation so gut wie möglich abzubilden. Um die Jahrhundertwende werden die ersten Chatbots entwickelt, die sich wie Assistenten oder Customer Support verhalten, so wie SmarterChild, welches die Nutzer:innen von AOL und MSN im Jahr 2001 z.B. nach Informationen über das Wetter und Sportnachrichten fragen können.

Chatbots in Bibliotheken

Mittlerweile sind Chatbots vielen vertraut, sei es der persönliche Assistent auf dem Smartphone oder der Hilfechat auf der Webseite eines Onlinehändlers oder beim Online-Banking. Eine Bibliothekswebseite ist vielleicht weniger vertraut für neue Nutzer:innen. Da bietet ein Chatbot als erste:r Ansprechpartner:in möglicherweise eine niedrigere Hemmschwelle: ein Chatbot wird auf jeden Fall nicht die Augen verdrehen bei einfachen Fragen über die Verwendung des Bibliothekskatalogs oder nach einer Auflistung der verfügbaren Dienstleistungen. Auch aus der Sicht der Bibliotheksangestellten gibt es Vorteile. Sie können sich auf komplexe Recherchefragen konzentrieren, und gleichzeitig sammelt der Chatbot Daten über die Arten von Fragen, die Nutzer:innen der Webseite haben.

Aber im Moment sind wenigstens im deutschsprachigen Raum kaum Chatbots auf Bibliotheksseiten vertreten. In den 2000er Jahren wurden in einigen Bibliotheken Bots entwickelt, so wie zum Beispiel Stella an der SUB Hamburg, aber viele wurden in den 2010er Jahren wieder abgeschafft. Die Kosten sind ein möglicher Grund dafür. Auch wird angemerkt, dass die jüngeren Generationen Textchat als zu aufwendig ansehen. Frank Seeliger und Anna Kasprzik zählen in einem Interview im ZBW Mediatalk die Herausforderungen auf, die Bibliotheks-Chatbots bewältigen müssen. Darunter sind mangelnde Trainingsdaten und Datensicherheitsbedenken, aber auch das Vertrauen der Nutzenden zu dem Chatbot. Und zwar nicht nur, was das Übertragen von Daten angeht, sondern auch das Vertrauen, dass der Chatbot eine Frage verstehen wird und den Aufwand der Unterhaltung im Vergleich dazu, die Informationen eigenhändig auf der Webseite zu suchen, sich lohnt.

Wir wollten selbst einige Bibliotheks-Chatbots ausprobieren, um uns ein Bild von den Vor-und Nachteilen zu machen. Wir haben einige gefunden, und uns ein bisschen mit ihnen unterhalten.

Drei Chatbot Unterhaltungen

ANTswers

ANTswers ist ein „interaktives FAQ“ auf der Bibliothekswebseite der University of California, Irvine. Dieser Chatbot ist seit 2014 online, und soll zum Beantworten von einfachen Fragen verwendet werden. Da wir uns nicht in Irvine auskennen, wollen wir zuerst wissen, wo wir hinmüssten, um die Bibliothek zu besuchen

ANTswers: Hi! I am ANTswers, an experimental computer program here to answer your questions.
Guest Anteater:	hello
ANTswers: Hello! How can I assist you?
Guest Anteater:	what’s your address?
ANTswers: Are you asking about my address?
Guest Anteater: yes
ANTswers: Ugh.
Guest Anteater: :(
ANTswers: Can you rephrase your question please? Tip: try simplifying your question or break it into several questions!
Guest Anteater: what is the library’s address?
ANTswers: That information is confidential.
Guest Anteater: where is the library located?
ANTswers: The UC Irvine Libraries have four different locations: the Langson Library, the Science Library, the Gateway Study Center, and the Grunigen Medical Library. Which location would you like to get to?

Wären wir nicht mit Recherche für diese Blogbeitrag beschäftigt, hätten wir zu diesem Zeitpunkt sicher schon aufgegeben. Auch bei einem weiteren Versuch ist unsere Kommunikation von Missverständnissen geplagt.

Guest Anteater: what is the address of the science library?
ANTswers: Did you want articles or books on the address of the science library? Say: "articles" or "books".

Empfehlungen kann uns ANTswers leider (noch!) nicht geben, aber dafür ein Link zur Katalogsuche.

Guest Anteater: do you know any books about genetics?
ANTswers: No, tell me about him, her or it.
Guest Anteater: can you recommend a book about genetics?
ANTswers: Not at the moment but check back with me in a few months, we have something we are working on!
Guest Anteater:	where do I find books about artificial intelligence
ANTswers: Sorry, but I could not find an exact match for "artificial intelligence". For books, search our ANTPAC catalog.

Diese Chats wurden vor einigen Monaten durchgeführt, und ein weiterer Versuch im Januar 2023 hat zwar immer noch keine Empfehlungen geliefert, aber immerhin reagiert ANTswers jetzt besser auf das Schlagwort Adresse:

Guest Anteater:	what's your address?
ANTswers says: Would you like the mailing address or the carrier address (the carrier address is used for express delivery companies such as UPS, FedEx, etc.)?

Trotzdem sind wir am Ende nicht besonders angetan von ANTswers. Experimentell zu versuchen, die beste Fragestellung zu finden hat zwar etwas Spielerisches, aber hätten wir einen ernsthaften Informationsbedarf gehabt, wäre schnell eine Frustrationsgrenze erreicht.

Kingbot

Kingbot ist der Chatbot an der Dr. Martin Luther King Jr. Library der San Jose State University in Kalifornien, USA. Nach dem Produktionsstart 2020 konzentrieren sich die Entwickler*innen, vor allem durch den Beginn der Pandemie, in den letzten Jahren vermehrt auf den Chatbot. Schließlich ist der Bedarf, auf Informationen von daheim aus zugreifen zu können, nun höher als zuvor. Das Ziel grundlegende Fragen zu der Bibliothek und deren Dienstleistungen zu beantworten, erfüllt Kingbot ganz gut. Hilfreich ist dabei, dass er bereits beim Öffnen des Chatfensters einige Vorschläge zu Suchanliegen bietet, die direkt angeklickt werden können.

Sympathisch wirken dabei auf uns die Emojis, die Kingbot in seine Nachrichten integriert. Auch das typische Design einer Chatoberfläche verleiht der Anwendung ein legeres Gefühl, das vielleicht auch anfängliche Berührungsängste mindern mag. Beim Testen des Kingbots merken wir, dass das Chatten mit ihm intuitiver und natürlicher verläuft, als bei ANTswers.

Der erste Kontakt mit Kingbot

Dennoch versteht auch er nicht auf Anhieb unsere Frage nach der Adresse der Bibliothek. Erst nachdem wir die Frage zweimal umformulieren, erhalten wir die ausführliche Beschreibung der Adresse, die sogar durch Zusatzinformationen, wie Parkmöglichkeiten, ergänzt werden.

Die Frage nach den Öffnungszeiten der King Library beantwortet der Chatbot jedoch souverän. Als wir ihn dann bitten uns ein Buch zum Thema Deutsche Geschichte zu empfehlen, muss er uns leider enttäuschen. Bestimmte Ressourcen und Artikel zu empfehlen, entzieht sich seinem Aufgabenbereich. Dennoch verweist er gekonnt mit Link auf den Bibliothekskatalog und bietet uns noch weitere Links, die zu Hilfeseiten und Tutorials für die Suche im Katalog führen. Kingbot schlägt sich gut und weiß in unseren Versuchen oft, wie er unsere Fragen beantworten kann.

Uns fällt auch positiv auf, dass Kingbot um Feedback bittet, um seinen Service in Zukunft bei Bedarf verbessern zu können. Nachdem wir ihm ein positives Feedback gegeben haben, bedankt Kingbot sich und erfragt, ob er noch etwas für uns tun kann.

Kingbot ist sehr zuvorkommend und höflich

Auch dieser Versuch liegt schon ungefähr zwei Monate zurück. Als wir Kingbot im Januar 2023 erneut mit der ersten Formulierung nach der Adresse fragen, versteht er ebenfalls sofort unser Anliegen.

Wir haben auch einen deutschen Chatbot gefunden und ausprobiert. Die Ergebnisse seht ihr auf der nächsten Seite!

Wilma

Eine deutsche Variante eines FAQ-Bibliothekschatbots ist die in der TH Wildau ansässige Wilma. Leider hat sie uns nicht in voller Gänze überzeugen können.

Beim Aufrufen der Seite, begrüßt auch Wilma uns freundlich und ähnlich wie Kingbot bietet sie uns einige mögliche Themen, die uns interessieren könnten.

Wilma begrüßt uns sehr förmlich.

Da es sich hierbei aber um einen Test handelt, erfragen wir bei Wilma zunächst mit einer Nachricht im Chat die Öffnungszeiten und ignorieren den dazu passenden Themenvorschlag. Mit Wilmas Antwort sind wir sehr zufrieden, zumal sie auch anzeigt, dass die Öffnungszeiten, wegen der aktuellen Prüfungsphase bis Ende Januar, zurzeit länger sind, als während der folgenden Vorlesungsfreien Zeit.

Wilma beantwortet Fragen auch mal mit einer philosophischen Note.

Leider kann auch Wilma nicht alle unserer Fragen zufriedenstellend beantworten. Die Frage nach der Adresse der Bibliothek erweist sich als fast ebenso schwierig, wie bei ANTswers und Kingbot vor einigen Monaten. Es erweckt fast den Anschein, als wäre Wilma nur bei der Erwähnung der Silbe „Wil“ darauf programmiert uns ihren Freund Wilbert vorzustellen, die hauseigene Bibliothekssuchmaschine der TH Wildau. Das ist zwar nett, war für die Beantwortung unserer Frage aber nicht sehr hilfreich.

Kann Wilbert uns die Adresse nennen?

Ein ähnliches Phänomen können wir beobachten, als wir die Silbe „Bib“ in anderer Zusammenstellung erwähnen. Denn bei Wilma entsteht bei der Silbe „Bib“ sofort die Assoziation zu Bibliografie. Wir fragen uns nun, wie sinnvoll diese Assoziation wirklich ist, wenn man nur nach Informationen zur Bibliothek sucht.  

Leider war das auch nicht richtig.

Schlussendlich war es uns dann doch möglich, Informationen zur Adresse mit Hilfe von Wilma zu finden. Sonderlich galant war die Suchanfrage „Adresse“ jedoch nicht.

Trotzdem fällt positiv auf, dass Wilma uns, wie Kingbot um Feedback bittet.

Nun verstehen wir uns.

Nach der ernüchternden Adressenanfrage sind wir jedoch beeindruckt von Wilmas Antwort auf unsere Bitte uns ein Buch zum Thema Künstliche Intelligenz zu empfehlen. Wilma verlinkt, ähnlich wie Kingbot, zum Bibliothekssuchportal. In diesem Fall ist das ihr Freund Wilbert. Zusätzlich gelangen wir über den Link aber direkt zu einer bereits erfolgten Suche zu dem Suchbegriff Künstliche Intelligenz. Wilma und Wilbert arbeiten also Hand in Hand, wobei Wilma in ihrer Antwort zusätzlich noch auf andere Recherche-Tools, die an der TU Wildau nutzbar sind, verweist.

Wilma basiert auf dem Pepper-Modell, einem Roboter, der in in französisch-japanischer Zusammenarbeit entwickelt wurde.

Interessant ist auch, dass Wilma in der Bibliothek der TH Wildau nicht nur als Chatbot vorhanden ist. Vor Ort kann man sie direkt bei der Arbeit sehen, denn dort bewegt sich ein Roboter namens Wilma durch die Regale und betreut die anwesenden Besuchenden der Bibliothek. Ab und zu darf Wilma sogar eine Kaffeepause einlegen.

Fazit

Chatbots haben großes Potenzial, Angestellten in der Bibliothek etwas Alltagsarbeit abzunehmen. Teilweise ähneln sie aber noch Azubis, die eher Arbeit verursachen, oder Nutzende verwirren können. Aber die Technologie entwickelt sich jeden Tag weiter: wir haben schon in den zwei Monaten zwischen unteren Versuchen große Verbesserungen gesehen. Und auch die Entwicklung von Programmen wie ChatGPT treiben Funktionalität und Wissen immer weiter vorwärts. Was sind eure Erfahrungen? Habt ihr schon mal mit einem Bibliothekschatbot gesprochen? Erzählt uns davon in den Kommentaren.

Quellen

Stricken und Programmieren: von 1 links/1 rechts zu 1010

Autorin: Lena-Marie Hoppe


Crafting meets Coding

Wenn Stricken und Programmieren im selben Satz erwähnt werden, dann meist zur Verbildlichung von Gegensätzen: Tradition trifft auf Moderne, analog trifft auf digital, belächelnswertes DIY-Hobby trifft auf zukunftsorientierten Skill. Es mag widersprüchlich erscheinen, doch die Jahrhunderte alte Handarbeitstechnik und Programmiersprachen haben mehr gemein, als es auf den ersten Blick vermuten lässt. Jemand sitzt stundenlang vor unzähligen Zeilen mit kryptisch anmutenden Kürzeln, oft bis tief in die Nacht hinein und an einem bestimmten Punkt stellt sich das Gefühl ein, die Arbeit einfach nur noch in die Ecke pfeffern zu wollen. Dieses Gefühl kennen sowohl Programmierer:innen als auch Strickende.

Die binäre Basis

So groß wie die Vielfalt an Programmiersprachen ist, so groß ist auch die Vielfalt an Stricktechniken und Mustern – wahrscheinlich sogar größer. Beiden ist jedoch gemein, dass sie sich jeweils auf zwei Grundbausteine zurückführen lassen: Einsen und Nullen bzw. rechte und linke Maschen. An dieser Stelle soll kein Stricktutorial folgen, doch die grundlegenden Strickbegriffe sollten für ein besseres Verständnis bekannt sein.

Eine Strickschrift ist die grafische Repräsentation eines Strickmusters mit Hilfe eines Kästchenrasters und Symbolen für die verschiedenen Maschenarten. Der binäre „Übersetzung“ ist im Vergleich komplexer.

Strickarbeiten können in Reihen oder Runden angefertigt werden. Die Strickrichtung verläuft dabei von rechts nach links. Eine Reihe oder Runde besteht aus Maschen, die während der Arbeit auf der Stricknadel liegen. Rechte Maschen bilden oft die Vorderseite des Gestricks und sehen aus wie „V“s. Sie bilden eine glatte Oberfläche. Linke Maschen erzeugen dagegen kleine Knötchen, wenn sie einzeln auftauchen, bzw. eine Wellenstruktur in der Fläche.

Außer rechten und linken Maschen gibt es noch viele weitere Techniken, etwa Ab- und Zunahmen, um das Gestrick zu formen oder dekorative Elemente wie Zöpfe, Umschläge oder tiefer gestochene Maschen. Sie alle beruhen jedoch auf den rechten und linken Maschen, mit denen sich komplette Strickstücke inklusive komplexer Strukturmuster stricken lassen.

Genau dieses Strukturmuster mit binärer Basis sind es, die das Stricken zum perfekten Nachrichtenmedium gemacht haben, lange bevor es ausgefeilte digitale Chiffrier- und Dechriffiertechnologien gab. Selbstverständlich war der Wollpullover mit Noppenmuster nicht der Vorläufer der E-Mail. Besonders in Kriegszeiten hat das Stricken jedoch eine wichtige Rolle beim verschlüsselten Sammeln und Weitergeben von Informationen gespielt.

Steganografie: gestrickte Geheimbotschaften

Eine ältere Dame sitzt am Fenster und strickt. Von ihrem Platz hat sie einen guten Blick auf die Züge, die nicht weit von ihrem Haus entfernt vorbeifahren. Eigentlich eine idyllische Vorstellung, wenn es sich dabei nicht um Kriegsgerät der deutschen Besatzer und eine französische Spionin während des Ersten Weltkrieges handeln würde. Als Spion gilt es unauffällig zu sein, keine Aufmerksamkeit zu erregen. Doch das Stricken ist nicht nur Teil der Tarnung. Die Strickware selbst kann zur geheimen Botschaft werden, indem ein Code in die Maschen eingebaut wird. Diese Form der Steganografie, die verborgene Übermittlung von Informationen, kam sowohl im Ersten als auch im Zweiten Weltkrieg zum Einsatz.

„Drop one for a troup train, purl one for an artillery train“ – so lautet es in der BBC-Dokumentation MI6: A Century in the Shadows, also eine Masche fallen lassen für einen Truppenzug, eine linke Masche stricken für einen Artilleriezug. Man kann davon ausgehen, dass statt „drop one“ hier eher ein Umschlag gemeint ist, der zwar ein Loch erzeugt, aber das Gestrick nicht weiter auflöst. Den Militärhistorikern sei an dieser Stelle ihre Strickunkenntnis verziehen. Wie gut, dass die richtige Spionagearbeit den älteren Damen überlassen wurde …

Eine noch naheliegendere Form der Informationsübermittlung mittels Gestrick ist der Einbau von Morsebotschaften. Die erhabene Struktur der linken Maschen ist ideal, um mit ihnen Strich- und Punktkombinationen nachzubilden. Für das ungeübte Auge wirken sie dabei lediglich wie ein Strukturmuster, besonders, wenn der eigentliche Code durch andere Musterelemente kaschiert wird.

Es ist jedoch nicht nur das Gestrick an sich, das als steganografisches Medium genutzt werden kann. Der Mix aus Kürzeln und Ziffern bietet sich gerade dafür an, verschlüsselte Informationen darin zu verstecken. Aus diesem Grund haben sowohl die USA (im Zweiten Weltkrieg) als auch Großbritannien (im Ersten Weltkrieg) den Auslandsversand von Strickanleitungen verboten. Die durch Abkürzungen bestimmte Form von Strickanleitungen lassen sie für Außenstehende nahezu unverständlich wirken – ganz so wie Programmcode … 

Wie werde ich ein Citizen Scientist? – Der Leitfaden für Einsteiger

Autor*innen: Mandy Tanneberger und Andreas Schlüter

Lesezeit: 6 Minuten


Sie interessieren sich für Citizen Science,
wissen aber nicht wie Sie anfangen können? Keine Angst!
Dieser Leitfaden soll Ihnen den Einstieg erleichtern.

Was ist Citizen Science überhaupt?

Eine einheitliche Definition des Begriffes gibt es nicht, die deutschsprachige Wikipedia liefert einen guten und verständlichen Überblick.

„Mit Citizen Science (auch Bürgerwissenschaft oder Bürgerforschung) werden Methoden und Fachgebiete der Wissenschaft bezeichnet, bei denen Forschungsprojekte unter Mithilfe von oder komplett durch interessierte Laien durchgeführt werden. Sie formulieren Forschungsfragen, recherchieren, melden Beobachtungen, führen Messungen durch, publizieren oder werten Daten aus.“ [1]

Video: Peter Barczewski©, 3D-Artstudio Leipzig und Anett Richter

Wer kann ein Citizen Scientist werden?

Kurz und knapp: Jede*r von uns kann ein Citizen Scientist werden. In der Regel startet alles mit einer Frage, die Sie nicht mehr loslässt oder dem Wunsch selbst wissenschaftlich aktiv zu werden. Dabei ist es vollkommen egal, um welche Thematik es sich handelt. Sie können sich beispielsweise mit dem Schutz der Meere[2], dem Bienensterben[3] oder den Auswirkungen der Corona-Pandemie[4] beschäftigen. Haben Sie sich für eine Thematik entschieden, gilt es einen möglichen Erkenntnisgewinn für die Forschung zu definieren und anschließend mit Ausdauer und persönlichem Engagement seine Ziele zu verfolgen. Sie können in einem bestehenden Projekt mitwirken oder eigene Wissenschaft betreiben. Es kann sich lohnen Mitstreiter für ihr Projekt zu begeistern und anzuwerben. Hierfür spielt es keine Rolle, ob sie bereits über Erfahrung in der wissenschaftlichen Arbeit verfügen oder sich einfach gesellschaftlich engagieren wollen.[5]

Alle Kinder sind geborene Wissenschaftler, bis wir es ihnen austreiben. Nur ein paar wenige sickern mit intakter Neugier und Begeisterung für die Wissenschaft durch das System.

Carl Sagan

Wie kann ich als Citizen Scientist aktiv werden?

1. Schritt – Ein Projekt finden

Die Wege um als Citizen Scientist aktiv zu werden sind vielfältig. International gibt es zahlreiche Forschungsprojekte die nach freiwilligen Mitwirkenden suchen. Eine aktuelle Übersicht der in Deutschland stattfindenden Bürgerwissenschaft finden Sie auf den folgenden Seiten:

Projekte entdecken | Bürger schaffen Wissen (buergerschaffenwissen.de)

citizen_science_germany_projekte (citizen-science-germany.de)

Dort können Sie ein zu ihren Interessen passendes Projekt finden oder nach Inspiration für eigene Ideen suchen.

2. Schritt – Vorbereitung

Haben Sie erstmal ein spannendes Vorhaben gefunden, gilt es nicht vorschnell zu Handeln und in Ruhe zu konzipieren, was für die Umsetzung benötigt wird. Dazu zählt beispielsweise:[6]

  • Erstellung eines Protokolls für die anfallenden Daten
  • Wichtige Fragen des Projekts klären (Zielstellung, Verfahren, Art der Beteiligung)
  • Rechtliche Handhabe im Bezug auf Datenerfassung-/Speicherung
  • die eigene Rolle definieren  

3. Schritt – Starten

Aller Anfang ist schwer, aber es lohnt sich! Denken Sie immer daran: Citizen Science ist keine Raketentechnik! In erster Linie soll es Ihnen Freude bereiten. Seien Sie offen für diese neue Erfahrung. Trauen Sie sich, Fragen zu stellen. Es gibt in jedem Projekt Personen, die Einsteigern helfen können und wollen! Suchen Sie sich einen Mentor oder eine Mentorin, knüpfen Sie Kontakte. Und wer weiß, vielleicht werden Sie auch selbst bald zur gefragten Personen. Teilen Sie Ihr Wissen.

Hier finden Sie hier Antworten und Unterstützung:

Netzwerk und Arbeitsgruppen | Bürger schaffen Wissen (buergerschaffenwissen.de)

Zum Schluss noch ein kleiner Anreiz: Ihre Arbeit kann sogar finanziell honoriert werden. Im Rahmen des Citizen-Science-Wettbewerbes werden in Deutschland besonders gelungene Projekte ausgezeichnet und erhalten ein Preisgeld von 50.000€. Jeder kann sich und sein Projekt bewerben[7] . Also los geht’s!

Wieso brauchen wir Citizen Science?

Citizen Science… das klingt so großstädtisch, so modern. So gar nicht nach der dörflichen Abgeschiedenheit mit ihrem quälend langsamen Internet oder den in Ballungsräumen kaum bekannten Funklöchern.

Brauchen wir wirklich Bürgerwissenschaften? Für die Forschung sind doch Universitäten und diverse Forschungsgesellschaften zuständig? Mehrere Gründe sprechen für die Wichtigkeit von Citizen Science und die Beteilung von Bürgerwissenschaftler:innen.

Zum einen profitiert die Wissenschaft selbst von den Bürgerwissenschaften. Wissenschaftler und Forscher können gar nicht alle benötigten Daten selbst erfassen und auswerten. Denken Sie an die unglaubliche Menge beobachteter und gezählter Vögel beim „bird count“! [8]

Menschengruppe beim Christmas Bird Count im Lee Metcalf National Wildlife Refuge.

Ausserdem entsteht ein gesamtgesellschaftlicher Nutzen. Die Wissenschaft wird ermutigt, den sprichwörtlichen Elfenbeinturm zu verlassen. Die Bevölkerung kann ihrerseits einen Beitrag zur Wissenschaft leisten. Dabei kommt es geradezu zwangsläufig zum Austausch zwischen allen Beteiligten.

Und natürlich haben auch Sie als Bürgerwissenschaftler selbst etwas von der Teilnahme. Sie leisten einen aktiven Beitrag zu wissenschaftlicher Forschung. Sie selbst können Forschungsfragen definieren und wissenschaftliche Ergebnisse auch kritisch hinterfragen.

Wo findet Citizen Science statt?

Aber muss Citizen Science überhaupt zwingend im digitalen Raum stattfinden? Schaut man sich die Liste der Projekte auf der Internetseite „Bürger schaffen Wissen“ an, kann schon der Eindruck entstehen, dass hier ohne Smartphone und internetfähigem PC nur wenig geht.

Aber der Eindruck täuscht. Denn oft müssen nur die finalen Ergebnisse elektronisch per App übermittelt werden. Ein Großteil der eigentlichen Arbeit kann gänzlich analog stattfinden. Oft verlangen Citizen Science Projekte nämlich vor allem eines: Geduld. Das folgende Bild zeigt sehr eindrucksvoll, dass Bürgerwissenschaften auch eine sehr praktische Komponente beinhalten kann. Es werden zum Beispiel Rezepte nachgekocht, die vorher aus einem handgeschriebenen Kochbuch mühsam transkribiert worden sind.[9] Neben einer Transkription finden Sie auf den Internetseiten des Volkskundemuseums Wien auch ein Glossar für die heute nicht mehr gebräuchlichen Begriffe. Und beim Kochen spielen weder Internet noch Smartphone eine Rolle. Hier geht es um praktische Fähigkeiten.

Handschriftlich verfasstes Kochbuch aus dem 18. Jahrhundert, Volkskundemuseum Wien.

Quiz Citizen Science

Sie haben den Artikel gelesen und das Video gesehen? Testen Sie jetzt Ihr Wissen zu den Bürgerwissenschaften.

Sie sind mit dem Ergebnis noch nicht ganz zufrieden? Lesen Sie doch noch einmal den Abschnitt zur Definition von Citizen Science.

Informationen über die Autor*innen

Mandy Tanneberger
Universitätsbibliothek Leipzig (@ubleipzig) / Twitter

E-Mail: tanneberger@ub.uni-leipzig.de

Andreas Schlüter
Herzogin Anna Amalia Bibliothek (@DirektorHAAB) / Twitter

E-Mail: andreas.schlueter@klassik-stiftung.de


Quellenverzeichnis

Fußnoten

1 Wikipedia 2022

2 Vgl. Pham 2018

3 Vgl. Bundesministerium für Bildung und Forschung 2019

4 Vgl. Forschung und Lehre 2020

5 Vgl. Bürger schaffen wissen (o.J.)

6 Vgl. Wissenschaftskommunikation (o.J.)

7 Vgl. Jördens 2022

8 Vgl. Audubon 2022

9 Vgl. Paukner 2019

Literaturverzeichnis

Audubon (2022): Join the Christmas Bird Count. You can add to a century of community science by joining a count near you. Online unter Join the Christmas Bird Count | Audubon [Abruf am 29.12.2022]

Bundesministerium für Bildung und Forschung (2019): Dem Bienensterben auf der Spur. Zuletzt aktualisiert am 12.07.2019. Online unter Dem Bienensterben auf der Spur – BMBF [Abruf am 15.12.2022]

Bürger schaffen wissen (o.J.): Ein Citizen-Science-Projekt starten. Auswahl der Partnerinnen und Partner, Methoden und Beteiligten. Online unter Ein Citizen-Science-Projekt starten: Auswahl der Partnerinnen und Partner, Methoden und Beteiligten | Bürger schaffen Wissen (buergerschaffenwissen.de) [Abruf am 24.12.2022]

Forschung und Lehre (2020): Tausende Bürger teilen Pandemie-Erfahrungen im „Coronarchiv“. Zuletzt aktualisiert am 17.09.2020. Online unter Citizen Science: Tausende Bürger teilen Pandemie-Erfahrungen im „Coronarchiv“ – Forschung & Lehre (forschung-und-lehre.de) [Abruf am 18.12.2022]

Jördens, Linn Merle (2022): Auf die Plätze. Citizen Science in deiner Stadt. Zuletzt aktualisiert am 20. Oktober 2022. Online unter Herzlichen Glückwunsch! Drei ausgezeichnete Projekte gehen an den Start | Auf die Plätze! (citizenscience-wettbewerb.de) [Abruf am 27.12.2022]

Paukner, Sabine (2018): „Kaiser Gerstel, Kapauner Würstel und Schnee Baalen“. Citizen Scientists transkribieren historische Kochrezepte. Online unter Volkskundemuseum – Citizen Scientists-Projekt 2017/18 im Volkskundemuseum Wien [Abruf am 03.01.2023]

Pham, Thuy (2018): Im Namen der Wissenschaft. Sieben Citizien Science-Projekte, bei denen auch du mitmachen kannst. Zuletzt aktualisiert am 24.09.2018. Online unter Im Namen der Wissenschaft: 7 Citizen Science-Projekte, bei denen auch du mitmachen kannst (zeitjung.de) [Abruf am 31.12.2022]

Wikipedia (2022): Citizen Science. Online unter Citizen Science – Wikipedia [Abruf am 29.12.2022]

Wissenschaftskommunikation (o.J.): Citizen Science (Bürger*innen­wissenschaft). Online unter Citizen Science (Bürger*innen­wissenschaft) – Wissenschaftskommunikation.de [Abruf am 01.01.2023]

Bildquellen

Beitragsbild: Testing out their binoculars and looking for birds. Photo Credit: Jennifer Jewett / USFWS;
Lizenz: Namensnennung 2.0 Generic (CC BY 2.0), Änderungen von A. Schlüter

Video: Was ist Bürgerwissenschaft? Youtube-Kanal der Helmholtz Gemeinschaft;
Lizenz: ©Peter Barczewski, 3D-Artstudio Leipzig und Anett Richter

Abbildung 1: Kinder und Citizen Science: Shutterstock / Photodiem;
Lizenz: Lizenzfrei

Abbildung 2: Logo Bürger schaffen wissen: Bürger schaffen Wissen | Wissenschaft im Dialog (wissenschaft-im-dialog.de);
Lizenz: Genehmigt durch Inhaber / Digitale Pressemappe

Abbildung 3: Christmas Bird Count at Lee Metcalf National Wildlife Refuge. Photo Credit: Bob Danley / USFWS/ 21.01.2011;
Lizenz: Namensnennung 2.0 Generic (CC BY 2.0)

Abbildung 4: Handschriftlich verfasstes Kochbuch. Foto: Birgit&Peter Kainz, faksimile digital;
Lizenz: Namensnennung – Nicht-kommerziell – Weitergabe unter gleichen Bedingungen 4.0 International (CC BY-NC-SA 4.0)

Der Mobility Compass: Auf dieses Tool haben wir gewartet!

Mobility Compass FID move

Autorin: Lena-Marie Hoppe


Man plauscht auf dem Flur, beredet in der Teeküche Neuigkeiten aus dem Fachbereich und arbeitet natürlich gemeinsam an Projekten: Der (zum Glück nicht mehr nur virtuelle) Kontakt mit Kolleg:innen aus dem eigenen Institut oder der Fakultät ist eine Selbstverständlichkeit für Forschende. Doch wie wäre es, sich mit nur wenigen Klicks mit mehr als 300 000 Expert:innen aus der eigenen Disziplin vernetzen zu können? Wie wäre es, blitzschnell Spezialist:innen für isländische Verkehrsdaten finden zu können? Oder solche für Straßenschild-Design in Deutschland? (Das wären übrigens 18 Personen.) Wenn es doch nur ein praktisches Tool dafür geben würde …

Auftritt: Der Mobility Compass!

Wir – das sind die Teilnehmenden der Veranstaltung Recherche wissenschaftlicher Informationen – durften bei einer Exkursion zur Technischen Informationsbibliothek (TIB) einen umfangreichen Einblick in den FID move erhaschen. Mathias Begoin, der zur Leitung des FID an der TIB gehört, hat uns dabei auch eben jenes Vernetzungswerkzeug vorgestellt, das die Auffindbarkeit von Forschenden des Verkehrswesens drastisch erhöht. 

Wie funktioniert der Mobility Compass?

Um es gleich vorweg zu nehmen: super unkompliziert – zumindest für uns Nutzende. Der Mobility Compass wurde von der SLUB Dresden (der Sächsischen Landesbibliothek – Staats- und Universitätsbibliothek) im Rahmen des FID move entwickelt. Er beruht auf der Open Source Software VIVO, die Informationen über Forschende und ihre Arbeiten verwaltet und darstellt. Das wiederum  funktioniert über standardisierte Datenformate und verschiedene Ontologien. Das sind, ganz grob gesagt, geordnete Sammlungen von Begriffen eines Themenbereiches und den Beziehungen zwischen ihnen. Mit Hilfe von Ontologien lassen sich also Zusammenhänge und Verknüpfungen darstellen – und das in maschinenlesbarer Form. Doch wie kommen die Daten in den Mobility Compass?

Datengrundlage

Wer forscht und publiziert und sich auch noch um solche lästigen Dinge wie Projektfinanzierung kümmern muss, hat nicht unbedingt Zeit und Lust, jede einzelne Veröffentlichung händisch in zehn verschiedene Datenbanken einzupflegen. Wie gut, dass sich dieser Aufwand drastisch reduziert, wenn die Forschenden eine ORCID iD aufweisen. Mit ihr lassen sich Personen eindeutig identifizieren sowie Arbeiten und Forschungsdaten zuweisen. Ein weiterer großer Vorteil ist, dass die ORCID iD auch mit anderen Systemen verknüpft werden kann. Wäre es nicht fabelhaft, wenn der Mobility Compass einfach auf diese bereits zusammengestellten Informationen in professionell erschlossenen Datenbanken zugreifen könnte?

Natürlich ist das fabelhaft und natürlich tut der Mobility Compass genau das! Neben ORCID gibt es noch elf weitere Datenquellen, aus denen die Daten aktuell bezogen werden. Dazu gehören beispielsweise auch die wissenschaftliche Suchmaschine BASE, die Deutsche Nationalbibliothek aber auch der Verlag Springer Nature. Ein weiterer wichtiger Bestandteil ist der Transportation Research Thesaurus (TRT). Er beinhaltet das standardisierte Normvokabular, auf dessen Grundlage die Inhaltserschließung der Ressourcen erfolgt.

Benutzung des Mobility Compass

„Die frühen 2000er haben angerufen – sie wollen ihr Webseiten-Design zurück.“ Das ist nicht nur der Versuch eines humoristischen Absatzbeginns. Nein, dieser Gedanke kam uns im Seminar Recherche wissenschaftlicher Information öfter, als wir die Benutzeroberflächen so einiger wissenschaftlicher Suchportale sahen. Der Mobility Compass ist mit seinem modernen Design und seiner leichten Bedienbarkeit ein echtes Juwel unter den Webanwendungen.

Screenshot Mobility Compass, FID move: topic graph
Der topic graph zeigt eine Auswahl von Themen und verknüpft solche miteinander, die häufig zusammen erforscht werden. Alternativ kann auch nach Thema, Ort oder Person über die Suchzeile gesucht werden.

Visualisierung wird beim Mobility Compass großgeschrieben! Auf der Startseite werden bereits einige Themen und ihre Verknüpfung untereinander angezeigt. Mit Klick auf das jeweilige Thema wird die Liste relevanter Personen eingeschränkt. Statt nach einem Thema kann die Suche auch geographisch (innerhalb Europas) eingeschränkt werden. Dafür kann die Auswahl über die Karte oder über die Suchzeile erfolgen. Einfach, unkompliziert und schnell: So mögen wir unsere wissenschaftliche Recherche!

Fazit

Der Mobility Compass ist ein geniales Vernetzungstool, dass das Auffinden von Forschenden aus dem Bereich des Verkehrswesens enorm erleichtert. Der uneingeschränkte Zugang, die einfache Bedienung und aufgeräumte Oberfläche sorgen für schnelle Ergebnisse bei der Suche. Wir können nur hoffen, dass sich andere Fachbereiche in dieser Hinsicht eine Scheibe vom FID move abschneiden. 

Quellen

Mobility Compass (2023): About. Online unter https://www.mobility-compass.eu/?view=about [Abruf am 23.01.2023]

Webis (2021): Mobilitäts- und Verkehrsforschung. Online unter https://wikis.sub.uni-hamburg.de/webis/index.php/Mobilit%C3%A4ts-_und_Verkehrsforschung [Abruf am 23.01.2023]

Projektarbeit:  H5P für interaktive Lernressourcen 

Autor:innen:  Katharina Deymann, Alisa Held, Katharina Kroupa, Yannick Pollmann, Friederike Roth, Luise Scheiding, Nathan Scheulen, Madeleine Schütz und Marieke Tödter


In ihrer Projektarbeit haben sich neun Studierende des 6. Semesters im Studiengang Informationsmanagement berufsbegleitend damit befasst, wie bestehende Lernressourcen didaktisch sinnvoll mit H5P angereichert werden können.

Insgesamt wurden der Projektgruppe digitale Lerninhalte aus sechs unterschiedlichen Moodle-Kursen unterschiedlicher Dozent:innen und Fachmodule bereitgestellt.

Diese Lernressourcen wurden im Zuge des Projekts mit H5P interaktiver gestaltet. Durch H5P können Lerninhalte dank interaktiver Elemente so aufbereitet werden, dass den Lernenden eine intensivere Auseinandersetzung mit den Inhalten ermöglicht wird, die zu einem tieferen Erkenntnisgewinn führen soll. Die Open Source Software H5P (HTML5 Package) ermöglicht es, im Browser interaktive Lerninhalte (interaktive Videos, Quizze, etc.) zu erstellen und plattformunabhängig zu teilen und nachzunutzen. Dabei kann es als Plugin z.B. in LMS wie in Moodle oder in Content Management Systemen (CMS) wie WordPress eingebunden werden.

Das Endziel des Projekts ist, die bereitgestellten Studienmaterialien in Anlehnung an die Lernziele nach Bloom’s Digital Taxonomy so aufzubereiten, dass sie als Open Educational Ressources (OER) unter einer CC-BY-3.0-Lizenz veröffentlicht werden können. 

Einzelheiten und Ergebnisse zum Projekt sowie eine sehr hilfreiche Übersicht aller H5P Inhaltstypen samt Zuordnung des Bloomschen Levels, Priorität und dem möglichen Einsatzbereich befindet sich als Anhang im Bericht:

Die mit H5P aufbereiteten Lernressourcen sind im TestWebLab einzusehen.

Buchtipp: Blended learning environments to foster Self-Directed Learning

Blended learning environments to foster Self-Directed Learning

Ein wunderbares und gesundes 2023 allerseits!

Da wir uns hier im WebLab öfter mal mit selbstgesteuertem Lernen befassen, möchte ich heute ein neues Buch zu dem Thema empfehlen:

Blended learning environments to foster Self-Directed Learning

Van der Westhuizen, C., Maphalala, M.C. & Bailey, R. (eds.), 2022, Blended learning environments to foster self-directed learning, NWU Self-Directed Learning Series, Vol. 8, pp. i-306, AOSIS Books, AOSIS Publishing (Pty) Ltd, Cape Town.

Es ist auf Englisch verfasst und über Open-Access frei verfügbar als pdf.

Synopsis

This book on blended learning environments to foster self-directed learning highlights the focus on research conducted in several teaching and learning contexts where blended learning had been implemented and focused on the fostering of self-directed learning. Several authors have contributed to the book, and each chapter provides a unique perspective on blended learning and self-directed learning research. From each chapter, it becomes evident that coherence on the topics mentioned is established. One of the main aspects drawn in this book, and addressed by several authors in the book, is the use of the Community of Inquiry (CoI) framework when implementing teaching and learning strategies in blended learning environments to foster self-directed learning. This notion of focusing on the CoI framework is particularly evident in both theoretical and empirical dissemination presented in this book. What makes this book unique is the fact that researchers and peers in varied fields would benefit from the findings presented by each chapter, albeit theoretical, methodological or empirical in nature – this, in turn, provides opportunities for future research endeavours to further the narrative of how blended learning environments can be used to foster self-directed learning.

Back Cover

In this book, self-directed learning is comprehensively examined as an indispensable 21st-century skill on the path to successful, lifelong learning in the most diverse facets.

Blended learning environments open the way to the future in order to promote and improve self-directed learning in the long term, taking into account metacognition, differences in socio-economic background and digital capability, among other factors. Since COVID-19, blended learning has gone from being optional to mandatory, so that the need for concepts, strategies and solutions for self-directed learning in blended learning environments has increased immensely.

The book is highly recommended as an introduction to the theory and practice of self-directed learning, but also of particular interest to researchers and teachers experienced in this field. It provides a comprehensive insight into contemporary concepts, challenges and practical solutions with precious experiences. The basics of self-directed learning in blended learning environments are explained in detail and, building on this, new trends and developments are discussed and formulated in a plausible way. The results presented are very well transferable to the international context, as educators and institutions worldwide are certainly in need of assistance and such valuable empirical evidence on precisely these points.

The contributions in this book definitely help to adequately underpin the importance of self-directed learning in science and education and to postulate it as a particularly important prerequisite for success in the 21st century. The diverse teaching strategies and practical examples in the book are an inspiration for lecturers and offer scientific orientation for designing one’s own teaching settings, with a focus on self-directed learning. The promotion of self-directed learning through blended learning scenarios becomes a symbiotic, future-oriented premise in the educational context.

Prof. Dr-Ing. Monika Steinberg, Department of Information and Communication, Faculty 3 – Media, Information and Design, University of Applied Sciences and Arts Hannover, Hannover, Germany