„Lass mich Dir helfen!“ – Faktoren zur Steigerung der Akzeptanz von Pflegerobotern bei Senioren

Autorin: Tina Jahnert


Pflegeroboter sollen zukünftig vermehrt in Altenheimen eingesetzt werden. Vielleicht denken Sie auch darüber nach? Erwarten Sie nicht nur Freudenschreie seitens der Senioren[1]. Wahrscheinlich werden Ihnen mindestens so viel Skepsis und Ängste wie Neugierde entgegenschlagen. Die gute Nachricht ist: Sie können ganz viel dafür tun, die Hemmschwelle für Ihre Bewohner zu senken und somit die Akzeptanz von Pflegerobotern bei Senioren erhöhen.

Inhaltsverzeichnis

Grundsätzliches – Fangen wir bei Ihnen an
Gewohnheit & Vertrauen der Senioren
Persönlichkeit des Roboters
Nutzen für Senioren
Fazit
Literaturverzeichnis
Bildverzeichnis

Grundsätzliches – Fangen wir bei Ihnen an

Schauen Sie zunächst auf Ihre eigene Einstellung zum Pflegeroboter. Hoffen Sie insgeheim, im Gerät einen Ersatz für eine menschliche Pflegekraft zu finden? Das sollten Sie ändern. Erstens ist Ihre Hoffnung aus technischer Sicht unhaltbar, denn ein Roboter „spürt“ nichts und folgt strikt seiner Programmierung. Daher ist er geeignet für wiederkehrende, langweilige Aufgaben.

Der Care-O-bot 4 ist ein Beispiel eines Pflegeroboters des Fraunhofer-Instituts.
Das Video wird in doppelter Geschwindigkeit abgespielt.

Er transportiert (sehr langsam – siehe Video!) Dinge von A nach B und kann unterhaltend sein. Jedoch wissen Sie aus eigener Erfahrung, was gute Pflege ausmacht: den Menschen in seiner Ganzheit zu sehen und mit allen Sinnen wahrzunehmen[2]. Das können Menschen. Maschinen scheitern bereits an der intuitiven Aufgabe den schmalen Grat zwischen einspringender und vorausspringender Fürsorge zu erkennen[3] .

Heben Sie zweitens das Gerät sprichwörtlich in den Himmel, können bei den Zupflegenden die unerwünschten Worte „Qualitätsminderung“ und „Kostensenkung“ ankommen[4]. Erzählen Sie vielmehr, dass der Roboter dem Personal freie Zeit schafft, die wiederum den Senioren zu Gute kommt. Und noch wichtiger: Handeln Sie auch so.

Ein weiterer Grundsatz ist, dass Sie aus ethischer Sicht niemanden zum Umgang mit einem Pflegeroboter zwingen dürfen[5]. Auch können Ihre Bewohner eine Patientenverfügung mit dem Themenbereich „Robotik“ haben, wie sie Oliver Bendel vorschlägt[6]. Beachten Sie daher, dass sich die Akzeptanz von Pflegerobotern bei Senioren mit einem freiwilligen Kontakt erhöht.

Gewohnheit & Vertrauen der Senioren

Bei der heutigen Altersheimgeneration handelt es sich um einen Personenkreis, der nicht wie selbstverständlich einen Staubsaugerroboter und ein Sprachassistenzsystem (z.B. Alexa / Siri) sein eigen genannt hat. Entsprechend unsicher ist unter Umständen der Umgang mit diesen Geräten.

Laut einer Studie neigen technikferne Menschen dazu, mit Robotern zu reden wie mit Menschen. Sie nutzen lange verschachtelte Sätze und möglicherweise den lokalen Dialekt[7]. Mit dem Ergebnis, dass der Roboter den Wunsch nicht befolgt. Das kann Ihre Bewohner enttäuschen oder sie resignieren ganz. Andersherum verstehen Senioren die Sprachausgabe des Pflegeassistenten nicht, wenn die Lautstärke zu leise ist oder aber die Bedeutung seiner Worte unklar bleiben[8]. Auch andere körperliche Beeinträchtigungen können die Bedienung verhindern. Achten Sie daher auf die passende Einstellung und üben Sie mit den Senioren den Umgang mit dem Gerät. So stehen die Chancen gut, dass sich bald ein gewisses Vertrauen einstellt[9].

Persönlichkeit des Pflegeroboters

Alle Übungen im Umgang sind jedoch zwecklos, wenn das Verhalten und die „Persönlichkeit“ des Pflegeroboters unpassend zum Einsatzgebiet ist[10]. Ein aggressiv-wirkendes Assistenzsystem wird kaum Sympathien erwecken können. Denn obwohl das Handeln des Roboters auf seine Programmierung zurückzuführen ist, werden die Senioren der Maschine menschliche Attribute wie Fleiß, Neugierde, Abenteuerlust oder eben Aggressivität ect. zuschreiben. Sie werden dem Roboter eine Persönlichkeit zuschreiben wie bei einem Menschen. Wissenschaftler nennen diese Gleichbehandlung von künstlichen und natürlichen Gegenüber „Media Equation“[11]. Dabei muss der technische Interaktionspartner nicht einmal eine menschenähnliche Gestalt haben. Auch „fleißige“ Staubsaugerroboter, genießen den Status einer Persönlichkeit, leben als Familienmitglied und haben einen Namen. Ebenso schimpfen wir mit dem „dummen“ Drucker. Vielleicht möchten Sie zusammen mit den Bewohnern einen Namen für den Pflegeroboter aussuchen?

Eine weitere wichtige Erkenntnis ist das „Uncanny Valley“ . Dabei handelt es sich um ein Phänomen, das erstmals von Masahiro Mori beschrieben wurde. Werden Roboter zu menschenähnlich gruseln sie uns. Wir erkennen, dass etwas im Gegenüber fehlerhaft ist und lehnen es ab[12]. Sind sie hingegen mit großen Kulleraugen auf „niedlich“ und mit ihren Körpern auf „ungefährlich“ getrimmt, dulden Menschen sie eher in ihrer Nähe. Das Design macht also für die Akzeptanz von Pflegerobotern bei Senioren einen großen Unterschied.

„Ein zentraler Punkt ist die Frage des Gefühls beim Menschen – ob er das Gegenüber als Roboter wahrnimmt und sich in seinen Bedürfnissen wahrgenommen fühlt. Verniedlichung ist zum Beispiel ein Weg dorthin zu kommen.“[13]

(Professor Dr. Jan Ehlers, 2020)

Schauen Sie sich an, welche weiteren Faktoren einen Roboter sympathisch oder unsympathisch werden lassen:

Nutzen für Senioren

Für die Akzeptanz von Pflegerobotern bei Senioren spielt die empfundene Nützlichkeit eine Rolle[18]. Das wäre beispielsweise bei intimen Situationen der Fall, bei denen auf die Anwesenheit eines Menschen verzichtet werden könnte (z.B. Waschen, Toilettengang, etc.) [19] [20]. Der Pflegeroboter ist in der Lage in diesen Situationen zeitunabhängiger, vertrauensvoller und gelassener zu wirken als eine menschliche Pflegekraft. Beachten Sie dabei die Individualität Ihrer Schützlinge. So hat eine Umfrage ergeben, dass Patienten im Krankenhaus Pflegeroboter bei bestimmten Aufgaben annehmen (z.B. Getränke servieren), jedoch bei ähnlichen Tätigkeiten (z.B. Medikamente bringen) ablehnen[21].

Die Ablehnung eines Pflegeroboters kann ebenso von der persönlichen Einstellung herkommen: „So ein Hilfsmittel brauche ich nicht, so alt bin ich noch nicht“[22]. Der Roboter steht in diesem Fall symbolisch als Zeichen für eine Schwäche, ähnlich wie ein Rollator. Im Gegensatz zum Rollator kann er jedoch körperlich unabhängigen Menschen durch seine Unterhaltungsfunktionen dienen oder durch das Sportprogramm Verletzungen vorbeugen. Allerdings ist das Erlernen der neuen Technologie für ältere Menschen anstrengend, nicht zuletzt weil kognitive Fähigkeiten nachlassen[23]. Ihre Senioren werden genau abwägen, ob sich der Aufwand lohnt. Verdeutlichen Sie daher bei der Einführung jedem Ihrer Schützlinge worin für ihn der Vorteil in der Roboternutzung besteht.

Fazit

Insgesamt tragen viele verschiedene Ansätze dazu bei die Akzeptanz von Pflegerobotern bei Senioren in Ihrem Altenheim maßgeblich zu steigern. Dafür müssen die Funktionen und die Einsatzmöglichkeit für die nutzenden Personen ersichtlich sein. Kostensenkung und Personalersatz sollten für Sie nicht im Vordergrund stehen, sondern die Entlastung des Personals. Freigewordene Zeit lassen Sie am besten den Heimbewohnern zu Gute kommen. Verbale und nonverbale Körpermerkmale des Pflegeroboters sind entscheidend für die Sympathie und sollten bei der Wahl, sowie bei der Programmeinstellung beachtet werden. Grundsätzlich sollten Sie niemanden zum Umgang mit dem Pflegeroboter zwingen. Viel Erfolg.

Literaturverzeichnis
1vgl. SRG SSR (2018): Halten Sie den Einsatz von Betreuungs-Robotern in Altersheimen und Spitälern für gut?. In: Statista Online unter: Schweiz – Einsatz von Betreuungs-Robotern in Altersheimen und Spitälern 2018 | Statista [Letzter Abruf am 30.11.2022]
2vgl. Maio, Giovanni (2018): Mittelpunkt, Mensch, Lehrbuch der Ethik in der Medizin. Mit einer Einführung in die Ethik der Pflege. 2., überarbeitete und erweiterte Auflage. Stuttgart: Schattauer, S. 280 u. 282
3vgl. Schiff, Andrea; Dallmann, Hans-Ulich: Ethische Prinzipien in der Pflege. In: Ethik in der Pflege. München : Ernst Reinhardt Verlag (Pflege studieren),S. 48-49
4vgl. Afflerbach, Thomas (2021): Serviceroboter : Digitalisierung von Dienstleistungen aus Kunden-, Mitarbeiter-, und Managementperspektiven. Wiesbaden: Springer Gabler. (essentials), S. 32
5vgl. Misselhorn Catrin (2019): Grundfragen der Maschinenethik. 4., aktualisierte Auflage. Stuttgart: Reclam (Reclams-Universalbibliothek, Bd. 19583), S. 155
6vgl. Bendel, Oliver (2017): Ergänzende Patientenverfügung zum Einsatz von Robotern. Online unter: https://www.informationsethik.net/wp-content/uploads/2017/03/PV_Robots_V_1_0.pdf [Letzter Abruf am 22.12.2022]
7vgl. Früh, Michael; Gassner, Alina (2018): Erfahrungen aus dem Einsatz von Pflegerobotern im Alter. In: Bendel, Oliver (Hg.): Pflegeroboter. Wiesbaden: Springer Gabler, S. 54
8vgl. ebenda, S. 55
9vgl. Bleuler Tanja; Caroni, Pietro (2021): Roboter in der Pflege . Welche Aufgaben können Roboter heute schon übernehmen? In: Serviceroboter. Wiesbaden: Springer Gabler, S. 449
10vgl. Remmers, Peter (2021): Humanoide, animaloide und dingliche Roboter. Begriffliche, ethische und philosophische Aspekte. Bendel, Oliver (Hg.): Pflegeroboter. Wiesbaden: Springer Gabler, S. 220
11vgl. Watson, Richard (2014): Uncanny Valley — Das Phänomen des „unheimlichen Tals“. In: 50 Schlüsselideen der Zukunft. Springer Spektrum, Berlin, Heidelberg. Online unter https://doi.org/10.1007/978-3-642-40744-4_35 [Letzter Abruf am 28.11.2022]
12vgl. Mori, Masahiro; MacDorman, Karl F.; Kageki, Norri (2012): The uncanny valley [from the field]. In: IEEE Robotics & Automation Magazine. Jg.19, H.2. Onliner unter: . DOI: 10.1109/MRA.2012.2192811 [Letzter Abruf am 31.11.2021], S. 100
13Sieger, Heiner (2020): Soziale Roboter: „Der fühlt ja nichts!. Zuletzt aktualisiert am 21.12.2020. Online unter: https://digitales-gesundheitswesen.de/soziale-roboter/
14 vgl. Paetzel-Prüsmann, Maike (2021): Komm schon, gib dir doch etwas mehr Mühe. Wie wir die Persönlichkeit von Robotern wahrnehmen und verändern können. Bendel, Oliver (Hg.): Pflegeroboter. Wiesbaden: Springer Gabler, S. 368
15vgl. ebenda, S.373
16vgl. ebenda, S. 370
17vgl. Bleuler Tanja; Caroni, Pietro (2021): Roboter in der Pflege . Welche Aufgaben können Roboter heute schon übernehmen? In: Serviceroboter. Wiesbaden: Springer Gabler, S. 454
18vgl. Chatzopoulos, Annika et al (2018): Roboter Akzeptanz in der Pflege : Untersuchung der Akzeptanz bei der Pflege durch Roboter mit dem Fokus auf körperliche Interkation. In: Valdez, André Calero (Hg.): Akzeptanz autonomer Robotik : Einsatz in Industrie, Büro und Pflege. 1. Auflage. Aachen : Apprimus Verlag (studentische Reihe; Stu 1), S. 26
19vgl. Deutscher Ethikrat (Hg.) (2020): Robotik für gute Pflege. Stellungnahme. Berlin: Deutscher Ethikrat. https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/stellungnahme-robotik-fuer-gute-pflege.pdf [Letzter Abruf am 22.3.2022] [E-Book], S. 39-40
20vgl. Gisinger, Christoph (2018): Pflegeroboter aus Sicht der Geriatrie. Bendel, Oliver (Hg.): Pflegeroboter. Wiesbaden: Springer Gabler, S. 113-114
21vgl. Honekamp, Ivonne et al (2019): Akzeptanz von Pflegerobotern im Krankenhaus : eine quantitative Studie. In: Ta TU-uP: Zeitschrift für Technikfolgenabschätzung in Theorie und Praxis. Jg.28, H.2. Online unter: https://www.tatup.de/index.php/tatup/issue/view/9/10 [Letzter Abruf am 28.11.2022], S. 62
22vgl. Früh, Michael; Gassner, Alina (2018): Erfahrungen aus dem Einsatz von Pflegerobotern im Alter. In: Bendel, Oliver (Hg.): Pflegeroboter. Wiesbaden: Springer Gabler, S. 53
23vgl. Seifert, Alexander; Ackermann, Tobias (2020): Digitalisierung und Technikeinsatz in Institutionen für Menschen im Alter. Studie im Auftrag von CURAVIVA Schweiz. Zürich: Zentrum für Gerontologie. Online unter: https://www.zora.uzh.ch/id/eprint/185291/1/Sonderauswertung_Alter_20200131_5.pdf [Letzter Abruf 7.12.2022]

Bild- und Videoverzeichnis
Witzia (2014): Hand. Online unter Pixabay
TheDigitalArtist (2020): Roboterarm. Online unter Pixabay
Axel Knight (2019): Pepper. Online unter Pexel
FrauenhoferIPA(2021): Care-O-bot 4 unterstützt Pflegepersonal im Seniorenzentrum beim Austausch von Getränkeflaschen. Online unter: Care-O-bot 4 unterstützt Pflegepersonal im Seniorenzentrum beim Austausch von Getränkeflaschen – YouTube

Big Data und Datenschutz – Wunschdenken oder bereits Realität?

Autor: Philippe Paszkier


Wir alle kennen es, man spricht mit einem Freund oder Partner über irgendein Produkt o.ä. ohne dabei überhaupt das Handy entsperrt zu haben und dann möchte man etwas googeln und die Werbung handelt von dem eben besprochenen Thema. Ich meine klar, hat so seine Vorteile da weiter machen zu können, wo die Unterhaltung aufgehört hat. Aber ist das nicht eigentlich ein bisschen unheimlich, dass dir dein Smartphone immer zuhört und alles mitbekommt, was man in dessen Umgebung sagt? Passieren tut das durch Big Data.

Was ist denn eigentlich Big Data?

Der Begriff Big Data beschreibt eine große Masse an personenbezogenen Daten, die Unternehmen wegen ihrer Schnelllebigkeit und Komplexität zu Analysezwecken nutzen. Unter den Begriff fallen unter anderem Daten in Form von Zahlen, Texten, Standortverläufen, Videos, Zahlungsunterlagen, Bilder oder auch das gesprochene Wort.

3V-Modell

Der Branchenanalytiker Douglas Laney beschrieb Big Data mit dem 3V-Modell. Das erste V steht für Velocity, also die Geschwindigkeit, mit der neuen Daten ankommen und man diese verarbeiten muss. Dann gibt es noch das Volume, also die gesamte Masse an Daten aus den unterschiedlichsten Quellen. Als drittes V gibt es Variety, welches die Vielfalt der Formen der gesammelten Daten beschreibt. Aber im Laufe der Zeit kamen weitere Vs dazu. So auch das V für Variability, also der Schwankung des Datenflusses und Form der Daten. Des Weiteren gibt es noch Veracity, was die Richtigkeit der Daten beschreibt und diese einordnet und sortiert. Je nachdem wo man schaut, gibt es noch die Kategorie Value. Diese beschreibt den Geschäftswert der Daten.

Speicherung

Anfang der 2000er fand der Begriff Big Data das erste Mal Einzug in die Köpfe der Menschen. Da fing nämlich die Speicherung und Interpretation von Daten aus dem Internet an. Damals ging es noch eher um das Klickverhalten auf der eigenen Webseite oder die IP-Adresse des Kunden. Von damals zu heute hat sich aber einiges getan, die Form der Daten hat sich geändert und natürlich auch die Datenmenge. Allein im Jahr 2012 wurden weltweit 6,5 Zettabyte an Daten gesammelt. Was ist ein Zettabyte, fragt ihr euch jetzt? Ein Zettabyte steht für EINE MILLIARDE TERRABYTE. Im Jahr 2020 waren es dann auch schon 64,2 Zettabyte. Das bedeutet, dass jeder Mensch, der irgendwie mit dem Internet verbunden ist, durchschnittlich tagtäglich ca. 150 Gigabyte an persönlichen Daten übermittelt. Um sich das mal auf der Zunge zergehen zu lassen, der Film Titanic aus dem Jahr 1997, der wohlgemerkt über drei Stunden läuft, verbraucht in HD einen Speicherplatz von 8,5 Gigabyte.

Screenshot der Statista-Statistik zu Speicherplatz von Big Data

Zweck

Diese unfassbar riesige Menge an Daten wird für Unternehmen interessant, da diese dadurch Zeit in der Entwicklung neuer Produkte und Dienstleistungen einsparen. So analysiert man Trends um zu prüfen, wo es noch Marktlücken gibt. Ein offensichtlicher Vorteil der Big Data Analyse ist auch die personalisierte Werbung. Der Algorithmus weiß, wie man einen am besten anspricht und wofür man sich interessiert, vielleicht sogar besser als man selbst. Des Weiteren können klügere geschäftliche Entscheidungen getroffen werden, da man durch die Echtzeitanalyse, Veränderungen und Unsicherheiten bewerten und dementsprechend handeln kann. Zudem kann die Produktion effizienter gestaltet werden, da der Kunde einem sagt, was man braucht, wenn auch unfreiwillig. Das Gesprochene und geschriebene Wort, so wie Chats oder Sprachnachrichten, wird zum Füttern von Deep Learning KIs genutzt, um die maschinelle Art des Schreibens und Sprechens zu optimieren und menschlicher/natürlicher machen zu können.

Weitere Orte an denen Daten über einen gesammelt werden sind Autos die mit dem Handy und mit dem Internet verbunden sind. Außerdem auch Bankdaten, Smart-Home Gadgets und ihre Assistenten wie bpsw. Alexa oder halt klassische Überwachungsmaßnahmen.

Aufschrei Big Data

Facebook Skandal

Erinnert ihr euch noch ans Jahr 2018? Bevor die Pandemie über uns hereinbrach, brach etwas anderes zusammen. Die Reputation von Facebook. Damals kam nämlich raus, dass Facebook (Meta) Daten von mindestens 87 Millionen Nutzern durch Camebridge Analytica (C.A.) auswerten ließ, um so illegal Werbung für den Trump-Wahlkampf zu machen. Die Muttergesellschaft von C.A., die SCL-Group hat es sich zum Geschäftsmodell gemacht, politische Wahlen und Stimmungen durch Big Data Auswertung zu beeinflussen.

Auswertung

Big Data ist aber nicht nur für Meta ein Geschäftsmodell. Google und TikTok machen nichts anders. Es wird alles gespeichert, von der Sucheingabe (was suchst du, wie suchst du es, was schreibst du, welche Wörter nutzt du) bis zurzeit, die du brauchst um dich für ein Ergebnis zu entscheiden. Was klickst du auf der Seite an? Wie lange bist du auf der Seite unterwegs? Wo geht es nach dem Besuch der Webseite hin? Wie schnellt scrollst du weiter? Welche Webseiten besuchen deine Freunde und Familie? All das wissen die Unternehmen wie C.A. schon bevor du selbst irgendwas gemacht hast. Jeder Schritt wird verfolgt, jede neue Suche, jede Meinungsänderung wird wahrgenommen. Man wird komplett durchleuchtet.

Social-Credit-Score

Kleiner Funfact am Rande, wusstest du, dass Big Data der Grundbaustein für den Social-Credit-Score in China ist? So wird genau erkannt, wo du wie viel reininvestiert, was du mit deinem Alipay Account bezahlt und ob du dein Leihfahrrad auch wieder am richtigen Ort abgestellt hast. Das in Verbindung mit ausgereifter Gesichtserkennungssoftware an öffentlichen Plätzen und du bist durchsichtig. Dadurch, dass heutzutage alles miteinander verbunden ist und alles einfacher werden soll, wird auch vieles noch komplizierter. So auch das Profil was Meta über Nicht-Nutzer anlegen kann, welches auf Daten basiert, die von Bekannten irgendwie irgendwo gespeichert worden sind und die Organisation Zugriff drauf hat.

kurzer Einblick in das System Social-Credit-Score

Wert

Es gibt noch ewig viele Beispiele, was mit Big Data überall auf der Welt gemacht wird und wie man mehr und mehr die Entscheidungsgewalt über sich selbst abgibt. Aber eine Frage ist noch interessant, auf die ich noch nicht eingegangen bin. Wie viel sind diese Daten eigentlich Wert? Auch wenn man Big Data als das Erdöl der digitalen Wirtschaft bezeichnet, kann ich hier leider keine sichere Zahl nennen. Aber ich möchte nur so viel sagen, dass die E-Scooter, die man überall in der Stadt sieht, mit einer durchschnittlichen Lebensdauer von wenigen Monaten, so viele Daten über uns sammeln, dass die Unternehmen locker an die Börse gehen können. Und das nur durch den Verkauf der gesammelten Daten.

Emissionen

Ach so, ganz vergessen. Diese Zettabyte an Daten, die anfallen, müssen irgendwo gespeichert werden. Und wo macht man das? Genau. In riesigen Rechenzentren, die weltweit im Jahr 2020 zwischen 100 und 500 Millionen Tonnen CO2 ausgestoßen haben. Und das Problem hierbei ist, dass es nur noch mehr wird. Es werden mehr Menschen -> mehr Menschen, die einen Internetzugang haben -> mehr Daten -> mehr Server -> mehr Rechenzentren -> mehr CO2. Aus einer ARTE Dokumentation habe ich entnommen, dass im Jahr 2025 geschätzt wird, dass 25 % des gesamten Energieverbrauches nur auf Rechenzentren zurückzuführen sind.

Rechenzentrum von Meta in Odense

Die Datenschutzgrundverordnung (DSGVO)

Doch wie sieht das Ganze in der Europäischen Union aus? Was für Vorgaben gibt es hier?

In der EU wurde im Jahr 2016 die DSGVO eingeführt. Die erste Datenschutzbestimmung kam aus dem Jahr 1995, als das Internet noch lange nicht den Umfang angenommen hat wie heute. Die DSGVO soll somit alle datenschutzrechtlichen Themen und Rechte aus den unterschiedlichen Mitgliedsstaaten für die gesamte EU festhalten. Der Grund für die Einführung der neuen Verordnung ist, dass Unternehmen einen festen Fahrplan brauchen, wie sie mit den personalisierten Daten umzugehen haben, um nicht das Persönlichkeitsrecht der Nutzer und Besucher zu verletzen. Folgende Grundlagen werden deshalb in der DSGVO festgehalten:

  1. Rechtmäßigkeit (Ob die Daten verarbeitet werden dürfen/ wenn ja wie)
  2. Transparenz (welche Daten werden verarbeitet)
  3. Zweckbindung (nur für bestimmten Zweck)
  4. Speicherbegrenzung (Daten müssen gelöscht werden, wenn irrelevant oder gewollt)
  5. Richtigkeit (keine falschen Daten verwenden)
  6. Datenminimierung (Menge für Zweck angemessen)
  7. Integrität und Vertraulichkeit (Schutz vor unfreiwilliger Weitergabe)
  8. Rechenschaftspflicht (Dokumentation des Verarbeitungsprozesses)
Neue Datenschutzregeln

direkter Widerspruch

Das Problem hierbei ist jedoch, dass Big Data ein Sammelbegriff für solche Daten ist. Somit ist festzuhalten, dass Big Data an sich gar nicht den Prinzip der Datenminimierung einhalten kann. Big Data sammelt nicht nach einem Zweck, sondern die Daten an sich bestimmen zu welchem Zweck sie dienen. Vergleichbar ist das mit der Vorratsdatenspeicherung, die hierzulande für Aufsehen gesorgt hatte, da diese ab 2015 gegen das EU-Recht verstoßen hat. Big Data ist das, nur in noch größer… Die einzige Ausnahme sind Kinder, denn ihre Daten dürfen nicht analysiert werden. Da frage ich mich nur, woher wissen die denn, ob es sich um ein Kind handelt?

Witzige finde ich persönlich ja auch, dass in der DSGVO der Begriff Big Data unter dem Punkt Profiling fällt. Allein dieses Wort beschreibt die Existenzgrundlage der Big Data. Man versucht damit ein Bild oder Profil des Nutzers zu schaffen, mit all seinen guten und schlechten Seiten, Kreditwürdigkeit, Essgewohnheiten und alles was zum Leben dazugehört. Sozusagen ein Freundebuch, nur dass wir keine Freunde sind, sondern ein Stalkingopfer, ohne uns darüber bewusst zu sein.

Positive Entwicklung

Aber es muss trotzdem festgehalten werden, dass die restlichen Maßnahmen einen ernsthaften Unterschied im Umgang mit unseren Daten ausmachen. So wird beispielsweise die Dokumentation des Verarbeitungsprozesses eine besonders wichtige Aufgabe, denn dadurch kann nachvollzogen werden, was ausgewertet worden ist und ob das Unternehmen die Analyse solcher Daten valide begründen kann. Außerdem muss eine Risikoanalyse der Datenverarbeitung entwickelt werden und aufgefallene Risiken an die dafür zuständige Aufsichtsbehörde weitergeleitet werden. Einen weiteren positiven Faktor bringt die DSGVO noch mit sich. Dadurch, dass die Datenschutzproblematik mitten in der Öffentlichkeit steht, werden die unterschiedlichen Umgänge mit personenbezogenen Daten ein durchaus wichtiger Wettbewerbsfaktor für viele Unternehmen. Aber nur für die Unternehmen innerhalb der EU. Im EU-Ausland sieht das ganze anders aus.

Eine Expertenmeinung

Die Expertin ist Prof. Yvonne Hofstetter. Sie ist Autorin, Juristin und Essayistin, welche in Softwareunternehmen tätig ist und sich um die „Positionierung von Multi-Agentensystemen bei der Rüstungsindustrie und für den algorithmischen Börsenhandel“ kümmert, schilderte in einem Vortrag vom YouTube-Kanal BildungsTV aus dem Jahr 2014, wie das Geschäft mit Big Data funktioniert. So beschreibt sie unter anderem, dass der Finanzmarkt durch die Auswertung jeglicher verfügbaren Informationen, dem Militärsektor sehr ähnelt. So funktioniert der teilweise illegale Hochfrequenzhandel, bei dem Händler und Banken zusammenarbeiten, um dem Investor die Aktien möglichst teuer, weiterzuverkaufen. Auch Aktienpreise werden durch Algorithmen, die durch Unmengen an Finanzdaten gefüttert werden, gedrückt bzw. manipuliert. Außerdem zeigt sie das Ziel der Big Data Analyse im Wirtschaftssektor auf, welches ist, den Menschen zu manipulieren.

Das Beispiel

Der Wirtschaftlicher Erfolg ist nicht der einzige Zweck der durch Verarbeitung großer Datenmengen verfolgt wird. So habe sie einst an einem Projekt dem LKA Bayern mitgeholfen, bei dem man überprüfen wollte, ob sich der Drogenhandel von der einen Stadt in die andere verlegt hat. Dafür wurde ausgewertet, welche Delikte begangen worden sind, wer mit wem im Gefängnis saß, wer mit wem verwandt ist oder wer mit wem schonmal etwas zu tun hatte. Durch diese Analyse wurde dann klar, dass sich sowohl die Gruppierung, verantwortlich für den Drogenhandel geändert hatte, als auch Informationen über den Hintermann. Problematisch ist es nur dann geworden, als die Vorstrafen des Mannes gelöscht worden sind, jedoch das Wissen der Hintermann-Tätigkeit noch immer bestand. Das LKA entschied sich dann für den Datenschutz und das Löschen dieser Informationen, nachdem das Löschdatum von einem Rohdatensatz überschritten worden war.

Das Problem

Frau Professor Yvonne Hofstetter sieht das große Problem darin, dass die Technik, die zur Überwachung von Personen einst nur dem Militär zur Verfügung stand, jetzt auch im Privatsektor zu finden ist. Aber der Zweck ist kein anderer. So sagt sie unter anderem: „Wir, wir sind die Ursache für riesige Milliardengewinne bei Google oder Facebook, aber wir kriegen nichts dafür. Wir werden wie ich gerade gesagt habe, ausgebeutet.“

Forderungen

So fordert sie zu einem das Recht auf Gegenleistung für die eigenen Daten. Zudem ein Recht der Kontrolle und die damit verbundene Löschung der Daten. Zuletzt das Recht auf negative Freiheit, was so viel heißt wie, dass man keinen Nachteil durch die Nicht-Nutzung von digitalen Technologien erleidet. Diese Punkte wurden zum Teil in der DSGVO von 2018 umgesetzt und zu EU-Recht gemacht. So beispielsweise das Fenster, in dem man seine Cookies bestimmen kann.

Fazit

Nun denn, was halten wir nun von Big Data? Big Data hat sowohl Vorteile als auch massive Nachteile. Die Analyse der Daten hat zur Folge, dass zukünftige Ereignisse vorhergesagt werden oder bessere Entscheidungen getroffen werden können. Prozesse und Lieferketten können optimiert werden. Werbung wird immer besser die Zielgruppe ansprechen und Dinge über die man gerade gesprochen hat, schon als Werbung angezeigt bekommen. Irgendwie entsteht das digitale Abbild eines Selbst. Nur kommt man hier wieder zu dem unausweichlichen Kritikpunkt, dass der Mensch zum Produkt gemacht wird und eigentlich nichts von der Analyse der eigenen Daten hat. Der Mensch wird manipuliert und unterbewusst zu Entscheidungen gezwungen. Klar sollte sein, dass das eine kritische Entwicklung des Kapitalismus ist. Nur nicht von staatlicher Seite, sondern von Milliardenunternehmen, die nichts mehr interessiert, als uns zu Geld zu machen. Daher, passt, auf was ihr macht. Alleine seid ihr nie.

Die Datenschutzgrundverordnung, versucht hier die Sicherheit für die Nutzer zu wahren, bzw. wiederzuerlangen. Problematisch hierbei ist jedoch, dass nur 20 % der bei einer Bitkom-Umfrage befragten Unternehmen die DSGVO komplett umsetzt. 60 % der Unternehmen sagen, dass man in Deutschland mit dem Datenschutz übertreibe. Gut 80 % der Unternehmen haben fünf Jahre nach DSGVO Verabschiedung noch immer Probleme die Vorgaben durchzusetzen. Aber zumindest haben 60 % der Befragten angeben können, zumindest den Großteil der DSGVO umsetzten zu können. Ein Schritt in die richtige Richtung. Aber fertig sind wir noch lange nicht.

Quellen

Künstliche Intelligenz in Filmen

Autor*innen: Angelique Pál und Dennis Schmidt


Wie wird die zukünftige Welt aussehen? Das ist eine Frage mit der die Menschheit sich oft auseinandersetzt und die auch in Filmen immer wieder aufgegriffen wird. Häufig spielt dabei Künstliche Intelligenz in Filmen eine Rolle. In vielen Fällen werden Maschinen dargestellt, welche mit Künstlicher Intelligenz oder kurz KI ausgestattet, ihre Schöpfer irgendwann unterwerfen. Aus Science Fiction Filmen sind Roboter dieser Art längst nicht mehr wegzudenken, doch die technischen Voraussetzungen dafür existieren in der realen Welt (noch) nicht.

Inhaltsverzeichnis

 

Künstliche Intelligenz in der Wissenschaft

Im Jahr 1956 wurde der Begriff „Artificial Intelligence“ also Künstliche Intelligenz von einer kleinen Gruppe Wissenschaftlern, die sich am Dartmouth College in den USA trafen, eingeführt. Dieser Workshop, der auch als „Dartmouth Conference“ bezeichnet wird, gilt als die Geburtsstunde der KI (vgl. Siekmann 1994, S. 20). Doch schon fünf Jahre vorher hat Alan Turing einen Test entwickelt, nachdem beurteilt werden kann, ob ein Computersystem „intelligent“ ist oder nicht. Bei diesem Test, den Turing „The Imitation Game“ nannte, wird mit Hilfe natürlicher Sprache getestet, ob ein Computersystem so kommunizieren kann, dass es von einem Menschen nicht mehr zu unterscheiden ist (vgl. Manhart 2022).

Alan Turing (ca. 1938)

Die Geschichte der Künstlichen Intelligenz in Medien

Auch schon bevor es die uns heute bekannte Künstliche Intelligenz gab, wurde sich in früheren Medien mit dem Thema der lebendigen Maschine auseinandergesetzt. So wurde der Begriff der Maschine im deutschsprachigen Raum schon etwa seit dem 17. Jahrhundert verwendet und findet sich so auch im Deutschen Wörterbuch der Brüder Grimm aus dieser Zeit. Hier wurde die Maschine noch als etwas Lebloses, synthetisches mit einem Artefakten-Charakter beschrieben (vgl. Brössel 2021, S. 28). Außerdem befindet sich eine frühe Darstellung von künstlicher Intelligenz auch in dem Werk „Die Automaten“ von E.T.A Hoffmann aus dem Jahr 1814 , in dem eine mechanische Puppe beginnt Fragen von Menschen zu beantworten (vgl. Brössel 2021, S. 27).

Der Beginn von Künstlicher Intelligenz in Filmen

Mit der Erfindung von Filmen verlagerte sich das Thema der lebendigen Maschine auch immer mehr ins Kino und Fernsehen. Eine frühe Darstellung von Künstlicher Intelligenz in Filmen ist z. B. die Verfilmung des Science-Fiction-Romans Metropolis. Der gleichnamige Stummfilm erschien im Jahre 1927 und zeigt eine düstere Zukunft, in der Menschen von Androiden unterdrückt werden. Für den damaligen Stand der Filmtechnik war der Film visuell sehr eindrucksvoll und zeigte unter anderen Aufnahmen von riesigen Häuserschluchten, großen Maschinen und fortschrittlichen Verkehrsmitteln. Auch beeinflusste Metropolis spätere Filme wie Blade Runner oder Matrix stark (vgl. Schreiner 2022).

Trailer zu Metropolis (1927)

Terminator und Ex Machina

Eine Filmreihe, die sich mit einer düsteren Zukunft für die Menschheit auseinandergesetzt, ist Terminator. Der große Erfolg der Terminator Filme prägt bis heute unser Bild von künstlicher Intelligenz und Robotern. Bei der in den Terminator Filmen dargestellten KI handelt es sich stets um eine bösartige Super-KI und Killer-Roboter, die als einziges Ziel die Auslöschung der Menschheit haben (vgl. Schreiner 2022). Mit aktuell 6 Filmen, welche in den Jahren 1984 bis 2019 entstanden sind, gehört die Terminator Filmreihe zu einer der bekanntesten, welche sich mit den negativen Seiten und Folgen von Künstlicher Intelligenz auseinandersetzt. Auch der Film Ex Machina aus dem Jahr 2015 behandelt das Thema der künstlichen Intelligenz und setzt sich unter anderem mit der Frage auseinander, was Bewusstsein ist und ob eine Maschine ein Bewusstsein haben kann (vgl. Schreiner 2022).
Eine Besonderheit von Ex Machina ist hierbei, dass die Künstliche Intelligenz in diesen Film nicht primär als Böse dargestellt wird, wie es z.B. in Terminator und vielen anderen Filmen der Fall ist. Sondern das in diesem Werk der Zuschauer dazu ermutigt wird, über das menschliche Wesen, menschliche Züge und die Frage, was einen Menschen von einer Künstlichen Intelligenz unterscheidet, nachzudenken (vgl. Mehnert 2016).

Filme über Künstliche Intelligenz (KI)

  • Blade Runner (1982)
  • Tron (1982)
  • Terminator (1984)
  • Matrix (1999)
  • I,Robot (2004)
  • Transcendence (2014)
  • Ex Machina (2014)
  • Avengers: Age of Ultron (2015)
  • Blade Runner 2049 (2017)
  • I am mother (2019)
  • Free Guy (2021)
  • Ich bin dein Mensch (2021)

 

Weltherrschaft der Maschinen?

Künstliche Intelligenz in Filmen begegnet uns häufig, aber in den seltensten Fällen wird die Handlung des Films durch sie positiv beeinflusst. Entweder sind sie nur „kindliche Maschinen“ als Nebendarsteller, wie z.B. C-3PO oder aber die Künstliche Intelligenz unterjocht die Menschheit und strebt die Weltherrschaft an, wie die Superintelligenz in „I, Robot“. Doch trotz all der Forschung auf dem Gebiet der KI sind solche, in ihrem Handeln flexible Maschinen, nach heutigem Stand, nicht realistisch (vgl. Lenzen 2020, S.119).

KIs werden in hochspezialisierten Gebieten eingesetzt, in denen sie die Leistung, die ein Mensch erbringen könnte, teilweise heute schon übertreffen. Diese Art Künstliche Intelligenz nennt man schwache KI, da sie nur für eine bestimmte Aufgabe erschaffen wurde. Sobald man dieser KI komplexere Aufgaben stellt, würde sie scheitern. Im Gegensatz zu dieser schwachen KI gibt es noch die starke KI, die ähnlich wie ein Mensch, flexibel auf unterschiedliche Situationen reagieren kann (vgl. zu diesem Abschnitt Volland 2018, S.14).

Doch starke Künstliche Intelligenz existiert bis heute (noch) nicht. Es gibt die unterschiedlichsten Aussagen von Wissenschaftlern, ob und wann diese starke Künstliche Intelligenz tatsächlich entwickelt werden könnte. Dabei schwanken die Aussagen zwischen 20 und 200 Jahren oder auch nie (vgl. Lenzen 2020, S. 120). Zumindest können wir starke Künstliche Intelligenz in Filmen weiterhin bewundern. Im folgenden Abschnitt könnt ihr euer Wissen über KIs in Filmen testen. Viel Spaß!

Quiz

Quellen

Brössel, Stephan (2021): Die Anthropologie der Goethezeit und Automaten:
Ein diskursanalytischer Aufriss und eine exemplarische Analyse
von E. T. A. Hoffmanns Die Automate (1814). In: Irsigler, Ingo u.a. (Hg.): Roboter, Künstliche Intelligenz und Transhumanismus in Literatur, Film und anderen Medien. Heidelberg: Universitätsverlag Winter, S. 27 – 44

Lenzen, Manuela (2020): Künstliche Intelligenz. Fakten, Chancen, Risiken. Originalausgabe. München: C.H.Beck

Manhart, Klaus (2022): Eine kleine Geschichte der Künstlichen Intelligenz. Online unter https://www.computerwoche.de/a/eine-kleine-geschichte-der-kuenstlichen-intelligenz,3330537,2 [Abruf am 15.12.22]

Mehnert, Ann-Kristin (2016): „Ex Machina“ (2015). Philosophische Betrachtungen über das (Selbst-) Bewusstsein im Spannungsfeld zwischen Mensch und Maschine. Online unter https://www.grin.com/document/322981 [Abruf am 26.12.2022]

Schreiner, Maximilian (2022): Filme über Künstliche Intelligenz: Sieben Meilensteine der KI-Filmgeschichte. Online unter https://the-decoder.de/beste-filme-kuenstliche-intelligenz/ [Abruf am 04.01.2023]

Siekmann, Jörg (1994): Künstliche Intelligenz: Von den Anfängen in die Zukunft. In: Cryanek, Günther; Coy, Wolfgang (Hg.): Die maschinelle Kunst des Denkens. Braunschweig: Vieweg, S. 11-41

Volland, Holger (2018): Die kreative Macht der Maschinen. Warum Künstliche Intelligenzen bestimmen, was wir morgen fühlen und denken. 1. Auflage. Weinheim: Beltz

Der Einsatz von Spracherkennungssoftware und ihre Grenzen in der Forensischen Linguistik

Autorin: Kimberley Stips

Alexa, wer hat versucht, uns zu erpressen?
Ganz so leicht ist es dann doch nicht. Die Forensische Linguistik ist eine kriminalistische Hilfswissenschaft, die sich mit Sprache im gerichtlichen Kontext beschäftigt. Dazu zählen sowohl die vor Gericht verwendete Sprache wie auch beispielsweise die Autoren- und Sprechererkennung (Fobbe, S. 15 f.). Oder, um es mit den Worten von Patrick Rotter, selbst in der Forensischen Linguistik tätig, zu sagen: „Für uns Sprachprofiler ist Sprache in erster Linie Identität. Egal ob gesprochen oder geschrieben. Sie ist ein Teil von uns.“ (Rotter, S. 15)
Um Identität(-sfindung) soll es in diesem Beitrag gehen – und um die Frage, wie sehr die Künstliche Intelligenz (KI) in diesem Bereich Ermittler*innen entlasten oder vielleicht sogar ersetzen kann.

Entwicklung der Spracherkennung

Der Versuch, Sprache mittels Computern zu analysieren und zu erkennen, ist nicht neu:

Zeitleiste: Meilensteine der computergestützten Spracherkennung

Was aber, wenn es nicht nur darum geht, kurze Nachrichten in Text zu verwandeln, sondern etwa herauszufinden, wer eine anonyme Drohbotschaft versendet hat? In den letzten Jahren gab es mehrere Studien dazu, von denen ich hier zwei vorstellen möchte.

Software & Audioerkennung

Mit Spracherkennung von komplexeren Audiodateien hat sich unter anderem Franz Bellmann in seiner Bachelorarbeit beschäftigt: er testete sechs frei verfügbare Softwares auf die Eignung zur Transkription von Audiodateien (mit verschiedenen Längen, in verschiedenen Sprechgeschwindigkeiten und mit und ohne Dialekt) in einem polizeilichen Kontext (Bellmann, S. 23). Wie seinen Schlussfolgerungen zu entnehmen ist, haben alle benutzten Programme Schwierigkeiten bei der Worterkennung, Google Web Speech API hat sich am besten geschlagen (Bellmann, S. 47). Doch selbst diese beste Alternative hat immer noch eine Fehlerrate von ca. 30%(!) bei der Transkription (Bellmann, S. 44).

Software & Textzuordnung

Manuel Dorobek untersuchte in seiner Masterarbeit 2021 ein ähnliches Projekt, aber auf geschriebene Texte bezogen: kann die KI im Internet veröffentliche Rezensionen zuverlässig den jeweiligen Autor*innen zuordnen? Er wählte 25 Autor*innen mit jeweils 100 verfassten Texten aus (Dorobek, S. 25), die vom besten Modell mit einer Genauigkeit von 96,4% erkannt wurden (Dorobek, S. 149). Zum Trainieren der KI wurden 60 Vorlagetexte genutzt (Dorobek, ebd.). Zwei Autor*innen voneinander zu unterscheiden, gelang schon mit drei Vorlagen (Dorobek, ebd.). Das sind sehr gute Werte, doch in der echten Welt ist der Kreis der Verdächtigen nicht immer so leicht eingrenzbar. Außerdem kann es sein, dass nicht genug Vergleichstexte vorliegen oder keine Texte in ausreichender Länge – weshalb auch Dorobek selbst zu dem Ergebnis kommt: „Für einen Anwendungsfall in der Praxis sind diese Ergebnisse deshalb mit Vorsicht zu betrachten.“ (Dorobek, ebd.)

Fazit

KI kann also bisher beim geschriebenen Wort besser unterstützen als beim gesprochenen. Bis die Technik weit genug entwickelt ist, um gerichtsfeste Ergebnisse zu liefern – denn immerhin geht es hier auch um Straftaten und die Frage, ob Menschen ins Gefängnis kommen! – wird also noch einige Zeit vergehen. Bis dahin gilt die Einschätzung von Patrick Rotter:

„Unsere Lebensleistung an Wort und Text ist schlicht nicht zu erfassen. Und dank der zwangsläufigen Veränderungen auch nicht in starre Muster zu packen. […] Keine künstliche Intelligenz dieser Welt ist in der Lage, sämtliche Dialekte, feinste Nuancen und die ständigen Veränderungen in der Sprache zu begreifen.“ (Rotter, S. 40)

Quellen

Fobbe, Eilika (2011): Forensische Linguistik. Tübingen: Narr Francke Attempto Verlag
Rotter, Patrick (2021): Die geheimen Muster der Sprache. 3. Auflage, München: Redline-Verlag
Bellmann, Franz (2020): Prototypische Systemintegration und Evaluation von Open Source Sprachmodellen zur automatischen Spracherkennung gesprochener deutscher Texte. Online-Ressource, abrufbar unter BA Bellmann
Dorobek, Manuel (2021): Automatisierte Autorschaftsanalyse in der deutschen Sprache mittels forensischer Linguistik. Online-Ressource, abrufbar unter MA Dorobek
Bildquelle: Wedekind, Kai: HTML 5 Speech Recognition API. Online abrufbar unter *iYxrR4zaECeQ5AgSq3jy_A.png
Beitragsbild: mohammed_hassan auf Pixabay. Online abrufbar unter https://pixabay.com/images/id-7620463/

Search Engine Optimization und was das mit verschiedenfarbigen Hüten zu tun hat

Autorin: Magdalena Sinsel

Im folgenden Artikel erfahren Sie, was Search Engine Optimization ist, warum das für jeden Host einer Website von Bedeutung ist und was das mit weißen, schwarzen und grauen Hüten zu tun hat. Viel Vergnügen!

Inhaltsverzeichnis

Was ist Search Engine Optimization?

Search Engine Optimization, kurz SEO, umfasst alle Maßnahmen, die zu einem besseren Ranking einer Website innerhalb der organischen Suchergebnisse von Google, Bing und Co. führen (vgl. Kohring 2022, S. 10). Organische Suchergebnisse sind dabei die „kostenlosen“ Treffer auf der Search Engine Result Page (SERP), die nicht über Anzeigenformate wie Google Ads oder Google Shopping generiert werden (vgl. Searchmetrics 2022a).

Ein gutes Ranking verschafft eine bessere Sichtbarkeit und eine höhere Reichweite. Dass Treffer, die nicht unmittelbar auf der ersten Ergebnisseite angezeigt werden, von Nutzer*innen angeklickt werden, ist schließlich eine Rarität (vgl. Kohring 2022, S. 10-11). Durch SEO sollen deshalb häufig auch der Bekanntheitsgrad der eigenen Marke, der Marktanteil und/oder der Umsatz gesteigert werden (vgl. Searchmetrics 2022b).

Die Maßnahmen, die zur Suchmaschinenoptimierung eingesetzt werden können, sind sehr vielfältig. Man unterscheidet dabei zwischen White-Hat- und Black-Hat-Methoden. In den folgenden Abschnitten können Sie mehr darüber erfahren.

Was versteht man unter White-Hat-SEO?

Marion Davies portraitiert von Hamilton King 1920
Quelle: Wikimedia Commons (public domain)

Definition

White-Hat-SEO orientiert sich an den Richtlinien, die Suchmaschinenanbieter für SEO-Maßnahmen vorgeben (vgl. Searchmetrics 2022b). Auf der Entwickler-Plattform „Google Developers“ hat Google beispielsweise einen umfassenden „Startleitfaden“ zur Umsetzung von Suchmaschinenoptimierung veröffentlicht.

Erlaubt ist in der Regel, was einen technischen oder inhaltlichen Mehrwert bietet, den Nutzerkomfort steigert und ethisch unbedenklich ist (vgl. Google 2022). Eine Manipulation der Suchergebnisse, die Suchmaschine oder User*innen in die Irre führen soll, hingegen ist nicht zulässig (vgl. SEO Küche 2022). Die User Experience hat bei Google und Co. mittlerweile einen sehr hohen Stellenwert, deshalb wird im Zusammenhang mit Search Engine Optimization manchmal auch von „Search Experience Optimization“ gesprochen (Searchmetrics 2022b). Es gilt der Grundsatz, dass eine Website nicht für Suchmaschinen, sondern für Nutzer*innen optimiert werden sollte (vgl. SEO Küche 2022).

Beispiele

  • Verwendung von qualitativ hochwertigen und einzigartigen Inhalten
  • Verbesserung der Navigation innerhalb der Website
  • technische Fehler beheben
  • Ladezeiten verkürzen
  • Optimierung der Metaangaben
  • natürliches Linkbuilding: ein besseres Ranking kann erreicht werden, wenn andere Websites auf die eigene Website verlinken – man spricht dabei auch von sogenannten „Backlinks“; „natürlich“ heißt in diesem Zusammenhang, dass die Verlinkungen nicht durch Linkkauf oder das Posten von Spam-Links in Foren, Blogs o.ä. erreicht werden

Vorteile

  • langfristiger Erfolg
  • ethisch unbedenklich
  • eine bessere User Experience sorgt neben einem besseren Suchmaschinenranking auch für eine bessere Kundenbindung
  • ist im Einklang mit den Guidelines der Suchmaschinenanbieter, wird von ihnen nicht abgestraft

Nachteile

  • hoher Aufwand, komplex in der Umsetzung
  • benötigt Geduld
  • dauerhafte Aufgabe (ständiges Monitoring, Analyse und erneute Anpassungen sind notwendig, damit der Erfolg anhält)

Was versteht man unter Black-Hat-SEO?

Portrait einer Dame von Hans Baldung Grien um 1530
Quelle: Museo Thyssen-Bornemisza Madrid,
CC BY-NC-ND

Definition

Als Black-Hat-SEO bezeichnet man Methoden der Suchmaschinenoptimierung, die gegen die Guidelines der Suchmaschinenanbieter und/oder gegen ethische Grundsätze verstoßen (vgl. Pollitt 2020). Die Verwendung von Black-Hat-SEO kann zu einem schnellen Erfolg führen, dieser Erfolg ist in der Regel aber nur von kurzer Dauer (vgl. OSG Team 2018). Wenn die Anwendung von Black-Hat-Methoden von Suchmaschinen bzw. deren Algorithmen erkannt wird, werden die entsprechenden Websites mit einem schlechten Ranking bestraft oder sogar komplett aus dem Index der Suchmaschinenanbieter entfernt (vgl. Pollitt 2020). In extremen Fällen können sogar rechtliche Konsequenzen drohen (vgl. Searchmetrics 2022b).

Auch Taktiken, die aktuell nicht explizit von den Suchmaschinen verboten sind, können zukünftig von Bestrafungen betroffen sein. Googles Algorithmen werden kontinuierlich weiterentwickelt. Die Bekämpfung von Spam-Content wurde beispielsweise durch das Panda Update und das Penguin Update verbessert (vgl. Ryte 2021). Eine Verwendung von Black-Hat-Methoden ist aufgrund der ethischen Fragwürdigkeit und drohenden Strafen also nicht empfehlenswert.

Beispiele

  • Cloaking: Nutzer*innen und Suchmaschine werden unterschiedliche Versionen einer Website angezeigt
  • Hidden Text: Text wird so auf der Website platziert, dass er von Suchmaschinen beim Crawling erkannt wird, aber für Nutzer*innen unsichtbar ist (z.B. Schrift und Hintergrund im gleichen Farbton)
  • Keyword Stuffing: übermäßige Verwendung eines Keywords in Text, Überschrift etc. ohne inhaltliche Relevanz
  • Linkkauf: Betreiber*innen anderer Websites werden dafür bezahlt, dass sie auf die eigene Website verlinken

Vorteile

  • schnelle Erfolge
  • weniger komplex und kostengünstiger als White-Hat-SEO

Nachteile

  • unethisch
  • Erfolg nur von kurzer Dauer
  • wird langfristig von Suchmaschinen durch ein schlechtes Ranking oder komplettes Entfernen aus dem Index abgestraft
  • kann dem eigenen Ruf langfristig schaden

Was versteht man unter Grey-Hat-SEO?

Auf der Eisbahn, unbekannter Künstler um 1910
Quelle: Staatliche Museen zu Berlin – Kunstbibliothek, CC BY-NC-SA 4.0

Grey-Hat-SEO ist im Grunde genommen alles, was zwischen White-Hat- und Black-Hat-SEO liegt – Maßnahmen, die nicht explizit von Suchmaschinenanbietern verboten sind, aber vielleicht ethisch grenzwertig oder nur eine leichte Abwandlung von bekannten Black-Hat-Instrumenten sind. Teilweise wird unter dem Begriff auch die Kombination von White- und Black-Hat-Methoden verstanden. Eine genaue Auflistung von Grey-Hat-Maßnahmen ist schwierig, weil sowohl der Übergang zwischen White Hat und Grey Hat als auch zwischen Grey Hat und Black Hat oftmals fließend ist (vgl. für diesen Absatz Pollitt 2020).

SEO-Experten sind sich uneinig darüber, ob die Anwendung von Grey-Hat-SEO empfehlenswert ist. Einige betonen die Unsicherheit, die mit Grey-Hat-Methoden einhergeht, da es keine Garantie dafür gibt, dass deren Verwendung nicht zukünftig von Google oder anderen Suchmaschinen abgestraft wird (vgl. Ryte 2021). Andere gehen davon aus, dass ein gutes Ranking nicht ausschließlich durch White-Hat-Methoden erreicht werden kann, insbesondere, wenn die Konkurrenz groß ist (vgl. Pollitt 2020).

Woher stammt die Hüte-Terminologie?

Jack Kelly, Kathleen Crowley und Mike Road in der TV-Serie Maverick 1962
Quelle: Wikimedia Commons (public domain)

Die Begriffe White Hat und Black Hat findet man u.a. auch im Zusammenhang mit ethischem oder unethischem Hacken. Ihren Ursprung hat die Terminologie allerdings in der Kostümierung in Westernfilmen. Hier trug der gute Cowboy traditionell einen weißen Hut und der böse Cowboy einen schwarzen (vgl. Pollitt 2020). Für die Zuschauer*innen war so auf einen Blick erkennbar, wer auf welcher Seite steht.

Abschließendes Rätsel


Quellen

Google (2022): Startleitfaden zur Suchmaschinenoptimierung (SEO). Zuletzt aktualisiert am 18.11.2022. Online unter https://developers.google.com/search/docs/fundamentals/seo-starter-guide/  [Abruf am 26.11.2022]

Kohring, Silvia (2022): 30 Minuten Suchmaschinenoptimierung. Offenbach: Gabal Verlag

OSG Team (2018): White & Black Hat SEO. Zuletzt aktualisiert am 23.04.2018. Online unter https://www.seoagentur.de/seo-handbuch/white-black-hat-seo/ [Abruf am 29.11.2022]

Pollitt, Helen (2020): White Hat vs. Black Hat vs. Gray Hat SEO. What’s the Difference? Zuletzt aktualisiert am 04.05.2020. Online unter https://www.searchenginejournal.com/white-hat-vs-black-hat-vs-gray-hat-seo/365142/ [Abruf am 04.11.2022]

Ryte (2021): Black Hat SEO. Online unter https://de.ryte.com/wiki/Black_Hat_SEO [Abruf am 29.11.2022]

Searchmetrics (2022a): Organic Traffic. Online unter https://www.searchmetrics.com/de/glossar/organic-traffic/ [Abruf am 26.11.2022]

Searchmetrics (2022b): Suchmaschinenoptimierung. Online unter https://www.searchmetrics.com/de/glossar/suchmaschinenoptimierung/ [Abruf am 01.11.2022]

SEO Küche (2022): White Hat SEO. Zuletzt aktualisiert am 23.09.2022. Online unter https://www.seo-kueche.de/lexikon/white-hat-seo/ [Abruf am 26.11.2022]

Beitragsbild: Pch.vector auf Freepik