KI und die Sicherheit von Smart-Home-Systemen

Autorin: Eliza SchnetzerKI


“Smart Home” @Smart Home Haus Technik – Kostenloses Foto auf Pixabay

KI

Inhaltsverzeichniss

Wie auch in vielen anderen Bereichen der Technik macht auch das Internet of Things (IoT) große Entwicklungsschritte. Dazu gehören auch sogenannte Smart-Home-Systeme, die eine immer weitere Verbreitung in deutschen Haushalten finden. Aus den vielseitigen Anwendungsbereichen ergeben sich neben komfortablen Alltagshilfen auch einige Fragen zur Sicherheit, gerade hinsichtlich Datenschutzes und Künstliche Intelligenz (KI) . In diesem Artikel sollen einige der Sicherheitslücken aufgedeckt und Lösungsansätze erläutert werden.

KI, was ist das eigentlich?

Immer häufiger hört man heutzutage diesen Begriff, aber was zeichnet die KI eigentlich aus? Normalerweise verarbeitet eine Maschine stumpf Daten. Eine KI ist allerdings in der Lage bestimmte Muster zu erlernen, um Entscheidungen auf der Basis von Informationen zu treffen. Dieses Vorgehen nennt man „Machine Learning“. Damit ist eine menschenähnliche kognitive Leistung möglich. Übertragen wir das auf unsere Smart-Home-Systeme bedeutet, dass, die Geräte erlernen unsere Verhaltensmuster und reagieren entsprechend darauf. Der aktuelle technische Stand ermöglicht das noch nicht umfangreich, zielt aber darauf ab. Bislang entscheiden sind das Erkennen und Befolgen von Wenn-Dann-Regeln.

KI im eigenen Zuhause:

@Smartest Home 2020

 

Smart-Home-Anwendungen bieten einige Vorteile

Smart-Home-Anwendungen haben einige Vorteile zu bieten, andernfalls würden sie sich nicht immer wachsender Beliebtheit erfreuen. Dazu gehören unter anderem:

  • Erhöhter Komfort: viele Aufgaben müssen nicht mehr selbst erledigt werden, sondern werden bequem von den Smart-Home Anwendungen übernommen. Beispiele hierfür sind z.B. das Saugen von Böden, Rasen mähen oder das automatische Angehen der Kaffeemaschine am Morgen
  • Vereinfachte Bedienung: durch die Steuerung per App kann man alle Anwendungen aus einer Stelle heraus bedienen, noch einfacher wird das Ganze mit Spracherkennung/Sprachbefehlen
  • mehr Sicherheit: durch das vernetzte System kann der Besitzer durch Push-Nachrichten auf sein Handy informiert werden, wenn z.B. ein Alarm ausgelöst wird. Gleichzeitig kann ein ausgelöster Alarm dazu führen, dass sich Türen und Fenster verriegeln
  • Senkung des Energieverbrauch: Geräte sind so programmiert, dass sie möglichst wenig Strom verbrauchen. So kann man z.B. mit Hilfe von einem Timer einstellen, wann das Licht ausgehen soll

Sicherheitslücken in den Systemen

Die komplexe technische Vernetzung bringt auch einige Risiken mit sich, wie sich in den Bereichen des Datenschutzes und der IT-Sicherheit zeigt. Die Smart-Home-Anwendungen sind durchgehend mit dem Internet verbunden. Das macht sie sehr anfällig für den unautorisierten Zugriff durch Hackerangriffe, die sich so den Zugriff zu sämtlichen Geräten in einem Haushalt verschaffen können. Um das zu vermeiden ist das regelmäßige Durchführen von Updates essenziell. Viele Risiken entstehen durch den Anwender selbst. So können fehlende technische Vorkenntnisse und die daraus resultierenden Bedienungsfehler zu schwerwiegenden Sicherheitslücken führen. Daher ist es wichtig, sich mit der Technik der Geräte auseinander zu setzen und ggfs. nochmal die richtige Funktionsweise zu überprüfen. Es stellt sich zudem die Frage, inwiefern die Daten gespeichert und verarbeitet werden. Das ist oft nicht transparent für den Benutzer, und da es sich um sensible personenbezogene Daten wie Kameraaufzeichnungen handelt, ist dieser Punkt nicht zu missachten.

Personenbedingte Fehler

Neben den technischen Fehlerquellen können natürlich auch von Menschenhand erzeugte Fehler Sicherheislücken hervorrufen. Zum einen ist es wichtig, dass sich Anwender vor der Anschaffung intensiv mit der Technik befassen. Oftmals scheitert es an fehlender Planung und das dem Informationsmangel über die Anwendung. Das kann wiederrum zu Anwendungsfehlern führen, die schwerwiegende Sicherheitsmängel bilden können. Wir tendieren oft dazu, zu günstigeren Alternativen zu greifen, was in diesem Fall aber eine fehlende Sicherheitszertifizierung bedeutet und ebenfalls vermehrt Sicherheitslücken aufweißt. Eine noch ausführlichere Hilfe bietet der folgende Artikel: Diese 5 Fehler machen fast alle Smart Home Einsteiger (homeandsmart.de)

Einfacher Schutz im Alltag

Wie kann ich mich also vor den vielfältigen Angriffsmöglichkeiten schützen? Es sind eigentlich ein paar ganz simple Tipps, wie man den Sicherheitsstandard der Smart-Home-Anwendung hochhält:

  • keinen direkten Internetzugriff: ist ein System direkt mit dem Internet verbunden, ist es leichter für z.B. Hacker dieses zu finden und zu hacken. Am sichersten ist es, denn Zugriff über ein VPN zu nutzen
  • System regelmäßig aktualisieren: für jedes System gibt es reglemäßig Updates, diese sollte man zeitnah durchführen um Bugs und Fehler in der Software zu beheben.
  • sichere Passwörter: ein simpler, aber oft missachteter Tipp ist es, ein sicheres Passwort zu vergeben, dass eine Kompination aus Groß- und Kleinschrift, Sonderzeichen und Zahlen beinhaltet. Dieses sollte in regelmäßigen Abständen geändert werden.
  • unnötige Dienste ausschalten: schalten Sie nicht benötigte Anwendungen aus, denn was nicht läuft, kann nicht angegriffen werden

Fazit: trotz Sicherheitslücken wachsender Trend mit Luft nach oben

Was lässt sich nun abschließend festhalten? Wenn man einige grundlegende Sicherheitsvorkehrungen beachtet und sich selbst mit den technischen Anwendungen befasst bieten Smart-Home-Anwendungen eine gute Möglichkeit sich den Alltag einfacher zu gestalten. Smart-Home-Anwendungen stehen noch relativ am Anfang ihrer technischen Möglichkeiten und sind auch noch lange kein fester Bestandteil in einem durchschnittlichen Haushalt. Auch die Zukunftserwartungen sind noch nicht erfüllt worden.

«Wir glaubten damals, dass es eine allmächtige, zentrale Intelligenz geben werde, die je nach Stimmung eine automatische Lichtauswahl trifft, ohne unser Zutun Essen für den Kühlschrank nachbestellt und so weiter. Diese Vision ist nicht eingetreten, zumal die Installation und Konfiguration einer einzigen, zentralen Lösung viel zu komplex wäre. Stattdessen gibt es heute viele partielle Lösungen, beispielsweise für die Beleuchtung, die Soundanlagen oder die Sicherheit.»

Zitat von Dr. Andrew Paice, Leiter vom iHomeLab

weiterführende Informationen gibt es hier:

Quellen- und Literaturverzeichnis

Beitragsbild: Bild von Gerd Altmann auf Pixabay

Wie beeinflusst digitale Datenanalyse die Transparenz von Daten?

Autorinnen: Luisa Rabbe und Emelie Rademacher


Die zunehmend komplexe Gestaltung digitaler Angebote und Dienste in den letzten Jahren hat starke Konzentrationstendenzen in der Datenökonomie verursacht. Einige Großunternehmen sammeln beträchtliche Datenmengen, kombinieren diese und werten die neuen Daten aus.[1] Dadurch können anonymisierte Daten häufig re-identifiziert werden.[2] Was hat das nun mit digitaler Datenanalyse zu tun?

In diesem Fachbeitrag wird auf die Nutzung digitaler Daten eingegangen. Es wird erklärt was unter digitaler Datenanalyse und Datentransparenz verstanden wird und wie diese Einfluss auf die Arbeitswelt haben. Weiterhin wird betrachtet, wie der Staat Einfluss auf die Transparenz von Daten nimmt.

Inhaltsverzeichnis

Digitale Daten werden über alle elektronischen Endgeräte verknüpft

Die Nutzung digitaler Daten

Privatpersonen, Unternehmen und der Staat. Jeder Akteur der Marktwirtschaft verwendet täglich digitale Daten. Aber was sind digitale Daten? Bei digitalen Daten handelt es sich um digitale Dokumente und Medieneinheiten, die diskret oder indiskret Informationen darstellen. Diese Informationen können sowohl personenbezogene als auch nicht personenbezogene Daten sein. Wie kann nun mit diesen Daten umgegangen werden? Die Datennutzung ist immer eng verbunden mit Fragen zum verantwortungsvollen Umgang mit Daten und den sich dauerhaft weiterentwickelnden Technologien. Besonders wichtig sind dabei die Einhaltung von Gesetzen, wie die DSGVO, und die Orientierung an ethischen Werten. „[N]icht alles, was technisch möglich ist, [ist] auch ethisch vertretbar“[3], denn es gibt unter anderem Möglichkeiten über die Verfahren Profiling und Scoring Aussagen über das Verhalten sowie die Präferenzen einzelner Personen machen zu können und diese zu beeinflussen.[4]

Digitale Datenanalyse und Datentransparenz

Digitale Datenanalysen helfen, komplexe Sachverhalte schnell und transparent darzustellen. Dies geschieht durch das Erkennen von Zusammenhängen, Abhängigkeiten und Ungereimtheiten in Daten. Zur Datenanalyse wird vermehrt auf maschinelles Lernen anstatt auf Menschen zurückgegriffen, da bei der Analyse großer Datenmengen in kürzerer Zeit bessere Ergebnisse erzielt werden können.[5]

Transparenz setzt voraus, dass Daten fehlerfrei, vollständig sowie zeitgerecht veröffentlicht und zugänglich sind. Zugleich dient sie als Voraussetzung für die Überwachung der Datennutzung. Dies wird möglich durch die Kontrolle der Datenverwendung durch alle Personen, die Zugang zu den jeweiligen Daten haben und die Fähigkeiten zur differenzierten Datenanalyse besitzen.[6]

Einfluss der digitalen Datenanalyse auf die Arbeitswelt

Digitale Datenanalyse und Datentransparenz haben einen bedeutenden Einfluss auf die Arbeitswelt. Durch die Verfügbarkeit von genauen und umfassenderen Daten können Unternehmen datengetriebene Entscheidungen treffen. Das bedeutet, dass sie Entscheidungen auf der Grundlage von Daten und nicht nur auf Intuition oder Vermutungen treffen. Dies führt zu besseren Entscheidungen, die auf den tatsächlichen Bedürfnissen und Trends des Marktes basieren.[7]

Darüber hinaus können Unternehmen durch die Verwendung von Datentransparenztools ihre Geschäftsprozesse besser überwachen und regulieren. Dies bedeutet, dass sie in Echtzeit Einblicke in ihre Prozesse erhalten und mögliche Probleme schnell erkennen und beheben können. Somit können die Effizienz gesteigert und Kosten eingespart werden. Außerdem sorgt dies für eine bessere Kontrolle und Überwachung von Geschäftsprozessen. Zusätzlich ermöglicht digitale Datenanalyse und die Nutzung von Datentransparenztools Unternehmen dazu, große Mengen an Daten schneller und effizienter zu analysieren. Dies führt zu einer besseren Entscheidungsfindung und höheren Effizienz.

Insgesamt hat die Verwendung von digitaler Datenanalyse und Datentransparenz einen signifikanten Einfluss auf die Arbeitswelt, indem sie Effizienz, datengetriebene Entscheidungen und Überwachung von Geschäftsprozessen verbessern.[8]

Die Rolle des Staates in der digitalen Datenanalyse

Der Staat spielt eine wichtige Rolle bei der Steuerung der Verwendung von Datenanalyse und Datentransparenz. Durch Gesetze und Regulierungen, wie die Datenschutzgrundverordnung (DSGVO) in Europa, wird sichergestellt, dass persönliche Daten sicher und geschützt sind und das Unternehmen verantwortungsvoll mit diesen Daten umgehen.[9]

Zudem legt der Staat Richtlinien fest, die Unternehmen verpflichten, bestimmte Standards bei der Datensammlung, -verarbeitung und -nutzung einzuhalten. Dies garantiert, dass Daten genau und verlässlich sind und die Datentransparenz ein hohes Niveau hat. Der Staat ist auch verantwortlich für die Überwachung der Einhaltung dieser Gesetze und Regelungen durch Unternehmen. Dies kann durch Regulierungsbehörden oder durch Strafen und Bußgelder bei Verstößen geschehen.[10]

Darüber hinaus sind staatliche Stellen selbst oft Nutzer von Datenanalyse, beispielsweise für staatliche Überwachungs- und Überprüfungszwecke oder für die Erstellung von Statistiken.[11] Hierbei muss jedoch sichergestellt werden, dass dies im Rahmen der Gesetze und Regulierungen geschieht und die Datenrechte der Bürger geschützt bleiben. Zudem kann der Staat Regulierungen erlassen, die den Zugang zu bestimmten Daten einschränken, um die Privatsphäre und den Schutz sensibler Daten zu garantieren. Dies garantiert, dass Daten nicht missbraucht werden und das die Transparenz der Daten aufrechterhalten wird. Weiterhin können Unternehmen vom Staat verpflichtet werden, Regeln für den Umgang mit Daten und den Schutz persönlicher Informationen einzuhalten.[12]

Beispielsweise kann der Staat Gesetze erlassen, die Unternehmen verpflichten, über die Daten, die sie sammeln, transparent zu informieren. Dies kann die Verwendung von Daten, die Art und Weise, wie sie gesammelt werden und wer Zugang dazu hat, umfassen.[13] Außerdem muss der Staat auf die Entwicklungen im Bereich der digitalen Datenanalyse reagieren und gegebenenfalls Gesetze und Regulierungen anpassen, um sicherzustellen, dass sie weiterhin gültig und wirksam bleiben.[14]

Fazit

Zusammenfassend ist zu erkennen, dass sowohl digitale Datenanalyse als auch Datentransparenz für sich genommen bedeutend für jeden Akteur der Marktwirtschaft sind. Besonders deutlich wird allerdings auch, dass die Datenanalyse einen sichtbaren Einfluss auf die Transparenz von Daten nimmt. Nur wenn Daten durch Analyseverfahren verstanden werden, können sie auch verwendet werden. Sie sind dann transparent. Dabei darf die Notwendigkeit von Gesetzen und Regulierungen nicht vernachlässigt werden, um die Rechte des Einzelnen zu schützen.


Begriffsdefinitionen

Nicht personenbezogene Daten

Als nicht personenbezogene Daten werden alle Daten bezeichnet, die keine personenbezogenen Daten aufweisen oder stark genug anonymisiert worden sind, dass die Anonymisierung nicht rückgängig gemacht werden kann.[15]

Personenbezogene Daten

Personenbezogenen Daten bezeichnen alle Daten und Informationen, die auf eine lebende identifizierte oder identifizierbare Person verweisen. Darüber hinaus werden auch pseudonymisierte Daten, anonymisierte Daten, die re-identifiziert werden können, als personenbezogene Daten bezeichnet.[16]

Profiling

Bei dem Verfahren Profiling findet das Sammeln und Verknüpfen von personenbezogenen Daten zu persönlichen Profilen von einzelnen Menschen statt. Diese Profile werden dann zur Auswertung, Bewertung, Analyse und Vorhersage spezifischer Merkmale von Personen verwendet.[17]

Scoring

Das statistisch-mathematische Verfahren Scoring ordnet dem Profil eines Menschen oder Unternehmens einen Wert zu. Dieser Wert zeigt die Intensität der Ausprägung verschiedener Merkmale und wird zur Kategorisierung und Klassifizierung verwendet.[18]


[1] Vgl. Die Bundesregierung (2021), S. 6
[2] Vgl. Günter (2020), S. 62
[3] Die Bundesregierung (2021), S. 7
[4] Vgl. Ebd., S. 7
[5] Vgl. Lucke; Gollasch (2022), S. 96
[6] Vgl. Günter (2020), S. 201
[7] Vgl. Kämpf, Vogl, Boes (2022)
[8] Vgl. Küng, Keller, Hofer (2022)
[9] Vgl. Wewer (2022)
[10] Vgl. Kubicek (2020)
[11] Vgl. Fulko (2021)
[12] Vgl. Fischer, Kraus (2020)
[13] Vgl. Kubicek (2020)
[14] Vgl. Fischer, Kraus (2020)
[15] Vgl. Europäische Kommission (2014)
[16] Vgl. Ebd.
[17] Vgl. Die Bundesregierung (2021), S. 116
[18] Vgl. Ebd., S. 116


Über die Autorinnen

Luisa Rabbe ist im dritten Semester des Studienganges Informationsmanagement immatrikuliert. Das Studium absolviert diese an der Fakultät III in der Abteilung Information und Kommunikation an der Hochschule Hannover. Die Autorin ist 24 Jahre alt und wohnhaft in Hannover.

Emelie Rademacher ist im dritten Semester des Studienganges Informationsmanagement immatrkuliert. Das Studium absolviert diese an der Fakultät III in der Abteilung Information und Kommunikation an der Hochschule Hannover. Gleichzeitig arbeitet sie als Minijobberin bei der Edeka Cramer GmbH im Bereich Backwaren Bedienung. Die Autorin ist 20 Jahre alt und wohnhaft in Hannover.


 

Quellenverzeichnis

Die Bundesregierung (2021): Datenstrategie der Bundesregierung. Eine Innovationsstrategie für gesellschaftlichen Fortschritt und nachhaltigen Wachstum. Online unter https://www.bundesregierung.de/breg-de/suche/datenstrategie-der-bundesregierung-1845632 [Abruf am 28.01.2023]

Europäische Kommission (2014): Was sind personenbezogene Daten? Online unter https://commission.europa.eu/law/law-topic/data-protection/reform/what-personal-data_de [Abruf am 29.01.2023]

Fischer, Caroline; Kraus, Sascha (2020): Digitale Transparenz. In: Klenk, Tanja; Nullmeier, Frank; Wewer, Göttrik (Hg.): Handbuch Digitalisierung in Staat und Verwaltung. Wiesbaden: Springer VS, S.159-170

Fulko, Lenz (2021): Der digitale Staat – Transparenz als Digitalisierungsmotor. Argumente zu Marktwirtschaft und Politik, No. 155. Berlin: Stiftung Marktwirtschaft

Kämpf, Tobias; Vogl, Elisabeth; Boes, Andreas(2022): Inverse Transparenz. Ein soziologischer Perspektivenwechsel für einen nachhaltigen Umgang mit Transparenz in der digitalen Arbeitswelt. In: Boes, Andreas; Hess, Thomas; Pretschner, Alexander; Kämpf, Tobias; Vogl, Elisabeth (Hg.): Daten-Innovation-Privatheit. Mit Inverser Transparenz das Gestaltungsdilemma der digitalen Arbeitswelt lösen. München: ISF München, S.24-33

Kubicek, Herbert (2020): Informationsfreiheits- und Transparenzgesetze. In: Klenk, Tanja; Nullmeier, Frank; Wewer, Göttrik (Hg.): Handbuch Digitalisierung in Staat und Verwaltung. Wiesbaden: Springer VS, S.171-186

Küng, Marco; Keller, Daniel F.; Hofer, Nicolas(2022): Transport – Im Wandel der Corona-Kriese. In: Luban, Katharina; Hänggi, Roman (Hg.): Erfolgreiche Unternehmensführung durch Resilienzmanagement. Branchenübergreifende Praxisstudie am Beispiel der Corona-Kriese. Berlin: Springer Vieweg, S. 181-196

Lucke, Jörn von; Gollasch, Katja (2022): Offene Daten und offene Verwaltungsdaten –  Öffnung von Datenbeständen. In: Hünemohr, Holger; Lucke, Jorn von; Stember, Jürgen; Wimmer, Maria A. (Hg.): Open Government. Offenes Regierungs- und Verwaltungshandeln – Leitbilder, Ziele und Methoden. Wiesbaden: Springer Gabler, S. 49-73

Müller, Günter (2020): Protektion 4.0: Das Digitalisierungsdilemma. Die blaue Stunde der Informatik. Berlin: Springer Vieweg

Wewer, Göttik (2020): Datenschutz. In: Klenk, Tanja; Nullmeier, Frank; Wewer, Göttrik (Hg.): Handbuch Digitalisierung in Staat und Verwaltung. Wiesbaden: Springer VS, S.187-198

Alle Bilder unterliegen der Pixabay-Lizenz

Menstruelle Überwachung durch FemTech-Apps – Wenn nicht nur Blut fließt

Autorinnen: Michelle Gaßner und Mira Le


Im Zeitalter der Selbstoptimierung gibt es unzählige Apps, die das Leben einfacher machen. Gesundheits-Apps werden genutzt, um zum Beispiel Kalorien zu zählen oder Sportübungen zu tracken, aber auch um mithilfe von Zyklus-Apps den Menstruationszyklus zu dokumentieren. Nutzende berichten, dass solche FemTech-Apps ein wertvolles Mittel sind, um mehr über sich und die eigene Gesundheit zu erfahren und den eigenen Körper besser kennenzulernen.[1][2]

Übersicht

Was ist FemTech eigentlich?
Profite durch sensible Daten
Aber es gibt doch Datenschutzbestimmungen!
Und nun: Apps löschen oder behalten?
Ausblick

Was ist FemTech eigentlich?

Der Begriff FemTech wurde 2016 von Ida Tin geprägt und in den letzten Jahren ist die Bandbreite an sogenannten FemTech-Apps, also nutzerzentrierten und technologischen Lösungen, die sich an feminine Bedürfnisse richten, stark gewachsen.[3]

Sie versprechen Autonomie und werden als empowerndes Tool vermarktet.[4] FemTech-Apps werden folglich genutzt, um die Menstruation und die eigene Fruchtbarkeit zu überwachen. So helfen sie dabei, unabhängig und selbstbestimmt agieren zu können, denn die App nimmt die lästige und zeitaufwendige Arbeit des Zählens und Dokumentierens ab. Dadurch fällt es vielen Menschen leichter, dies längerfristig und regelmäßig zu tun.[5]

Noch angenehmer fühlt es sich an, wenn man nichts dafür bezahlen muss. Aber das stimmt nur bedingt, denn auch bei kostenlosen Apps wird in Daten bezahlt und der Preis kann erschreckend hoch sein.[6] Personenbezogene Daten sind wertvoll und die Daten einer schwangeren Frau zum Beispiel noch mehr. Nutzt sie eine FemTech-App, werden diese Daten nicht zwingend ihr privates Eigentum bleiben.[7] Aber warum ist das eigentlich ein Problem?

Profite durch sensible Daten

Wenn wir betrachten, was FemTech-Apps machen, dann wird schnell klar, dass die gesammelten Daten intimer und persönlicher kaum sein können. Es entstehen große Mengen an Datensätzen, in denen neben Geburtsdaten auch Daten wie z.B. Gefühle und Stimmung, Ausfluss und andere körperliche Begleiterscheinungen oder sogar sexuelle Aktivitäten festgehalten werden.[8]

Screenshot aus der App ‘Flo’

Folglich sollte es also eigentlich selbstverständlich sein, dass solche Daten nur durch die nutzende Person weitergegeben werden dürfen. Tatsächlich sind sich die meisten aber häufig nicht über die Tragweite der Datenweitergabe bewusst.[9] Denn anders als bei Krankenakten, die bei den Ärzten und Krankenhäusern der Schweigepflicht unterliegen, gibt es keine Klarheit, wie datenschutzrechtlich mit den sensiblen Daten umgegangen werden soll.

Das bedeutet, dass es FemTech-App-Anbietern freisteht, welche Daten sie wie sammeln[10] oder welche Informationen sie an Werbepartner weitergeben, um personalisierte Werbung für bspw. Windeln zu schalten oder neue Nutzende zu rekrutieren.[11]

Aber es gibt doch Datenschutzbestimmungen!

Natürlich könnte man meinen, dass jede Person, die eine FemTech-App nutzt und durch die Nutzung den Datenschutzbestimmungen dieser spezifischen App explizit oder implizit zustimmt, auch weiß, worauf sie sich einlässt. So einfach ist es allerdings nicht. Das liegt an verschiedenen Gründen.

Zum einen sind Datenschutzerklärungen sprachlich so gestaltet, dass sie schwer zu verstehen sind und ein gewisses sprachliches Niveau Voraussetzung ist, um ihren Inhalt zu durchschauen. Zum anderen sind sie auch nicht immer offensichtlich und es gibt auch keine Möglichkeit, den Datenschutzerklärungen zu widersprechen.[12] Die Mozilla Foundation hat festgestellt, dass in der Mehrheit der FemTech-Apps Datenschutz nicht gewährleistet werden kann.[13]

Das heißt, auch wenn die Datenschutzbestimmungen gesehen, gelesen und verstanden wurden, heißt es noch nicht, dass sie positiv für die Nutzenden sind oder es bleiben.

Datenschutzbestimmungen sind angepasst worden im Verlauf der Lebensdauer der Apps, da es immer wieder kontrovers diskutiert worden ist, ob die sensiblen Daten sicher sind.

Erst 2021 gab es Empörung, als bekannt wurde, dass die meist genutzte Menstruations-App Flo Daten an Dritte weitergab.[14] Als Reaktion darauf hat Flo die Daten anonymisiert.

Und nun: Apps löschen oder behalten?

Es stellt sich letztendlich die Frage, wie unter diesen Gesichtspunkten mit FemTech-Apps verantwortungsvoll und doch persönlich bereichernd umgegangen werden kann. Gerade im Verlauf des Umwurfs von Roe vs Wade in den USA haben sich viele Nutzende dazu entschieden, die Apps zu löschen, da im schlimmsten Fall die Daten an Strafverfolgungsbehörden weitergegeben werden können.[15] Wenn nicht klar ist, was mit den Daten passiert, wird sich zu der Lösung entschieden, erst gar keine Daten zu generieren.

Welche Folgen der Eingriff in die Privatsphäre im Zusammenhang mit dem Fall Roe vs. Wade haben könnte, wurde in diesem Video gut zusammengefasst:

Auch wenn FemTech-Apps keinen optimalen Datenschutz bieten, so ergeben sich dennoch Vorteile, die viele Personen nicht aufgeben möchten, denn der Nutzen ist für sie unumstritten.[16] FemTech blind gegenüber den Problematiken zu nutzen ist allerdings auch keine gute Idee. Apps müssen die Privatsphäre der Nutzenden wahren.

Ausblick

Anstatt auf absolute Lösungen zu setzen, sollte die Informationskompetenz der Nutzenden gefördert und für die Datenflüsse sensibilisiert werden. Die Risiken und der Nutzen müssen gegeneinander aufgewogen und eine persönliche Entscheidung getroffen werden,[17] die fundiert und informiert getroffen werden kann. Da diese Apps auch ein Bestandteil von reproduktiver und sexueller Selbstbestimmung und Freiheit sein können, brauchen wir Wege, die weiter gehen, als eine „ganz oder gar nicht“ Entscheidung.

Es werden Apps mit freier und offener Software benötigt und es braucht Transparenz, welche Daten verarbeitet und gesammelt werden. Das Verantwortungsbewusstsein für die Sensibilität der Daten sollte nicht nur bei den Nutzenden liegen, sondern auch bei denen, die diese Apps erstellen und anbieten.

Quellen

Amelang, Katrin (2022): (Not) Safe to Use: Insecurities in Everyday Data Practices with Period-Tracking Apps. In: New Perspectives in Critical Data Studies. Palgrave Macmillan, Cham, S. 297-321. Online unter https://doi.org/10.1007/978-3-030-96180-0_13 S. 307 [2] [16]

Bretschneider, Richard A. (2015): A Goal- and Context-Driven Approach in Mobile Period Tracking Applications. In: Springer, Cham, S. 279287. Online unter https://doi.org/10.1007/978-3-319-20684-4_27 S. 283-284 [8]

Campanella, Samantha: Menstrual and fertility tracking apps and the post Roe v. Wade era. Online unter https://ir.lib.uwo.ca/usri/usri2022/ReOS/238/ [Stand: 29.11.2022] S. 9 [15]

Epstein, Daniel A.; Lee, Nicole B.; Kang, Jennifer H.; Agapie, Elena; Schroeder, Jessica; Pina, Laura R.; Fogarty, James; Kientz, Julie A.; Munson, Sean (2017): Examining menstrual tracking to inform the design of personal informatics tools. In 2017/05/02. ACM. Online unter https://doi.org/10.1145/3025453.3025635 S. 6. [1]

Fowler, Leah R.; Gillard, Charlotte; Morain, Stephanie R. (2020): Readability and accessibility of terms of service and privacy policies for menstruation-tracking smartphone Applications. In: Health promotion practice, Jg. 21, H. 5, S. 679-683. Online unter https://doi.org/10.1177/1524839919899924 S. 681 [12] ; S. 682 [9]

Gilman, Michele Estrin (2021): Periods for profit and the rise of menstrual surveillance. In: Columbia Journal of Gender and Law, Jg. 41, H. 1, S. 100-113. Online unter https://doi.org/10.52214/cjgl.v41i1.8824 S. 100 [4] ; S. 103 [6]

Healy, Rachael L. (2020): Zuckerberg, get out of my uterus! An examination of fertility apps, data-sharing and remaking the female body as a digitalized reproductive subject. In: Journal of Gender Studies, Jg. 30, H. 4, S. 406-416. Online unter https://doi.org/10.1080/09589236.2020.1845628 S. 411 [11]

Hoppenstedt, Max (2019): Was Zyklus-Apps über ihre Nutzer verraten. In: Süddeutsche Zeitung, Ausgabe vom 27.12.2019. Online unter https://www.sueddeutsche.de/digital/zyklus-apps-datenschutz-36c3-1.4735916 [Stand: 08.10.2022] [7]

Kemble, Emma; Pérez, Lucy; Sartori, Valentina; Tolub, Gila; Zheng, Alice (2022): The dawn of the FemTech revolution. In: McKinsey & Company, Ausgabe vom 14.02.2022. Online unter https://www.mckinsey.com/industries/healthcare-systems-and-services/our-insights/the-dawn-of-the-femtech-revolution [Stand: 05.11.2022] [3]

Lomas, Natasha (2021): Flo gets FTC slap for sharing user data when it promised privacy. In: TechCrunch, Ausgabe vom 13.01.2021. Online unter https://techcrunch.com/2021/01/13/flo-gets-ftc-slap-for-sharing-user-data-when-it-promised-privacy/ [Stand: 30.10.2022] [14]

Mozilla Foundation (2022): Privacy not included: A buyer’s guide for connected products. Zuletzt aktualisiert am 15.11.2022. Online unter https://foundation.mozilla.org/en/privacynotincluded/categories/reproductive-health/ [Stand: 15.11.2022] [13]

Rosato, Donna (2020): What your period tracker app knows about you, Ausgabe vom 22.01.2020. Online unter https://www.consumerreports.org/health-privacy/what-your-period-tracker-app-knows-about-you-a8701683935/ [Stand: 03.11.2022] [10]

Siapka, Anastasia; Biasin, Elisabetta (2021): Bleeding data: the case of fertility and menstruation tracking apps. In: Internet Policy Review, Jg. 10, H. 4. Online unter https://doi.org/10.14763/2021.4.1599 S. 2 [5]

Torchinsky, Rina (2022): How period tracking apps and data privacy fit into a post-Roe v. Wade climate. In: NPR, Ausgabe vom 10.05.2022. Online unter https://www.npr.org/2022/05/10/1097482967/roe-v-wade-supreme-court-abortion-period-apps [Stand: 05.10.2022] [17]

Bildquellen

Beitragsbild und Bild 1: https://flic.kr/p/2nMcWpX, Bearbeitet durch Mira Le.

Bild 2: ©Flo Health Inc, Screenshot

Big Data und Datenschutz – Wunschdenken oder bereits Realität?

Autor: Philippe Paszkier


Wir alle kennen es, man spricht mit einem Freund oder Partner über irgendein Produkt o.ä. ohne dabei überhaupt das Handy entsperrt zu haben und dann möchte man etwas googeln und die Werbung handelt von dem eben besprochenen Thema. Ich meine klar, hat so seine Vorteile da weiter machen zu können, wo die Unterhaltung aufgehört hat. Aber ist das nicht eigentlich ein bisschen unheimlich, dass dir dein Smartphone immer zuhört und alles mitbekommt, was man in dessen Umgebung sagt? Passieren tut das durch Big Data.

Was ist denn eigentlich Big Data?

Der Begriff Big Data beschreibt eine große Masse an personenbezogenen Daten, die Unternehmen wegen ihrer Schnelllebigkeit und Komplexität zu Analysezwecken nutzen. Unter den Begriff fallen unter anderem Daten in Form von Zahlen, Texten, Standortverläufen, Videos, Zahlungsunterlagen, Bilder oder auch das gesprochene Wort.

3V-Modell

Der Branchenanalytiker Douglas Laney beschrieb Big Data mit dem 3V-Modell. Das erste V steht für Velocity, also die Geschwindigkeit, mit der neuen Daten ankommen und man diese verarbeiten muss. Dann gibt es noch das Volume, also die gesamte Masse an Daten aus den unterschiedlichsten Quellen. Als drittes V gibt es Variety, welches die Vielfalt der Formen der gesammelten Daten beschreibt. Aber im Laufe der Zeit kamen weitere Vs dazu. So auch das V für Variability, also der Schwankung des Datenflusses und Form der Daten. Des Weiteren gibt es noch Veracity, was die Richtigkeit der Daten beschreibt und diese einordnet und sortiert. Je nachdem wo man schaut, gibt es noch die Kategorie Value. Diese beschreibt den Geschäftswert der Daten.

Speicherung

Anfang der 2000er fand der Begriff Big Data das erste Mal Einzug in die Köpfe der Menschen. Da fing nämlich die Speicherung und Interpretation von Daten aus dem Internet an. Damals ging es noch eher um das Klickverhalten auf der eigenen Webseite oder die IP-Adresse des Kunden. Von damals zu heute hat sich aber einiges getan, die Form der Daten hat sich geändert und natürlich auch die Datenmenge. Allein im Jahr 2012 wurden weltweit 6,5 Zettabyte an Daten gesammelt. Was ist ein Zettabyte, fragt ihr euch jetzt? Ein Zettabyte steht für EINE MILLIARDE TERRABYTE. Im Jahr 2020 waren es dann auch schon 64,2 Zettabyte. Das bedeutet, dass jeder Mensch, der irgendwie mit dem Internet verbunden ist, durchschnittlich tagtäglich ca. 150 Gigabyte an persönlichen Daten übermittelt. Um sich das mal auf der Zunge zergehen zu lassen, der Film Titanic aus dem Jahr 1997, der wohlgemerkt über drei Stunden läuft, verbraucht in HD einen Speicherplatz von 8,5 Gigabyte.

Screenshot der Statista-Statistik zu Speicherplatz von Big Data

Zweck

Diese unfassbar riesige Menge an Daten wird für Unternehmen interessant, da diese dadurch Zeit in der Entwicklung neuer Produkte und Dienstleistungen einsparen. So analysiert man Trends um zu prüfen, wo es noch Marktlücken gibt. Ein offensichtlicher Vorteil der Big Data Analyse ist auch die personalisierte Werbung. Der Algorithmus weiß, wie man einen am besten anspricht und wofür man sich interessiert, vielleicht sogar besser als man selbst. Des Weiteren können klügere geschäftliche Entscheidungen getroffen werden, da man durch die Echtzeitanalyse, Veränderungen und Unsicherheiten bewerten und dementsprechend handeln kann. Zudem kann die Produktion effizienter gestaltet werden, da der Kunde einem sagt, was man braucht, wenn auch unfreiwillig. Das Gesprochene und geschriebene Wort, so wie Chats oder Sprachnachrichten, wird zum Füttern von Deep Learning KIs genutzt, um die maschinelle Art des Schreibens und Sprechens zu optimieren und menschlicher/natürlicher machen zu können.

Weitere Orte an denen Daten über einen gesammelt werden sind Autos die mit dem Handy und mit dem Internet verbunden sind. Außerdem auch Bankdaten, Smart-Home Gadgets und ihre Assistenten wie bpsw. Alexa oder halt klassische Überwachungsmaßnahmen.

Aufschrei Big Data

Facebook Skandal

Erinnert ihr euch noch ans Jahr 2018? Bevor die Pandemie über uns hereinbrach, brach etwas anderes zusammen. Die Reputation von Facebook. Damals kam nämlich raus, dass Facebook (Meta) Daten von mindestens 87 Millionen Nutzern durch Camebridge Analytica (C.A.) auswerten ließ, um so illegal Werbung für den Trump-Wahlkampf zu machen. Die Muttergesellschaft von C.A., die SCL-Group hat es sich zum Geschäftsmodell gemacht, politische Wahlen und Stimmungen durch Big Data Auswertung zu beeinflussen.

Auswertung

Big Data ist aber nicht nur für Meta ein Geschäftsmodell. Google und TikTok machen nichts anders. Es wird alles gespeichert, von der Sucheingabe (was suchst du, wie suchst du es, was schreibst du, welche Wörter nutzt du) bis zurzeit, die du brauchst um dich für ein Ergebnis zu entscheiden. Was klickst du auf der Seite an? Wie lange bist du auf der Seite unterwegs? Wo geht es nach dem Besuch der Webseite hin? Wie schnellt scrollst du weiter? Welche Webseiten besuchen deine Freunde und Familie? All das wissen die Unternehmen wie C.A. schon bevor du selbst irgendwas gemacht hast. Jeder Schritt wird verfolgt, jede neue Suche, jede Meinungsänderung wird wahrgenommen. Man wird komplett durchleuchtet.

Social-Credit-Score

Kleiner Funfact am Rande, wusstest du, dass Big Data der Grundbaustein für den Social-Credit-Score in China ist? So wird genau erkannt, wo du wie viel reininvestiert, was du mit deinem Alipay Account bezahlt und ob du dein Leihfahrrad auch wieder am richtigen Ort abgestellt hast. Das in Verbindung mit ausgereifter Gesichtserkennungssoftware an öffentlichen Plätzen und du bist durchsichtig. Dadurch, dass heutzutage alles miteinander verbunden ist und alles einfacher werden soll, wird auch vieles noch komplizierter. So auch das Profil was Meta über Nicht-Nutzer anlegen kann, welches auf Daten basiert, die von Bekannten irgendwie irgendwo gespeichert worden sind und die Organisation Zugriff drauf hat.

kurzer Einblick in das System Social-Credit-Score

Wert

Es gibt noch ewig viele Beispiele, was mit Big Data überall auf der Welt gemacht wird und wie man mehr und mehr die Entscheidungsgewalt über sich selbst abgibt. Aber eine Frage ist noch interessant, auf die ich noch nicht eingegangen bin. Wie viel sind diese Daten eigentlich Wert? Auch wenn man Big Data als das Erdöl der digitalen Wirtschaft bezeichnet, kann ich hier leider keine sichere Zahl nennen. Aber ich möchte nur so viel sagen, dass die E-Scooter, die man überall in der Stadt sieht, mit einer durchschnittlichen Lebensdauer von wenigen Monaten, so viele Daten über uns sammeln, dass die Unternehmen locker an die Börse gehen können. Und das nur durch den Verkauf der gesammelten Daten.

Emissionen

Ach so, ganz vergessen. Diese Zettabyte an Daten, die anfallen, müssen irgendwo gespeichert werden. Und wo macht man das? Genau. In riesigen Rechenzentren, die weltweit im Jahr 2020 zwischen 100 und 500 Millionen Tonnen CO2 ausgestoßen haben. Und das Problem hierbei ist, dass es nur noch mehr wird. Es werden mehr Menschen -> mehr Menschen, die einen Internetzugang haben -> mehr Daten -> mehr Server -> mehr Rechenzentren -> mehr CO2. Aus einer ARTE Dokumentation habe ich entnommen, dass im Jahr 2025 geschätzt wird, dass 25 % des gesamten Energieverbrauches nur auf Rechenzentren zurückzuführen sind.

Rechenzentrum von Meta in Odense

Die Datenschutzgrundverordnung (DSGVO)

Doch wie sieht das Ganze in der Europäischen Union aus? Was für Vorgaben gibt es hier?

In der EU wurde im Jahr 2016 die DSGVO eingeführt. Die erste Datenschutzbestimmung kam aus dem Jahr 1995, als das Internet noch lange nicht den Umfang angenommen hat wie heute. Die DSGVO soll somit alle datenschutzrechtlichen Themen und Rechte aus den unterschiedlichen Mitgliedsstaaten für die gesamte EU festhalten. Der Grund für die Einführung der neuen Verordnung ist, dass Unternehmen einen festen Fahrplan brauchen, wie sie mit den personalisierten Daten umzugehen haben, um nicht das Persönlichkeitsrecht der Nutzer und Besucher zu verletzen. Folgende Grundlagen werden deshalb in der DSGVO festgehalten:

  1. Rechtmäßigkeit (Ob die Daten verarbeitet werden dürfen/ wenn ja wie)
  2. Transparenz (welche Daten werden verarbeitet)
  3. Zweckbindung (nur für bestimmten Zweck)
  4. Speicherbegrenzung (Daten müssen gelöscht werden, wenn irrelevant oder gewollt)
  5. Richtigkeit (keine falschen Daten verwenden)
  6. Datenminimierung (Menge für Zweck angemessen)
  7. Integrität und Vertraulichkeit (Schutz vor unfreiwilliger Weitergabe)
  8. Rechenschaftspflicht (Dokumentation des Verarbeitungsprozesses)
Neue Datenschutzregeln

direkter Widerspruch

Das Problem hierbei ist jedoch, dass Big Data ein Sammelbegriff für solche Daten ist. Somit ist festzuhalten, dass Big Data an sich gar nicht den Prinzip der Datenminimierung einhalten kann. Big Data sammelt nicht nach einem Zweck, sondern die Daten an sich bestimmen zu welchem Zweck sie dienen. Vergleichbar ist das mit der Vorratsdatenspeicherung, die hierzulande für Aufsehen gesorgt hatte, da diese ab 2015 gegen das EU-Recht verstoßen hat. Big Data ist das, nur in noch größer… Die einzige Ausnahme sind Kinder, denn ihre Daten dürfen nicht analysiert werden. Da frage ich mich nur, woher wissen die denn, ob es sich um ein Kind handelt?

Witzige finde ich persönlich ja auch, dass in der DSGVO der Begriff Big Data unter dem Punkt Profiling fällt. Allein dieses Wort beschreibt die Existenzgrundlage der Big Data. Man versucht damit ein Bild oder Profil des Nutzers zu schaffen, mit all seinen guten und schlechten Seiten, Kreditwürdigkeit, Essgewohnheiten und alles was zum Leben dazugehört. Sozusagen ein Freundebuch, nur dass wir keine Freunde sind, sondern ein Stalkingopfer, ohne uns darüber bewusst zu sein.

Positive Entwicklung

Aber es muss trotzdem festgehalten werden, dass die restlichen Maßnahmen einen ernsthaften Unterschied im Umgang mit unseren Daten ausmachen. So wird beispielsweise die Dokumentation des Verarbeitungsprozesses eine besonders wichtige Aufgabe, denn dadurch kann nachvollzogen werden, was ausgewertet worden ist und ob das Unternehmen die Analyse solcher Daten valide begründen kann. Außerdem muss eine Risikoanalyse der Datenverarbeitung entwickelt werden und aufgefallene Risiken an die dafür zuständige Aufsichtsbehörde weitergeleitet werden. Einen weiteren positiven Faktor bringt die DSGVO noch mit sich. Dadurch, dass die Datenschutzproblematik mitten in der Öffentlichkeit steht, werden die unterschiedlichen Umgänge mit personenbezogenen Daten ein durchaus wichtiger Wettbewerbsfaktor für viele Unternehmen. Aber nur für die Unternehmen innerhalb der EU. Im EU-Ausland sieht das ganze anders aus.

Eine Expertenmeinung

Die Expertin ist Prof. Yvonne Hofstetter. Sie ist Autorin, Juristin und Essayistin, welche in Softwareunternehmen tätig ist und sich um die “Positionierung von Multi-Agentensystemen bei der Rüstungsindustrie und für den algorithmischen Börsenhandel” kümmert, schilderte in einem Vortrag vom YouTube-Kanal BildungsTV aus dem Jahr 2014, wie das Geschäft mit Big Data funktioniert. So beschreibt sie unter anderem, dass der Finanzmarkt durch die Auswertung jeglicher verfügbaren Informationen, dem Militärsektor sehr ähnelt. So funktioniert der teilweise illegale Hochfrequenzhandel, bei dem Händler und Banken zusammenarbeiten, um dem Investor die Aktien möglichst teuer, weiterzuverkaufen. Auch Aktienpreise werden durch Algorithmen, die durch Unmengen an Finanzdaten gefüttert werden, gedrückt bzw. manipuliert. Außerdem zeigt sie das Ziel der Big Data Analyse im Wirtschaftssektor auf, welches ist, den Menschen zu manipulieren.

Das Beispiel

Der Wirtschaftlicher Erfolg ist nicht der einzige Zweck der durch Verarbeitung großer Datenmengen verfolgt wird. So habe sie einst an einem Projekt dem LKA Bayern mitgeholfen, bei dem man überprüfen wollte, ob sich der Drogenhandel von der einen Stadt in die andere verlegt hat. Dafür wurde ausgewertet, welche Delikte begangen worden sind, wer mit wem im Gefängnis saß, wer mit wem verwandt ist oder wer mit wem schonmal etwas zu tun hatte. Durch diese Analyse wurde dann klar, dass sich sowohl die Gruppierung, verantwortlich für den Drogenhandel geändert hatte, als auch Informationen über den Hintermann. Problematisch ist es nur dann geworden, als die Vorstrafen des Mannes gelöscht worden sind, jedoch das Wissen der Hintermann-Tätigkeit noch immer bestand. Das LKA entschied sich dann für den Datenschutz und das Löschen dieser Informationen, nachdem das Löschdatum von einem Rohdatensatz überschritten worden war.

Das Problem

Frau Professor Yvonne Hofstetter sieht das große Problem darin, dass die Technik, die zur Überwachung von Personen einst nur dem Militär zur Verfügung stand, jetzt auch im Privatsektor zu finden ist. Aber der Zweck ist kein anderer. So sagt sie unter anderem: “Wir, wir sind die Ursache für riesige Milliardengewinne bei Google oder Facebook, aber wir kriegen nichts dafür. Wir werden wie ich gerade gesagt habe, ausgebeutet.”

Forderungen

So fordert sie zu einem das Recht auf Gegenleistung für die eigenen Daten. Zudem ein Recht der Kontrolle und die damit verbundene Löschung der Daten. Zuletzt das Recht auf negative Freiheit, was so viel heißt wie, dass man keinen Nachteil durch die Nicht-Nutzung von digitalen Technologien erleidet. Diese Punkte wurden zum Teil in der DSGVO von 2018 umgesetzt und zu EU-Recht gemacht. So beispielsweise das Fenster, in dem man seine Cookies bestimmen kann.

Fazit

Nun denn, was halten wir nun von Big Data? Big Data hat sowohl Vorteile als auch massive Nachteile. Die Analyse der Daten hat zur Folge, dass zukünftige Ereignisse vorhergesagt werden oder bessere Entscheidungen getroffen werden können. Prozesse und Lieferketten können optimiert werden. Werbung wird immer besser die Zielgruppe ansprechen und Dinge über die man gerade gesprochen hat, schon als Werbung angezeigt bekommen. Irgendwie entsteht das digitale Abbild eines Selbst. Nur kommt man hier wieder zu dem unausweichlichen Kritikpunkt, dass der Mensch zum Produkt gemacht wird und eigentlich nichts von der Analyse der eigenen Daten hat. Der Mensch wird manipuliert und unterbewusst zu Entscheidungen gezwungen. Klar sollte sein, dass das eine kritische Entwicklung des Kapitalismus ist. Nur nicht von staatlicher Seite, sondern von Milliardenunternehmen, die nichts mehr interessiert, als uns zu Geld zu machen. Daher, passt, auf was ihr macht. Alleine seid ihr nie.

Die Datenschutzgrundverordnung, versucht hier die Sicherheit für die Nutzer zu wahren, bzw. wiederzuerlangen. Problematisch hierbei ist jedoch, dass nur 20 % der bei einer Bitkom-Umfrage befragten Unternehmen die DSGVO komplett umsetzt. 60 % der Unternehmen sagen, dass man in Deutschland mit dem Datenschutz übertreibe. Gut 80 % der Unternehmen haben fünf Jahre nach DSGVO Verabschiedung noch immer Probleme die Vorgaben durchzusetzen. Aber zumindest haben 60 % der Befragten angeben können, zumindest den Großteil der DSGVO umsetzten zu können. Ein Schritt in die richtige Richtung. Aber fertig sind wir noch lange nicht.

Quellen

Höhepunkt mit Risiko: Security- und Datenschutzprobleme bei smarten Sex-Toys

Autor:innen: Larissa Schmidt und Jonas Reinhard

Der Anteil an Smarten Sexspielzeugen nimmt immer weiter zu, allerdings stellen Sicherheitslücken und mangelnde Datensparsamkeit bei den Geräten ein Problem dar.

Sehen harmlos aus, schnorcheln aber deine Daten ab: Smarte Sextoys (stock.adobe.com)

Im Jahr 2018 stellte Werner Schober in seinem Vortrag auf dem Chaos Communication Congress mit dem Titel Internet of Dongs – A long way to a vibrant Future den Inhalt seiner Recherche zu den Security-Problemen bei dem Device “Vibratissimo Panty Buster” vor. Die Recherche bildete die Grundlage seiner Diplomarbeit. Bei einem Penetration Test war es ihm möglich, auf die Hersteller-Datenbank, auf dessen Server und dadurch auch auf Nutzer:innendaten, wie explizite Fotos, Chatverläufe, sexuelle Orientierung, E-Mail Adressen, gespeicherte Passwörter in Klartext, etc., zuzugreifen. Außerdem konnte er sowohl über die App, als auch über eine Bluetooth-Verbindung auf fremde Geräte zugreifen und diese steuern.

Seitdem hat die Zahl von sogenannten Smarten Sextoys immer weiter zugenommen. Laut einer Recherche von Juniper Research waren im Jahr 2019 etwa 19 Millionen dieser Geräte im Einsatz. 2020 stieg die Zahl um 87% auf 36 Millionen an. Die Zahl der bekannt gewordenen Sicherheitslücken stieg mit. Es sind sozusagen sexuell übertragbare Sicherheitslücken.

Diese Entwicklung bringt zahlreiche Risiken für die eigene (IT-)Sicherheit mit sich. Beispielsweise gelang es Hackern, Kontrolle über einen Smarten Keuschheitsgürtel zu übernehmen. Die Angreifer verlangten von ihren Opfern ein Lösegeld von 0.02 Bitcoin (entspricht derzeit etwa 674 €). “Your Cock is mine now”, lautete die Erpresser-Botschaft der Hacker. Die Schwachstelle, eine ungeschützte API (Programmierschnittstelle), wurde bereits im Oktober des Vorjahres bekannt.

The Cellmate chastity lock works by allowing a trusted partner to remotely lock and unlock the chamber over Bluetooth using a mobile app. That app communicates with the lock using an API. But that API was left open and without a password, allowing anyone to take complete control of any user’s device.

Zack Whittacker (Techcrunch)

Diesen Vorfall griff auch der Comedian John Oliver in seiner Show “Last Week Tonight” auf.

Doch nicht nur ungeschützte APIs und ungesicherte Bluetooth-Verbindungen sind ein Problem: Viele Devices wollen zusätzlich auf viele Daten zugreifen, die sie in der Nutzung überhaupt nicht brauchen. So will beispielsweise ein Beckenbodentrainer des Herstellers “Perifit”, mit dem man Spiele wie “Flappybird” steuern kann, Zugriff u.a. auf Kontakte, Gesundheits- und Fitnessdaten sowie Standort der Nutzer:innen. Man kann von einem regelrechten Datenfetisch der Hersteller sprechen.

Viele dieser Smarten Sextoys werden teuer verkauft. Die Shops, in denen sie vertrieben werden, werben mit diskreter Verpackung und dem Schutz der Privatsphäre beim Versand.

Mit dem Useraccount verlinkte Daten bei der App “Perifit” des Entwicklers X6 Innovations. (Screenshot)
Qualitätsversprechen eines Online-Erotikshops (Screenshot)

Die Produkte sind oft sehr kostspielig und Verkäufer und Hersteller betonen die hohe Qualität der Produkte. Die Sicherheit, die den Käufer:innen hier vermittelt wird, lässt sich im Digitalen leider vermissen.

Es wäre schön, wenn Hersteller dies in Zukunft stärker in Betracht ziehen würden.

Letztenendes ist es am Besten beim Kauf darauf zu achten, auf welche Nutzer:innendaten (z.B. Kontakte, Suchverlauf im Browser, Standort) die zugehörigen Apps zugreifen möchten und diese Zugriffe gegebenenfalls in den Telefoneinstellungen zu unterbinden. Gerade beim Kauf von Sexspielzeug, dessen Missbrauch körperliche Schäden verursachen kann (z.B. ButtPlugs, die sich nicht mehr entfernen lassen), ist es empfehlenswert, auf manuelle Möglichkeiten der Deaktivierung zu achten.

Wer auf dem neuesten Stand bleiben möchte oder sogar helfen will, Smarte Sextoys sicherer zu machen, sollte sich unbedingt die folgenden Blogs anschauen:

BestOf Bachelor: Webseitenübergreifende Nutzerverfolgung ohne Verwendung von Cookies in der EU

BestOf Bachelor: Webseitenübergreifende Nutzerverfolgung ohne Verwendung von Cookies in der EU

In seiner sehr gut gelungenen Bachelorarbei behandelt Valentin Griese das Thema “Realisierbarkeit der webseitenübergreifenden Nutzerverfolgung ohne die Verwendung von Cookies in der Europäischen Union“.

Abstract

Die Nutzerverfolgung im Internet durch die Verwendung von Browsercookies ist gängige Praxis, doch haben diverse datenschutzrechtliche Entwicklungen der letzten Jahre zugunsten der Verbraucher diese Form des Trackings in vielerlei Hinsicht eingeschränkt und auch die Usability von Websites maßgeblich beeinträchtigt. Um weiterhin eine Personalisierung von Werbung und anderen Inhalten unter Wahrung der Nutzbarkeit und Rechte der Nutzer zu gewährleisten, ist es unausweichlich, eine neue Methode zur Identifizierung von Besuchern zu etablieren. Das Ziel dieser Arbeit ist, verschiedene Trackingtechnologien unter Berücksichtigung gegebener Rahmenbedingungen im Rechtsraum der Europäischen Union in ihrer Funktionsweise zu vergleichen und die nach derzeitigem Stand realistische Nachfolgetechnologie zum Tracking via Cookies zu benennen – Fingerprinting. Dieses überzeugt in Bezug auf seine Langlebigkeit und rechtliche Vereinbarkeit, den Implementierungsaufwand sowie den Umfang der sammelbaren Daten. Darauf aufbauend ist eine statistische Untersuchung zur Verbreitung von Methoden aus dem Feld des Fingerprintings auf den meistgenutzten Internetseiten durchgeführt worden. Dabei ergibt sich, dass Informationen, die zur Erstellung eines Fingerprints genutzt werden können, von fast allen Websites abgefragt werden, jedoch durchschnittlich nur wenige verschiedene Arten von Fingerprints genutzt werden. Auf einigen Websites werden durch größere dritte Unternehmen Fingerprints erfasst, der Opt-in-Status hingegen hat in den meisten Fällen für die Praktizierung von Fingerprinting keine Relevanz. Da Fingerprinting auch für schädliche Zwecke, zum Beispiel das Verteilen von potenterer Schadsoftware, verwendet werden kann, ist die Reaktion von Browserentwicklern und -nutzern auf die Entwicklung von derzeitigen und zukünftigen Fingerprintingkonzepten ungewiss, und auch die rechtliche Lage der nächste Jahre hängt von angekündigten Verordnungen ab, die in ihrem Inhalt noch nicht bekannt sind.

Die Bachelorarbeit von Valentin wurde vorbildlich über SerWisS veröffentlicht und ist als Volltext zu finden unter:

https://doi.org/10.25968/opus-1717

Bildquelle:  unsplash.com/dor_farber