in den vergangenen Jahrzehnten haben sich Fachgebiete wie Webtechnologie, Medieninformatik, interaktive Medien, Educational Technology oder Datenvisualisierung als eigenständige und zugleich anwendungsorientierte Disziplinen etabliert. Sie prägen maßgeblich, wie Informationen gestaltet, vermittelt und erfahrbar gemacht werden – ob im Web, in der Lehre (z.B. im Studiengang Informationsmanagement) oder in interaktiven Systemen.
Gleichzeitig verändert sich das Verständnis dieser Disziplinen im Zuge technologischer, gesellschaftlicher und kultureller Dynamiken. Insbesondere die zunehmende Verfügbarkeit intelligenter Systeme, generativer KI und interaktiver Real-Time-Technologien erweitert nicht nur die Werkzeugsets dieser Disziplinen, sondern verschiebt auch deren theoretische und gestalterische Grundlagen.
Interdisziplinär und integrativ: Information Design und Creative Technology
Vor diesem Hintergrund gewinnen Creative Technology und Information Design als interdisziplinäre und integrative Fachgebiete an Bedeutung. Sie verbinden kreative Gestaltungspraktiken mit technologischer Expertise und stellen den Menschen als Akteur im physisch-digitalen Raum in den Mittelpunkt. Dabei geht es nicht nur um die technische Umsetzung, sondern auch um Fragen wie z.B. der kritischen Reflektion, gesellschaftlichen Relevanz, Zugänglichkeit, Verständlichkeit, Ethik, Partizipation und Ästhetik.
Gerade im Zeitalter von Creative AI entstehen neue Formen der kollaborativen Gestaltung zwischen Mensch und Maschine, die tradierte Grenzen zwischen Entwickler*innen, Designer*innen und Nutzer*innen auflösen. Dies erfordert neue Kompetenzen – von der kritischen Reflexion über KI-generierte Inhalte bis zur gestalterischen Integration intelligenter Systeme in Lern-, Arbeits- und Kommunikationsprozesse.
Creative Technology und Information Design reagieren auf diese Entwicklungen mit offenen, experimentellen und zugleich praxisorientierten Ansätzen, die technisches Wissen, Designmethodik, Datenkompetenz und gesellschaftliche Verantwortung/Haltung vereinen – mit dem übergeordneten Ziel, eine humane, verstehbare und gestaltbare Zukunft mitzuentwickeln. Auch die Grenzen zwischen physischem und digitalem Raum verschwimmen immer mehr.
Mit Neuerungen des Curriculums im Studiengang Informationsmanagement in 2024 und unter Berücksichtigung gesellschaftlich-technologischen Entwicklungen vereint Information Design als Vertiefung im Studiengang Informationsmanagement klassische Kompetenzen mit neuen, interdisziplinären Anforderungen. Ein zentraler und integrativer Bestandteil von Information Design ist der Einsatz kreativer Technologien (Creative Technology) mit Fokus auf Creative AI.
In einer Welt, in der Künstliche Intelligenz immer mehr Aufgaben übernimmt, bleibt die Fragen: Verdienen wir Abschlüsse, wenn KI die Arbeit erledigt?&Welche Rolle spielt noch die Hochschulbildung?
Mal ehrlich, wie viele von uns haben bei der letzten Hausarbeit oder Prüfung nicht schon mal heimlich ChatGPT oder andere KI-Tools benutzt? Es ist so einfach: Frag die KI, lass sie dir was raushauen, und zack – fertig. Aber das wirft eine ziemlich große Frage auf: Wenn wir uns jetzt schon so sehr auf KI verlassen, wie fit sind wir dann wirklich für die Arbeitswelt nach dem Studium?
In diesem Beitrag geht’s genau darum: Wie verändert KI unsere Hochschulbildung und unsere Zukunft als Absolvent:innen? Werden wir noch die Skills haben, die wir wirklich brauchen, oder macht uns die KI ein bisschen zu bequem?
2. Die aktuelle Situation der KI in der Hochschulbildung
Die Nutzung von KI-Tools hat in der Hochschulbildung einen festen Platz eingenommen. Eine aktuelle Umfrage zeigt, dass über 63 % der Studierenden in Deutschland KI-Tools wie ChatGPT mindestens einmal während ihres Studiums verwendet haben. Besonders auffällig: 25 % setzen diese Tools regelmäßig oder sehr häufig ein. Dies verdeutlicht, wie stark KI in der Hochschulbildung bereits den Alltag an Universitäten und Hochschulen prägt.
Beliebte Tools und ihre Nutzung:
ChatGPT: Fast die Hälfte der Studierenden (49 %) setzt auf ChatGPT, vor allem für Ideenfindung, das Verfassen von Hausarbeiten und die Bearbeitung komplexer Themen.
DeepL: Etwa 12 % nutzen dieses Tool für präzise Übersetzungen und das Verständnis fremdsprachiger Literatur.
Grammarly: Dieses Tool wird zur Optimierung der Grammatik und Sprache von Texten genutzt und ist besonders beliebt für formale Aufgaben.
Die Einsatzbereiche dieser Tools sind vielfältig: Sie reichen von der Ideenfindung über Datenanalysen bis hin zur Verbesserung von Texten und Übersetzungen. Diese Tools bieten klare Vorteile, indem sie Routineaufgaben vereinfachen und Studierenden helfen, Zeit zu sparen – ein weiterer Beleg für die zunehmende Rolle von KI in der Hochschulbildung.
KI und Bildung: Einblicke in die Zukunft
Erfahren Sie, wie KI unser Lernen revolutioniert und Bildung neu definiert! Sehen Sie sich das spannende Video von ZDFheute an:
3. Die Folgen der KI in der Hochschulbildung für das Studium
Der verstärkte Einsatz von KI im Studium wirft eine wichtige Frage auf: Verlieren Studierende grundlegende Schlüsselkompetenzen, wenn immer mehr Aufgaben automatisiert erledigt werden? Wenn KI zunehmend die Ideenfindung und Problemlösung übernimmt, könnte es zu einem Rückgang des kritischen Denkens, der Selbstständigkeit und der Fähigkeit zum tiefen Lernen kommen. Doch was passiert, wenn Studierende sich zu sehr auf KI in der Hochschulbildung verlassen und die Herausforderung verlieren, selbst komplexe Problemlösungsprozesse zu durchlaufen?
Ein weiteres Risiko besteht darin, dass Studierende ihre Denkprozesse und Entscheidungsfindung immer stärker KI-Systemen überlassen. Diese Abhängigkeit könnte langfristig die Selbstständigkeit und Eigenverantwortung beeinträchtigen, da das Vertrauen in KI dazu führen könnte, dass eigenes analytisches Denken und Lernprozesse in den Hintergrund treten.
Stell dir vor, ein Python-Programmierer kann ohne KI nicht mal die einfachsten Codezeilen schreiben, oder ein Webentwickler ist nicht in der Lage, eine eigene Portfolio-Seite zu erstellen, ohne auf KI zurückzugreifen. Studien zeigen, dass Studierende oft mit hohen Noten durch Kurse kommen, ohne wirklich das tiefere Verständnis des Lernstoffs zu erlangen. Dies wirft eine wichtige Frage auf: Studieren wir wirklich, um Fähigkeiten zu erlernen, die uns in der Arbeitswelt voranbringen? Oder geht es uns am Ende nur darum, den Abschluss zu bekommen, ohne die nötigen praktischen Kompetenzen zu besitzen?
Aber: Kann KI in der Hochschulbildung uns auch produktiver machen?
Der gezielte Einsatz von KI-Tools kann Studierenden helfen, ihre Produktivität zu steigern und gleichzeitig ihre Lernprozesse zu optimieren. Studien zeigen, dass KI insbesondere bei der Recherche und Strukturierung von Lernmaterialien hilfreich sein kann. So ermöglicht etwa ChatGPT eine effiziente Ideensammlung und hilft, komplexe Themen in einfachere Abschnitte zu unterteilen. Das spart nicht nur Zeit, sondern fördert auch das Verständnis und die Retention von Wissen.
Darüber hinaus bieten Übersetzungs-Tools wie DeepL eine schnelle und präzise Möglichkeit, mehrsprachige Quellen zu nutzen, ohne die Qualität der Informationen zu verlieren. Das hilft Studierenden, einen breiteren Zugang zu wissenschaftlichen Arbeiten und Fachliteratur zu erhalten. Grammarly wiederum kann als Rechtschreib- und Grammatikhilfe nicht nur die sprachliche Qualität von Hausarbeiten verbessern, sondern auch Studierenden helfen, sich klarer und präziser auszudrücken.
Eine Studie von JISC und EAB zeigt, dass die Integration von KI-Tools in den Lernalltag zu einer besseren Zeitnutzung führt, da Studierende weniger Zeit mit administrativen oder repetitiven Aufgaben verbringen und sich stärker auf kreative und analytische Aufgaben konzentrieren können. So bietet KI in der Hochschulbildung nicht nur eine Entlastung, sondern fördert auch die Konzentration auf wesentliche Lerninhalte.
Insgesamt lässt sich sagen, dass KI in der Hochschulbildungdas Potenzial hat, Studierenden zu mehr Effizienz und Produktivität zu verhelfen – vorausgesetzt, sie wird verantwortungsvoll und gezielt eingesetzt. Die entscheidende Frage ist: Wie finden wir eine Balance zwischen der Nutzung von KI zur Steigerung der Produktivität und der Förderung eigener Kompetenzen, um sicherzustellen, dass wir nicht nur Abhängigkeiten schaffen, sondern auch Fähigkeiten aufbauen, die uns langfristig weiterbringen?
4. Wie können Hochschulen auf die Integration von KI in der Hochschulbildung reagieren?
Eine der zentralen Herausforderungen für Hochschulen im Umgang mit der zunehmenden Nutzung von KI durch Studierende liegt darin, sowohl Chancen als auch Risiken dieser Technologien zu erkennen und darauf gezielt zu reagieren. Um KI verantwortungsvoll in der Hochschulbildung zu integrieren, könnten Universitäten neue Ansätze entwickeln, die sowohl die Fähigkeiten der Studierenden als auch die Anforderungen des modernen Arbeitsmarktes berücksichtigen.
“AI in Schools: Cheater or Tutor?” von Paul Matthews, präsentiert bei TEDxHobart
Vorschläge zur Anpassung
Ein erster Schritt könnte die Einführung von KI-Literacy-Workshops sein, in denen Studierende lernen, wie sie KI-Tools wie ChatGPT effektiv und kritisch nutzen können. Diese Workshops sollten darauf abzielen, die Funktionsweise, Grenzen und Risiken solcher Technologien zu verdeutlichen, damit Studierende fundierte Entscheidungen treffen können. Darüber hinaus könnten KI-Projekte fest in die Curricula integriert werden, um den Studierenden praktische Fähigkeiten zu vermitteln, wie zum Beispiel das Programmieren von KI-Anwendungen oder die Nutzung von KI in der Datenanalyse.
Auch die Lehrenden könnten stärker unterstützt werden. KI-gestützte Lehrmethoden könnten helfen, repetitive Aufgaben wie das Korrigieren von Hausarbeiten zu automatisieren, während mehr Zeit für direkte Interaktion mit den Studierenden bleibt. Interaktive Lernplattformen, die auf KI basieren, könnten zudem eingesetzt werden, um individuelle Lernwege zu fördern.
Anpassungen in der Hochschulpolitik zur Förderung von KI in der Hochschulbildung
Ein weiterer wichtiger Ansatzpunkt ist die Anpassung der Richtlinien zur Nutzung von KI in der Hochschulbildung. Universitäten sollten klare Leitlinien entwickeln, die festlegen, in welchen Kontexten KI-Tools erlaubt sind und wann deren Nutzung als Verstoß gegen akademische Integrität gilt. Gleichzeitig könnte von den Studierenden verlangt werden, die Nutzung von KI in ihren Arbeiten transparent offenzulegen.
Um dem Risiko von Plagiaten entgegenzuwirken, könnten neue Tools eingeführt werden, die KI-generierte Inhalte identifizieren können. Für Programmieraufgaben könnten spezielle Analyseprogramme eingesetzt werden, die zeigen, wann und wie Tools wie GitHub Copilot oder ChatGPT verwendet wurden. Dies würde nicht nur den Missbrauch von KI eindämmen, sondern auch eine gezielte Nachverfolgung der Lernfortschritte ermöglichen.
Neue Prüfungsformen
Schließlich sollten auch die Prüfungsformate überdacht werden. Praktische Prüfungen, die persönliche und praxisnahe Fähigkeiten betonen, könnten sicherstellen, dass Studierende den Stoff wirklich beherrschen. Gleichzeitig könnten offene Aufgabenstellungen, bei denen der Einsatz von KI erlaubt ist, die Reflexionsfähigkeit fördern. Studierende könnten aufgefordert werden, detailliert zu dokumentieren, wie sie KI eingesetzt haben und warum sie diese Ansätze gewählt haben.
Durch diese Maßnahmen könnten Hochschulen eine Balance zwischen der Nutzung von KI in der Hochschulbildung und der Förderung eigenständiger Kompetenzen schaffen, sodass Studierende bestmöglich auf eine zunehmend digitalisierte Arbeitswelt vorbereitet werden.
5. Fazit: KI in der Hochschulbildung zeigt, dass Abschlüsse allein nicht mehr ausreichen – die Art und Weise, wie wir lernen, muss sich anpassen.
Die zunehmende Integration von KI in Bildungsprozesse stellt uns vor die Herausforderung, unser Verständnis von Lernen neu zu definieren. Während KI das Potenzial hat, Studierende produktiver und effizienter zu machen, darf dies nicht auf Kosten grundlegender Kompetenzen wie kritischem Denken, Kreativität und Selbstständigkeit geschehen.
Ein reiner Fokus auf Abschlüsse ohne die dahinterliegenden Fähigkeiten ist in einer sich schnell wandelnden Arbeitswelt nicht mehr ausreichend. ielmehr müssen sowohl Studierende als auch Hochschulen den bewussten und reflektierten Einsatz von KI in der Hochschulbildung im Lernalltag integrieren. Hochschulen tragen dabei eine besondere Verantwortung, die Studierenden nicht nur mit theoretischem Wissen, sondern auch mit den praktischen Werkzeugen auszustatten, um in einer KI-getriebenen Welt erfolgreich zu sein.
Abschließend bleibt zu sagen: Lernen bedeutet mehr als nur Wissen anzusammeln – es geht darum, dieses Wissen aktiv anwenden zu können. Nur durch eine bewusste Kombination von Technologie und menschlichen Fähigkeiten kann eine zukunftsfähige Bildung gewährleistet werden.
Was denkt ihr über die Nutzung von KI in der Hochschulbildung? Teile gerne eure Meinung in den Kommentaren! 🚀
Ach ja, btw: KI hat bei der Erstellung dieses Beitrags mitgeholfen. ☺️
JISC & EAB. (n.d.). Study on AI integration in educational practices. Insights from their research were referenced conceptually regarding productivity and focus improvements through AI tools in education. Retrieved November 24, 2024, from
https://www.jisc.ac.uk
Durch den kontinuierlichen und raschen Fortschritt in jüngster Zeit auf den Gebieten von Big Data und KI-Technologien sind heutzutage insbesondere Teilbereiche des Informationsmanagements gefragter als je zuvor. Die Rolle des Informationsmanagers und Data Scientists besteht darin, Methoden zur Erfassung und Verarbeitung von Informationen aus unterschiedlichen Datenquellen anzuwenden. Zudem ist er befähigt, Entscheidungen darüber zu treffen, welche Verarbeitungsprozesse zur gezielten Knowledge Discovery aus umfangreichen Datensätzen geeignet sind. Hierbei kommt Data Mining ins Spiel, eine Methode, die die systematische Extraktion relevanter Informationen und Erkenntnisse aus großen Datenmengen umfasst.
In diesem Blogbeitrag werden wir tiefer in das Thema eintauchen und uns einem von vielen Verfahren des Data Mining, genauer der Sentimentanalyse im Text Mining, praxisnah annähern. Dabei bin ich der Ansicht, dass ein tieferes Verständnis erreicht wird, wenn das theoretisch Gelernte eigenständig umgesetzt werden kann, anstatt lediglich neue Buzzwörter kennenzulernen. Ziel ist eine Sentimentanalyse zu Beiträgen auf der Social Media Plattform X (ehemals Twitter) mit Verfahren aus dem Machine Learning bzw. einem passenden Modell aus Hugging Face umzusetzen.
Ihr könnt euch in die Hintergründe einlesen oder direkt zum Coden überspringen.
Data Mining umfasst die Extraktion von relevanten Informationen und Erkenntnissen aus umfangreichen Datensammlungen. Ähnlich wird auch der Begriff „Knowledge Discovery in Databases“ (KDD) verwendet. Die Hauptaufgabe besteht darin, Verhaltensmuster und Prognosen aus den Daten zu identifizieren, um darauf basierend Trends zu erkennen und angemessen darauf zu reagieren. Dieser analytische Prozess des Data Mining erfolgt mithilfe von computergestützten Methoden, deren Wurzeln in den Bereichen Mathematik, Informatik und insbesondere Statistik liegen. Data Mining kann als Teilprozess innerhalb des umfassenden Datenanalyseprozesses verstanden werden, der folgendermaßen strukturiert ist:
Datenselektion (Auswahl relevanter Daten aus einer Datenbank)
Datentransformation (Aufbereitung/Konsolidierung der Daten in eine für das Data Mining passende Form)
Data Mining (Prozess gestützt von intelligenten Methoden zum Extrahieren von Daten-/Verhaltensmustern)
Pattern Evaluation (Identifikation interessanter Muster und Messwerte)
Knowledge Presentation (Präsentieren von mined knowledge durch Visualisierung und andere Repräsenationstechniken)
Data Mining als Teilprozess der Knowledge Discovery / Jiawei Han, Data Mining: Concepts and Techniques (2006)
Die Data Mining Verfahren dienen dazu, den Datenbestand zu beschreiben und zukünftige Entwicklungen vorherzusagen. Hierbei kommen Klassifikations- und Regressionsmethoden aus dem statistischen Bereich zum Einsatz. Zuvor ist es jedoch notwendig, die Zielvariable festzulegen, die Daten aufzubereiten und Modelle zu erstellen. Die gebräuchlichen Methoden ermöglichen die Analyse spezifischer Kriterien wie Ausreißer- und Clusteranalyse, die Verallgemeinerung von Datensätzen, die Klassifizierung von Daten und die Untersuchung von Datenabhängigkeiten.
Zusätzlich zu den herkömmlichen statistischen Methoden können auch Deep Learning-Algorithmen verwendet werden. Hierbei werden Modelle aus dem Bereich des Machine Learning unter Anwendung von überwachtem (bei gelabelten Daten) oder unüberwachtem (bei nicht gelabelten Daten) Lernen eingesetzt, um die Zielvariablen möglichst präzise vorherzusagen. Eine wesentliche Voraussetzung für das Vorhersagemodell ist ein Trainingsdatensatz mit bereits definierten Zielvariablen, auf den das Modell anschließend trainiert wird.
ML-Based Text Mining 🤖
Ein Teilbereich des Data Mining, der auch maßgeblich maschinelles Lernen einbezieht, ist das Text Mining. Hierbei zielt das Text Mining darauf ab, unstrukturierte Daten aus Texten, wie beispielsweise in sozialen Netzwerken veröffentlichte Inhalte, Kundenbewertungen auf Online-Marktplätzen oder lokal gespeicherte Textdateien, in strukturierte Daten umzuwandeln. Für das Text Mining dienen oft Datenquellen, die nicht direkt zugänglich sind, weshalb Daten über APIs oder Web-Scraping beschafft werden. Im darauf folgenden Schritt werden Merkmale (Features) gebildet und die Daten vorverarbeitet. Hierbei erfolgt die Analyse der Texte mithilfe von natürlicher Sprachverarbeitung (Natural Language Processing – NLP) unter Berücksichtigung von Eigenschaften wie Wortfrequenz, Satzlänge und Sprache.
Maschinelles Lernen für Datenvorverarbeitung
Die Vorverarbeitung der Daten wird durch Techniken des maschinellen Lernens ermöglicht, zu denen Folgendes gehört:
Tokenisierung: Hierbei werden die Texte in kleinere Einheiten wie Wörter oder Satzteile, sogenannte Tokens, aufgespalten. Das erleichtert die spätere Analyse und Verarbeitung.
Stoppwortentfernung: Häufige Wörter wie „und“, „oder“ oder „aber“, die wenig spezifische Informationen liefern, werden entfernt, um die Datenmenge zu reduzieren und die Analyse effizienter zu gestalten.
Wortstamm- oder Lemmatisierung: Die Formen von Wörtern werden auf ihre Grundformen zurückgeführt, um verschiedene Variationen eines Wortes zu einer einzigen Form zu konsolidieren. Zum Beispiel werden „läuft“, „lief“ und „gelaufen“ auf „laufen“ reduziert.
Entfernen von Sonderzeichen und Zahlen: Nicht-textuelle Zeichen wie Satzzeichen, Symbole und Zahlen können entfernt werden, um die Texte auf die reinen sprachlichen Elemente zu fokussieren.
Niedrige Frequenzfilterung: Seltene Wörter, die in vielen Texten nur selten vorkommen, können entfernt werden, um Rauschen zu reduzieren und die Analyse zu verbessern.
Wortvektorenbildung: Durch Techniken wie Word Embeddings können Wörter in numerische Vektoren umgewandelt werden, wodurch maschinelles Lernen und Analyseverfahren angewendet werden können.
Named Entity Recognition (NER): Diese Technik identifiziert in Texten genannte Entitäten wie Personen, Orte und Organisationen, was zur Identifizierung wichtiger Informationen beiträgt.
Sentimentanalyse: Diese Methode bewertet den emotionalen Ton eines Textes, indem sie versucht, positive, negative oder neutrale Stimmungen zu erkennen.
Textklassifikation: Mithilfe von Trainingsdaten werden Algorithmen trainiert, um Texte automatisch in vordefinierte Kategorien oder Klassen einzuteilen.
Topic Modeling: Diese Methode extrahiert automatisch Themen aus Texten, indem sie gemeinsame Wörter und Konzepte gruppiert.
Insgesamt kann der Text Mining-Prozess als Teil einer breiteren Datenanalyse oder Wissensentdeckung verstanden werden, bei dem die vorverarbeiteten Textdaten als Ausgangspunkt für weitere Schritte dienen.
The effort of using machines to mimic the human mind has always struck me as rather silly. I would rather use them to mimic something better.
In unserem nächsten Abschnitt werden wir auf die Sentimentanalyse eingehen und schrittweise demonstrieren, wie sie mit Hilfe von Modellen auf Hugging Face für Beiträge auf der Plattform X (ehemalig Twitter) durchgeführt werden kann.
In my feelings mit Hugging Face 🤗
Das 2016 gegründete Unternehmen Hugging Face mit Sitz in New York City ist eine Data Science und Machine Learning Plattform. Ähnlich wie GitHub ist Hugging Face gleichzeitig ein Open Source Hub für AI-Experten und -Enthusiasten. Der Einsatz von Huggin Face ist es, KI-Modelle durch Open Source Infrastruktur und Repositories für die breite Maße zugänglicher zu machen. Populär ist die Plattform unter anderem für seine hauseigene Open Source Bibliothek Transformers, die auf ML-Frameworks wie PyTorch, TensorFlow und JAX aufbauend verschiedene vortrainierte Modelle aus den Bereichen NLP, Computer Vision, Audio und Multimodale anhand von APIs zur Verfügung stellt.
Drake Meme by me
Für die Sentimentanalyse stehen uns über 200 Modelle auf der Plattform zur Verfügung. Wir werden im folgenden eine einfache Sentimentanalyse unter Verwendung von Transformers und Python durchführen. Unsere KI soll am Ende Ton, Gefühl und Stimmung eines Social Media Posts erkennen können.
Viel Spaß beim Bauen! 🦾
Let’s build! Sentimentanalyse mit Python 🐍
Zunächst brauchen wir Daten aus X/Twitter. Da im Anschluss auf die neuen Richtlinien die Twitter API jedoch extrem eingeschränkt wurde (rate limits, kostenspielige read Berechtigung) und es nun auch viele Scraping-Methoden getroffen hat, werden wir bereits vorhandene Daten aus Kaggle verwenden.
Elon Musk übernimmt Twitter und ändert den Namen um zu „X“
1. Datenbereitstellung: Kaggle
Wir entscheiden uns für einen Datensatz, der sich für eine Sentimentanalyse eignet. Da wir mit einem Text-Mining Modell in Transformers arbeiten werden, welches NLP verwendet um das Sentiment eines Textes zuordnen zu können, sollten wir uns für einen Datensatz entscheiden, in dem sich Texte für unsere Zielvariable (das Sentiment) befinden.
Hier kann ein Datensatz aus Kaggle verwendet werden, in dem über 80 Tausend englische Tweets über das Thema „Crypto“ in dem Zeitraum vom 28.08.2022 – 29.08.2022 gesammelt wurde: 🐦 🪙 💸 Crypto Tweets | 80k in English | Aug 2022 🐦 🪙 💸
Wir laden das Archiv herunter und entpacken die crypto-query-tweets.csv in unseren Projektordner.
2. Zielsetzung und Datenvorverarbeitung: Python + Pandas
Wir wollen in einer überschaubaren Anzahl an Tweets das jeweilige Sentiment zuordnen. Dazu schauen wir uns den Datensatz aus der CSV Datei genauer an. Uns interessieren dabei besonders Tweets von verifizierten Usern. Mit der Pandas Bibliothekt läss sich der Datensatz in Dataframes laden und nach bestimmten kriterien filtern.
wir installieren zunächst per pip-install die gewünschte Bibliothek und importieren diese in unsere Codebase.
pip install pandas
Anschließends lesen wir die CSV-Datei ein und filtern entsprechend unseren Wünschen den Datensatz und geben diesen als Dataframe aus.
import pandas as pd
# CSV Datei lesen
csv_file_path = "crypto-query-tweets.csv"
df = pd.read_csv(csv_file_path, usecols=['date_time', 'username', 'verified', 'tweet_text'])
# Filter anwenden um nur verifizierte User zu erhalten
filtered_df = df[df['verified'] == True]
# Printe Dataframe
print(filtered_df)
Wir erhalten folgende Ausgabe von 695 Zeilen und 4 Spalten:
date_time username verified tweet_text
19 2022-08-29 11:44:47+00:00 RR2Capital True #Ethereum (ETH)\n\nEthereum is currently the s...24 2022-08-29 11:44:45+00:00 RR2Capital True #Bitcoin (BTC)\n\nThe world’s first and larges...
25 2022-08-29 11:44:43+00:00 RR2Capital True TOP 10 TRENDING CRYPTO COINS FOR 2023\n \nWe h...
146 2022-08-29 11:42:39+00:00 ELLEmagazine True A Weekend in the Woods With Crypto’s Cool Kids...
155 2022-08-29 11:42:32+00:00 sofizamolo True Shill me your favorite #crypto project👇🏻🤩
... ... ... ... ...
79383 2022-08-28 12:36:34+00:00 hernanlafalce True @VerseOort My proposal is as good as your proj...
79813 2022-08-28 12:30:15+00:00 NEARProtocol True 💫NEARCON Speaker Announcement💫\n\nWe're bringi...
79846 2022-08-28 12:30:00+00:00 lcx True 🚀@LCX enables project teams to focus on produc...
79919 2022-08-28 12:28:56+00:00 iSocialFanz True Friday.. Heading to Columbus Ohio for a Web 3....
79995 2022-08-28 12:27:46+00:00 BloombergAsia True Bitcoin appeared stuck around $20,000 on Sunda...
[695 rows x 4 columns]
3. Twitter-roBERTa-base for Sentiment Analysis+TweetEval
Nun können wir mit Hugging Face Transformers eine vortrainiertes Modell verwenden, um allen Tweets entsprechende Sentiment Scores zuzuweisen. Wir nehmen hierfür das Modell Twitter-roBERTa-base for Sentiment Analysis, welches mit über 50 Millionen Tweets trainiert wurde und auf das TweetEval Benchmark für Tweet-Klassifizierung aufbaut. Weitere Infos unter dieser BibTex entry:
@inproceedings{barbieri-etal-2020-tweeteval,
title = "{T}weet{E}val: Unified Benchmark and Comparative Evaluation for Tweet Classification",
author = "Barbieri, Francesco and
Camacho-Collados, Jose and
Espinosa Anke, Luis and
Neves, Leonardo",
booktitle = "Findings of the Association for Computational Linguistics: EMNLP 2020",
month = nov,
year = "2020",
address = "Online",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/2020.findings-emnlp.148",
doi = "10.18653/v1/2020.findings-emnlp.148",
pages = "1644--1650"
}
Wir installieren alle für den weiteren Verlauf benötigten Bibliotheken.
pip install transformers numpy scipy
Die Transformers Bibliothekt erlaubt uns den Zugriff auf das benötigte Modell für die Sentimentanalyse. Mit scipy softmax und numpy werden wir die Sentiment Scores ausgeben mit Werten zwischen 0.0 und 1.0, die folgendermaßen für alle 3 Labels ausgegeben werden:
from transformers import AutoModelForSequenceClassification
from transformers import AutoTokenizer
import numpy as np
from scipy.special import softmax
import csv
import urllib.request
Wir schreiben eine Methode zum vorverarbeiten des Texts. Hier sollen später Usernamen und Links aussortiert werden. Außerdem vergeben wir das gewünschte Modell mit dem gewünschten Task (’sentiment‘) in eine vorgesehene Variable und laden einen AutoTokenizer ein, um später eine einfach Eingabe-Enkodierung zu generieren.
# Vorverarbeitung des texts
def preprocess(text):
new_text = []
for t in text.split(" "):
t = '@user' if t.startswith('@') and len(t) > 1 else t
t = 'http' if t.startswith('http') else t
new_text.append(t)
return " ".join(new_text)
task='sentiment'
MODEL = f"cardiffnlp/twitter-roberta-base-{task}"
tokenizer = AutoTokenizer.from_pretrained(MODEL)
Als nächstes laden wir das Label Mapping aus TweetEval für das zugeordnete Task ’sentiment‘ herunter. Das Modell für die Sequenzklassifizierung kann nun gespeichert und in der ‚model‘ Variable hinterlegt werden.
# download label mapping
labels=[]
mapping_link = f"https://raw.githubusercontent.com/cardiffnlp/tweeteval/main/datasets/{task}/mapping.txt"
with urllib.request.urlopen(mapping_link) as f:
html = f.read().decode('utf-8').split("\n")
csvreader = csv.reader(html, delimiter='\t')
labels = [row[1] for row in csvreader if len(row) > 1]
# Modell laden
model = AutoModelForSequenceClassification.from_pretrained(MODEL)
model.save_pretrained(MODEL)
Im nächsten Schritt schreiben wir zwei Methoden, die dabei helfen sollen zeilenweise Tweet-Texte zu enkodieren und ein Sentiment Score zu vergeben. In einem Array sentiment_results legen wir alle Labels und entsprechende Scores ab.
# Sentiment Scores für alle Tweets erhalten
def get_sentiment(text):
text = preprocess(text)
encoded_input = tokenizer(text, return_tensors='pt')
output = model(**encoded_input)
scores = output.logits[0].detach().numpy()
scores = softmax(scores)
return scores
# Sentimentanalyse für jede Zeile im Datensatz anwenden
def analyze_sentiment(row):
scores = get_sentiment(row['tweet_text'])
ranking = np.argsort(scores)
ranking = ranking[::-1]
sentiment_results = []
for i in range(scores.shape[0]):
l = labels[ranking[i]]
s = scores[ranking[i]]
sentiment_results.append((l, np.round(float(s), 4)))
return sentiment_results
Zum Schluss wir das Dataframe um unser Ergebnis erweitert. Hierzu erstellen wir eine neue Spalte ’sentiment‘ und fügen mit der apply-Funktion die Ergebnisse aus unserer vorherigen Methode analyze_sentiement hinzu. Am Ende geben wir unser neues Dataframe in der Konsole aus.
# Ergebnisse in neue Spalte "sentiment" speichern
filtered_df['sentiment'] = filtered_df.apply(analyze_sentiment, axis=1)
# Ausgabe des neuen DataFrames
print(filtered_df)
Wir erhalten ein neues Dataframe mit einer weiteren Spalte in der das Label und die Sentiment-Scores festgehalten werden! 🤗🚀
Den gesamten Code könnt ihr euch auch auf meinem GitHub Profil ansehen oder klonen.
Referenzen
Han, Jiawei (2006). Data Mining: Concepts and Techniques, Simon Fraser University.
Barbieri, F., Camacho-Collados, J., Espinosa Anke, L., & Neves, L. (2020). Tweet Eval: Unified Benchmark and Comparative Evaluation for Tweet Classification. In Findings of the Association for Computational Linguistics: EMNLP 2020, S. 1644-1650. https://aclanthology.org/2020.findings-emnlp.148.
Wartena, Christian & Koraljka Golub (2021). Evaluierung von Verschlagwortung im Kontext des Information Retrievals. In Qualität in der Inhaltserschließung, 70:325–48. Bibliotheks- und Informationspraxis. De Gruyter, 2021. https://doi.org/10.1515/9783110691597.
Aufgrund der aktuell steigenden Energiekosten wird das Thema „Energiesparen“ für Verbraucher*innen immer wichtiger.1 In dem folgenden Artikel untersuchen wir gemeinsam, ob Energiesparen durch Smart Home möglich ist und mit welchen Tools Sie Kosten sparen können.
4 smarte Möglichkeiten, mit denen Energie eingespart werden kann
Ein Smart Home muss nicht immer ein aufwändiger Neubau sein, bereits durch kleine Änderungen können Sie Ihre vorhandenen Geräte und die Infrastruktur modernisieren.
Möglichkeit 1: Die Heizung
Ganz einfach können klassische Heizkörperthermostate durch smarte ausgetauscht werden. Die Heizung reguliert sich selbst, dadurch können Sie nicht mehr vergessen, sie auszuschalten. Sind zusätzlich noch Fensterkontakte verbaut, kann die Heizung darauf reagieren und bei geöffneten Fenstern das Heizen unterbrechen. Dadurch können Heizkosten gespart werden.2
Möglichkeit 2: Die Beleuchtung
Durch Bewegungssensoren wird die Beleuchtung lediglich bei Bedarf genutzt. Des Weiteren können Sensoren Tageslicht erkennen und dementsprechend die Lampen ausschalten oder dimmen. Auch praktisch: Durch festgelegte Timer können Sie oder Ihre Mitbewohner*innen nicht mehr vergessen, das Licht auszuschalten.3
Möglichkeit 3: Eliminieren von Standby-Geräten
Fernseher oder Bürogeräte wie Drucker und Bildschirm verbrauchen auch nach dem Ausschalten weiterhin Strom. Grund hierfür ist der sogenannte Standby-Modus. Durch smarte Zwischenstecker können die Geräte komplett vom Strom genommen werden und Sie schalten sie nur bei Bedarf ein.4
Möglichkeit 4: Smarte Stromzähler
Smarte Stromzähler werten den Stromverbrauch aus und warnen bei überdurchschnittlich hohem Verbrauch. Dadurch können Sie direkt reagieren und nach Ursachen für den hohen Stromverbrauch suchen.5 Sogar von unterwegs oder aus dem Urlaub.
Mit einem smarten Zuhause wird unser Leben moderner und komfortabler. Aber wird dadurch das Wohnen für Sie auch günstiger?
Das große Problem an Energieeinsparungen durch smarte Technik ist der hohe Stromverbrauch der benötigten Geräte. Diese entpuppen sich oft als Energiesparfalle. Durch die dauerhafte Betriebsbereitschaft ziehen sie ununterbrochen Strom – meistens sogar im ausgeschalteten Zustand! Dadurch ist klar, dass sich der Stromverbrauch erhöhen wird.
Trotz diesen Mehrkosten ist laut Studie der Verbraucherzentrale Nordrhein-Westfalen jährliche Einsparungen der Energiekosten in Höhe von 140 € möglich.6 Aufgrund der steigenden Energiekosten wird die Einsparung 2023 sogar sehr wahrscheinlich noch größer ausfallen.7 Allerdings kann dieses Potenzial nur erreicht werden, wenn bei der Auswahl der Geräte nicht nur der Komfort, sondern vor allem die Effizienz im Vordergrund steht.
Zur maximalen Einsparung ist es umso wichtiger, dass Sie klären: Wie viel Luxus möchten Sie mit der Umrüstung erreichen? Muss die Kaffeemaschine wirklich aus dem Bett heraus betrieben werden?
Fazit
Es ist durchaus möglich, dass Sie durch Smart Home Energie einsparen können. Allerdings muss dazu weitestgehend auf komfortable Technik verzichtet werden und das Augenmerk auf die Energieeffizienz gesetzt werden. Außerdem sollten Sie im Vorfeld ausrechnen, wie hoch die Anschaffungskosten sind und ob diese Kosten sich durch die Energieeinsparungen rentieren.
Künstliche Intelligenz (KI) wird normalerweise damit in Verbindung gebracht, Menschen bei Aufgaben zu unterstützen, die durch Automatisierung besser erledigt werden können. Mit dem fortschreitenden technischen Wandel ist es der KI heutzutage aber nicht nur möglich, fortschriftliche visuelle Effekte in Filmen zu liefern oder den Videoschnitt zu erleichtern, sondern auch Prognosen hinsichtlich des möglichen Erfolgs eines Filmes zu liefern und ganze Storyboards zu verfassen. Die KI entwickelt sich immer mehr zu einer unausweichlichen Kraft, die Filme zukünftig weiter aufarbeiten und stetig verbessern wird. 1
Die KI „Benjamin“ und ihr Kurzfilm „Sunspring“
Hinsichtlich der Verwendung von KI in der Filmproduktion sticht besonders der Science-Fiction-Kurzfilm „Sunspring“ ins Auge, welcher 2016 debütierte. Das Interessante an diesem Film ist, dass er auf den ersten Blick wie viele andere Science-Fiction-Filme wirken mag – bis zur Erkenntnis, dass dessen Drehbuch ausschließlich von einer KI geschrieben wurde, welche sich selbst den Namen „Benjamin“ zuteilte. Es handelt sich hierbei um ein rekurrentes neuronales Netzwerknamens LSTM (long short-term memory), welches vorher mit Drehbüchern verschiedenster Science-Fiction-Filme sowie -Serien gespeist wurde. Trotz oder gerade wegen dieses daraus resultierenden, sehr kuriosen Drehbuchs wurde der Kurzfilm mit drei Schauspielenden gedreht und erhielt dadurch große Aufmerksamkeit. 2
Benjamin kreierte im selben Kurzfilm auch die Musik. Das neuronale Netzwerk wurde hier, ähnlich wie bei der vorangegangenen Vorgehensweise, mit vielen verschiedenen Einflüssen trainiert. In diesem Fall mit über 30.000 verschiedensten Popsongs. 3
Visuelle Effekte und Unterstützung in der Postproduktion
Als weitere Art der Unterstützung wird KI inzwischen im Zuge von weiteren bestehenden Produktionsabläufen sogar in Schnittprogramme implementiert. Dort kann sie unter anderem durch nur einen Klick Audio- oder auch Farbanpassungen vornehmen. 4 Doch nicht nur dort kommt künstliche Intelligenz in der Filmwelt der Postproduktion zum Einsatz. Im Bereich der visuellen Effekte kommt sie gerade beim Rotoskopieren zum Tragen, wo bestimmte Teile des Filmmaterials vom Hintergrund separiert werden. Rotoskopieren ist eine Technik, um animierte Filme und komplexe Bewegungsabläufe in Animationsfilmen realistischer wirken zu lassen. Als Beispiel dient hier das Unternehmen Array. Deren neuronales Netzwerk wurde mit Material gefüttert, welches von Visual Effect Artists arrangiert wurde. Nach ausreichendem Training kann das neuronale Netzwerk sogar ohne Unterstützung durch einen Greenscreen arbeiten. 5
Auch die Computersoftware „Massive“ sticht im Zuge der visuellen Effekte ins Auge. Ursprünglich für die „Herr der Ringe“-Trilogie entwickelt war diese mit Hilfe von künstlicher Intelligenz in der Lage, computergenerierte Armeen zu erstellen sowie realistische Schlachten in enormen Ausmaßen zu simulieren. „Massiv“ erschuf auch andere ikonische Kampfszenen der letzten Jahre, darunter Szenen aus „Game of Thrones“ sowie „Marvel’s Avengers: Endgame“. 6
Podcast „The Daily Charge“: How Lord of the Rings changed filmmaking
Den Erfolg eines Filmes vorhersagen
Ein ganz anderer Bereich, welcher durch KI revolutioniert wird, ist die prognostische Ebene. Denn sie ist inzwischen auch dazu in der Lage, Prognosen über den möglichen Erfolg eines Filmes zu treffen. Zum Beispiel soll die vom Datenwissenschaftler Yves Bergquist entwickelte KI „Corto“ dank künstlicher neuronaler Netze in der Lage sein, den Erfolg eines Films vorherzusagen. Das funktioniert nicht nur durch Analyse verschiedenster Elemente aus dem Film direkt, sondern auch über Daten aus sozialen Medien, wo die KI durch verschiedene Äußerungen die Stimmung sowie den kognitiven Zustand der Nutzenden ermittelt, die verschiedene Medieninhalte zugeführt bekommen haben. 7
Umwandlung alter Filmaufnahmen
Aber Künstliche Intelligenz kann auch für ganz andere Zwecke genutzt werden. So konvertierte ein YouTuber namens Denis Shiryaev eine über 100 Jahre alte Filmaufnahme der französischen Lumière-Brüder aus dem Jahr 1895 durch die Unterstützung einer KI auf das Videoformat 4k sowie die Bildrate auf 60 Bilder pro Sekunde. Somit verfrachtete er den Film durch Unterstützung einer KI technisch ins aktuelle Zeitalter. Hier bestand zwar durchaus noch Verbesserungspotential, allerdings geschah der Vorgang mit wenig Aufwand und wies erneut eindrucksvoll auf, zu was künstliche Intelligenz inzwischen in der Lage ist. 8
Quelle: Vimeo
Ersetzt die KI den Menschen?
Es ist wirklich erstaunlich zu sehen, was für einen großen Einfluss KI in der Welt der Filmproduktion hat und wie viele Bereiche dieser durch sie bereits vereinfacht werden können. Der damit verbundene technische Fortschritt eröffnete die letzten Jahre viele neue innovative Anwendungen in der gesamten Branche und ermöglicht Unternehmen nicht nur, die Effizienz ihrer Arbeitsabläufe zu steigern, sondern auch, ihre Arbeitskosten zu senken und mehr Umsatz zu generieren. 9
Trotz all dieser Vorteile sollte gerade ein Aspekt im Kopf verbleiben:
„KI ist weder nur ein Werkzeug noch ein vollständiger Ersatz für einen Schriftsteller. Man braucht eine Symbiose, um gemeinsam mit der Maschine Kunst zu kreieren.“ 10
Während die künstliche Intelligenz „AlphaZero“ Schach und „MuZero“ als Nachfolger verschiedene Spiele der Spielkonsole Atari meisterte, veröffentlichte die Firma Deepmind die nächste Entwicklungsstufe. Diese KI trägt den Namen DeepNash. AlphaZero meisterte Brettspiele mit klaren Regeln über ein modell-basiertes Training und MuZero, die schwer in Regeln auszudrückenden Atari-Spiele durch ein modell-freies Training. DeepNash hingegen legt sowohl die Spielregeln wie auch das Modell eines Spiels für die Planung fest. Die Besonderheit ist hierbei, dass von der gängigen Methode der Monte-Carlo-Baumsuche abgewichen wird. In der nachfolgenden Tabelle wird die unterschiedliche Komplexität von Brettspielen nochmals deutlich. [1][6]
Schach
Poker
Go 19*19
Stratego
durchschnittliche Züge je Spiel
60
15
300
1000
mögliche Startaufstellungen
1
106
1
1066
Komplexität des Spielbaums
10123
1017
10360
10535
Übersicht der Komplexität unterschiedlicher Brettspiele [3]
Die Nash-Spieltheorie
Das Besondere an DeepNash ist, dass es in den Spielen versucht ein Nash-Gleichgewicht zu erreichen. Hierdurch verläuft das Spiel stabil. Das Nash-Gleichgewicht ist nach dem Spieltheorie-Mathematiker Jon Forbes Nash benannt. Die Theorie folgt der Annahme, dass ein Abweichen der Strategie zu einem schlechteren Ergebnis führt. DeepNash und das Nash-Gleichgewicht folgen also konstant einer Strategie. Infolgedessen hat DeepNash mindestens eine 50%ige Chance zu gewinnen. [1][3]
Die KI DeepNash spielt Stratego
Youtube-Kanal Deepmind: Die erste Stratego Partie von DeepNash gegen einen menschlichen Gegner[2]
Die KI DeepNash nahm als Trainingsgrundlage das Brettspiel Stratego. Das Brettspiel hat im Schnitt 381 Spielzüge und die besondere Schwierigkeit, dass nicht alle Informationen von Beginn an gegeben sind, da mit verdeckten Figuren gespielt wird und der Gegner mit Hilfe von Bluffs i.d.R. seine Taktik verschleiert. Optimale Spielabläufe gibt es nicht, da die Züge inkonsequent sind, das heißt jederzeit ist das Spielergebnis offen. Es wird daher anders als beim Schach nicht in Zügen, sondern in Spielen gedacht. [1][3]
Die optimale Strategie in Stratego erreicht die KI nach 5,5 Milliarden simulierten Partien. [1] DeepNash besiegte damit 97% der derzeitigen Computersysteme und erreichte eine Siegesquote von 84% gegen menschliche Spieler auf der Online-Stratego-Plattform Gravon. DeepNash gelangte damit in die Top 3 der dortigen Bestenliste. Eine weitere Besonderheit der KI stellte die Anwendung menschlicher Spielstrategien dar. So zeigte DeepNash das Bluffen oder auch das Opfern von Figuren als Taktik. Der Algorithmus „Regularised Nash Dynamics“ (R-NaD) wird außerdem für Forschende als OpenSource Download auf Github zur Verfügung gestellt. [1][4][5]
Ausschnitt aus der OpenSource Publikation zu DeepNash[7]
Zukünftige KI Anwendungsfelder
DeepNash ist die nächste Weiterentwicklung, um Menschen in Brettspielen zu übertrumpfen und wird künftig als Grundlage für alltägliche Herausforderungen genutzt werden können. Insbesondere mit unvollständigen Informationen zu arbeiten stellt einen weiteren Meilenstein dar, der in der Lage ist bei komplexen Problemen wie der Optimierung des Verkehrssystems oder auch im Bereich des autonomen Fahrens – wie auch MuZero zuvor – einen Beitrag leisten zu können. [3][4][6]
Quiz
Teste nun dein Wissen über DeepNash in einem kleinen Quiz.
Über die Autoren
Die Autorin Jessica Arnold arbeitet derzeit in der Hochschulbibliothek Emden und studiert berufsbegleitend Informationsmanagement an der Hochschule Hannover.
Der Autor Jan Heinemeyer arbeitet derzeit in der Stadtbücherei Penzberg und studiert berufsbegleitend Informationsmanagement an der Hochschule Hannover.
Beide Autoren eint das private Interesse an Informatik, Gaming, KI und Brettspielen.
DeepMind (2023): DeepNash Stratego game 1. Online verfügbar unter https://www.youtube.com/watch?v=HaUdWoSMjSY, zuletzt aktualisiert am 05.01.2023, zuletzt geprüft am 05.01.2023.
Perolat, Julien u.a. (2022): Mastering the Game of Stratego with Model-Free Multiagent Reinforcement Learning. Online unter https://arxiv.org/pdf/2206.15378.pdf [Abruf am 07.01.2023]
Komponieren mithilfe von Künstlicher Intelligenz? Zukunftsmusik oder bereits Alltag in der Musikbranche? Wie funktioniert so etwas? Und wer profitiert davon? Mögliche Antworten liefert der folgende Artikel zum Thema „Künstliche Intelligenz in der Musikkomposition“.
Künstliche Intelligenz nimmt in unserer Gesellschaft eine immer zentralere Rolle ein. Sie ist aus Wirtschaft, Medien und Technik nicht mehr wegzudenken und wird in Deutschland u.a. von der Bundesregierung gefördert.1 Auch die Musikbranche wird nachhaltig von KI geprägt und Künstliche Intelligenz befindet sich besonders in der Musikkomposition auf dem Vormarsch.2 Besonders die Komposition von Hintergrundmusik für Social Media, Werbung und Gaming wird in Zukunft von ihr dominiert.3 Aber wie funktioniert das Komponieren von Musik mithilfe von KI eigentlich? Wer arbeitet mit ihr? Steht sie in einem ethischen Konflikt mit menschlichen Musikern und Komponisten und kann sie überhaupt wirkliche Kunst erschaffen? Diesen Fragen widmet sich der folgende Artikel.
Wie funktioniert Komponieren per KI?
Damit eine KI Musik komponieren kann, muss sie zunächst für diesen Einsatzzweck trainiert werden. Sogenannte „Neuronale Netzwerke“ lernen anhand großer Datenmengen (Big Data) die Struktur und Elemente vorhandener Musik. Durch ständige Analyse wird sie immer besser darin, Muster im Songaufbau zu erkennen und ist zu beachtlichen analytischen Leistungen in der Lage.4 Allerdings ist die derart entstandene Musik ohne menschliche Bearbeitung eher Mittelmaß. Das Verfassen von Songtexten und Einspielen der Instrumente sollte daher durch menschliche Hand erfolgen. 5 Künstliche Intelligenz ist deshalb eher als Werkzeug, welches die kompositorische Arbeit erleichtert, zu betrachten.6
Klicken Sie auf die folgende Abbildung, um selbst mit dem Komponieren loszulegen und kreieren Sie mithilfe der KI von Soundraw eigene Songs.
Die Umsetzung computergenerierter Kompositionen ist bereits Realität. Beispielsweise erschuf der Wissenschaftler David Cope mithilfe von KI Werke klassischer Musik, welche Vivaldi, Bach oder Chopin ähneln. Die Aufführung mit einem echten Orchester konnte sogar Fachpublikum täuschen.7 Weiterhin konnten Forscher ein neuronales Netzwerk mithilfe von 45 Songs der Beatles so lange trainieren, bis es ein eigenes Stück entwarf, welches auffällig stark dem Ursprungsmaterial ähnelte. Lediglich der Text zu dem Song „Daddy’s Car“ musste von Menschen geschrieben werden.8
Auch private Nutzer können KI zur Musikkomposition nutzen. So bietet das Berliner Unternehmen „Loudly“ auf ihrer Homepage eine eigens mit ca. zehn Millionen Songs trainierte KI an. Nutzer können somit schnell eigene Lieder generieren lassen. Sie wählen lediglich Genre, Songlänge und Instrumente aus, den Rest übernimmt die KI.9 Auch professionelle Künstler haben sich bereits auf die Zusammenarbeit mit Künstlicher Intelligenz beim Kreieren von Songs spezialisiert. Die Berlinerin Holly Herndon hat auf diese Weise bereits mehrere Alben veröffentlicht.10
Mit der zunehmenden Verbreitung von Künstlicher Intelligenz in der Musikbranche treten auch vermehrt ethische Fragen auf. Verdrängt die Maschine den Menschen? Ist computergenerierte Musik überhaupt Kunst?
Dr. Ralf Weigand, Vizepräsident des Deutschen Komponistenverbandes und Vorsitzender des Aufsichtsrats der GEMA, sieht KI in der Musik mit potenziellen Nachteilen verbunden. Besonders im Bereich der Gebrauchsmusik (Hintergrundmusik für Film, Fernsehen, Social Media etc.) könne KI eine Gefahr für die Jobs der Musikschaffenden bedeuten. Zudem sorge eine Überflutung des Musikmarkts mit computergenerierter Musik eventuell dafür, dass Menschen diese Musik nicht mehr von menschengemachter unterscheiden könnten.11
Rory Kenny, Gründer des eingangs erwähnten Unternehmens „Loudly“, hält dagegen. KI schaffe bereits neue Jobs wie Softwareentwickler oder Informationsspezialisten in der Musikbranche. Weiterhin ermögliche sie auch Menschen ohne Know-how die einfache und zugängliche Produktion von Musik.12
„Das wird eine sehr interessante weitere Demokratisierung des Musikschaffens.“
Rory Kenny13
Auch professionelle Kunstschaffende könnten Vorteile aus der Kooperation mit KI ziehen und Gefallen daran finden.14 Ein Beispiel hierfür ist die bereits erwähnte Holly Herndon.
Kann KI Kunst?
Auch ob Künstliche Intelligenz wahrhaftige Kunst erschaffen kann, ist umstritten. Der Neurowissenschaftler Matthias Bethge sieht KI zwar eher als Werkzeug, spricht ihr allerdings alle Merkmale menschlicher Kreativität zu. Genau wie der Mensch würde sie zunächst Erfahrungen sammeln und Strukturen analysieren, um dann auf dieser Basis etwas Neues zu schaffen. Hans-Christian Ziupa, Gewinner des KI-Musik-Wettbewerbs „Beats & Bits“, sieht jedoch einen zentralen Unterschied zwischen Mensch und KI. Zuhörer würden von Musikern erwarten, dass sie bei der Schöpfung von etwas Neuem mit sich gerungen und dabei eine gewisse emotionale Radikalität entwickelt hätten. Dies sei einer KI nicht möglich.15
Rory Kenny glaubt ebenfalls nicht an den Ersatz menschlicher Musiker durch Maschinen. Musik sei im Kern Storytelling, KI sei jedoch nicht in der Lage Geschichten zu erzählen.16 Goetz Richter, Musiker und Professor der Universität Sydney, sieht KI zudem als abhängig von Menschen und ihren Anweisungen. Es sei komplett verschieden, ob aus bereits bestehenden Werken Eigenschaften abstrahiert, oder schöpferische Werke erschaffen würden. Zu Letzterem sei KI nicht in der Lage. Musik sei kein Ergebnis reiner Analytik, sondern erfordere Neugier, Sinnfindung, Bewusstsein, gelebte Erfahrung, Aufmerksamkeit und Empathie. Dies seien alles Eigenschaften, welche Computern fehlen würden.17 Renate Buschmann, Professorin für digitale Künste der Universität Witten/Herdecke, sieht dies ähnlich. KI habe ihre Stärke im Analysieren von Mustern und dem Kopieren. Kunst sei aber eben das Brechen von Regeln und dem Erschaffen von Unberechenbarkeit.18
Eine weitere komplexe Frage in diesem Kontext ist die, nach der rechtlichen Urheberschaft künstlich komponierter digitaler Produktionen. Sowohl Nutzer der KI (Wahl der Schlagworte bei der Generierung), Künstler (Rahmen und Konzept auf welches KI zugreift), Programmierer (Entwicklung der Software) als auch die Maschine selbst (Komposition des Werkes) kommen als mögliche Urheber infrage.19 Nicht nur diese, sondern auch die oben angesprochenen Themen, werden die Musikbranche in Zukunft mit Sicherheit prägen und beschäftigen.
1 vgl. Die Bundesregierung 2020
2 vgl. Bora 2021
3 vgl. Die Bundesregierung 2020
4 vgl. Bora 2021, Die Bundesregierung 2020 und Richter
5 vgl. Die Bundesregierung 2020
6 vgl. Bora 2021
7 vgl. Richter
8 vgl. Die Bundesregierung 2020
9 vgl. Bora 2021
10 vgl. Die Bundesregierung 2020
11 vgl. Bora 2021
12 vgl. Bora 2021
13 Bora 2021
14 vgl. Buschmann 2022, S.165
15 vgl. Die Bundesregierung 2020
16 vgl. Bora 2021
17 vgl. Richter
18 vgl. Buschmann 2022, S.164-165
19 vgl. Buschmann 2022, S.169
Quellen
Bora, Tereza (2021): Kreative KI. Künstliche Intelligenz verändert die Musikbranche. Online unter [Abruf am 23.11.2022]
Buschmann, Renate (2022): Kann aus KI Kunst werden?. Dialogische Beziehungen mit Künstlicher Intelligenz. In: Schnell, Martin W.; Nehlsen, Lukas (Hg.): Begegnungen mit Künstlicher Intelligenz. Intersubjektivität, Technik, Lebenswelt. Weilerswist: Velbrück Wissenschaft, S. 164-173. Online unter: doi.org/10.5771/9783748934493
Der Autor Hendrik Kuck arbeitet an der Universitätsbibliothek Osnabrück und studiert zurzeit berufsbegleitend Informationsmanagement an der Hochschule Hannover
Die weltweite Musikindustrie ist im Wandel. 2017 wurde erstmals mehr Geld durch Musikstreaming eingenommen als durch den Verkauf von CDs, Schallplatten & Co. Somit liegt auch der Fokus großer Plattenlabel auf dem digitalen Musikmarkt. Führt diese Änderung der Marktsituation auch zu einer Veränderung der Musik als solches?
Früher ging man in einen Plattenladen, um ein Album zu kaufen. Im Anschluss konnte man diese Schallplatte so häufig hören, wie man wollte, der Interpret und das Label sahen kein zusätzliches Geld. Beim Musikstreaming wird heute jeder gehörte Song, jeder Play einzeln bezahlt. Je nach Streamingdienst werden pro 1000 Streams zwischen 70 ct und 27 € ausgezahlt.
Zur Vereinfachung konzentrieren wir uns auf Spotify, welche ca. 4 € für 1000 Streams auszahlen.1 Dabei gilt jedoch: nicht jeder Stream zählt gleich viel. So sind bspw. Streams aus den USA mehr wert als Streams aus Portugal. Außerdem kommt es darauf an, ob der Nutzer ein Spotify-Abo hat oder die werbefinanzierte Gratisversion nutzt.2 Streams werden zudem erst gezählt, wenn der Song mindestens 30 Sekunden langlief.3Diese 4 € gehen zudem nicht vollständig an die Interpreten, da auch die Musiklabels mitverdienen wollen.
Doch welchen Einfluss auf die Musik hat es, wenn Musikschaffende nicht mehr für Verkäufe, sondern für Plays bezahlt werden?
3 Minuten Spiellänge und über 77 Millionen Aufrufe. Mit 22 Nummer-Eins-Hits ist der Rapper Capital Bra erfolgreicher als die Beatles.
Der Algorithmus
Hinter Spotify steckt ein großer Algorithmus, welcher allen Nutzenden auf Basis ihres Hörverhaltens ständig neue Songs empfiehlt. Songs, die in den ersten 30 Sekunden abgebrochen werden, zählen nicht als Play – werden also weder bezahlt noch vom Algorithmus für Empfehlungen berücksichtigt. Ziel der Musikschaffenden sollte es demnach sein, die Hörer:innen direkt zu Beginn des Songs zu fesseln. Dies führt dazu, dass das durchschnittliche Intro eines Songs in den 80er-Jahren noch 20 Sekunden lang war – heutzutage nur noch 5 Sekunden.4
Wie funktioniert eigentlich der Spotify-Algorithmus?
Auch die Länge eines Songs hat sich seit dem Siegeszug der Streamingdienste geändert. In den letzten 20 Jahren sank die durchschnittliche Songlänge um 73 Sekunden. Logisch, denn es macht sowohl finanziell als auch für den Algorithmus einen großen Unterschied, ob ein Song 20 oder 30 Plays in einer Stunde erzielen kann. Hinzu kommt, dass bei längeren Songs die Wahrscheinlichkeit eines Abbruchs größer ist als bei kürzeren Songs. Dies würde dazu führen, dass der Song seltener empfohlen wird.5 Die Anzahl der Songs in den amerikanischen Billboard Top 100-Charts, die kürzer sind als 2:30 Minuten, steigt dadurch seit Jahren stark an.6
Songs werden immer kürzer – auch durch Spotify?
Einfluss von Musikstreaming auf Musikcharts
Seit einigen Jahren werden die Charts von den Streamingzahlen beeinflusst.7 Da dadurch nicht nur eigens ausgekoppelte Singles bewertet werden, kommt es häufiger dazu, dass viele Songs eines Albums die vorderen Plätze belegen, so geschehen u.a. bei Taylor Swift in den USA. Durch die generelle Schnelllebigkeit und die Fixierung auf Plays statt Albumkäufen veröffentlichen viele Musikschaffende zudem (fast) nur noch Singles. Der Deutsch-Ukrainer Capital Bra schaffte es so in nur zweieinhalb Jahren 22 Nummer-Eins-Hits zu veröffentlichen – doppelt so viele wie die Beatles in ihrer gesamten Karriere.8
Belegte gleichzeitig alle Top-10-Plätze in den USA: Taylor Swift
Um bekannt und erfolgreich zu werden ist es für Musikschaffende am wichtigsten, auf den von Spotify erstellten Playlists zu landen. Neben den von Mitarbeiter:innen kuratierten Playlists gibt es auch komplett automatisch vom Algorithmus erstellte (und ständig aktualisierte) Playlists, die ganz auf den Geschmack jedes einzelnen Nutzers zugeschnitten sind. So werden Nutzer mit ähnlichem Musikgeschmack ähnliche Songs empfohlen. Ganz wichtig ist auch hierbei wieder die bekannte 30-Sekunden-Grenze.9
Der perfekte Musikstreaming-Song?
Aber gibt es den perfekten, erfolgsversprechenden Spotify-Song? Nicht wirklich. Zwar hilft es, einen kurzen Song ohne Intro zu haben, eine Garantie ist das jedoch noch lange nicht. Unabhängig davon gilt noch immer: ein Hit ist ein Hit ist ein Hit.
Wie auch in vielen anderen Bereichen der Technik macht auch das Internet of Things (IoT) große Entwicklungsschritte. Dazu gehören auch sogenannte Smart-Home-Systeme, die eine immer weitere Verbreitung in deutschen Haushalten finden. Aus den vielseitigen Anwendungsbereichen ergeben sich neben komfortablen Alltagshilfen auch einige Fragen zur Sicherheit, gerade hinsichtlich Datenschutzes und Künstliche Intelligenz (KI) . In diesem Artikel sollen einige der Sicherheitslücken aufgedeckt und Lösungsansätze erläutert werden.
KI, was ist das eigentlich?
Immer häufiger hört man heutzutage diesen Begriff, aber was zeichnet die KI eigentlich aus? Normalerweise verarbeitet eine Maschine stumpf Daten. Eine KI ist allerdings in der Lage bestimmte Muster zu erlernen, um Entscheidungen auf der Basis von Informationen zu treffen. Dieses Vorgehen nennt man „Machine Learning“. Damit ist eine menschenähnliche kognitive Leistung möglich. Übertragen wir das auf unsere Smart-Home-Systeme bedeutet, dass, die Geräte erlernen unsere Verhaltensmuster und reagieren entsprechend darauf. Der aktuelle technische Stand ermöglicht das noch nicht umfangreich, zielt aber darauf ab. Bislang entscheiden sind das Erkennen und Befolgen von Wenn-Dann-Regeln.
KI im eigenen Zuhause:
@Smartest Home 2020
Smart-Home-Anwendungen bieten einige Vorteile
Smart-Home-Anwendungen haben einige Vorteile zu bieten, andernfalls würden sie sich nicht immer wachsender Beliebtheit erfreuen. Dazu gehören unter anderem:
Erhöhter Komfort: viele Aufgaben müssen nicht mehr selbst erledigt werden, sondern werden bequem von den Smart-Home Anwendungen übernommen. Beispiele hierfür sind z.B. das Saugen von Böden, Rasen mähen oder das automatische Angehen der Kaffeemaschine am Morgen
Vereinfachte Bedienung: durch die Steuerung per App kann man alle Anwendungen aus einer Stelle heraus bedienen, noch einfacher wird das Ganze mit Spracherkennung/Sprachbefehlen
mehr Sicherheit: durch das vernetzte System kann der Besitzer durch Push-Nachrichten auf sein Handy informiert werden, wenn z.B. ein Alarm ausgelöst wird. Gleichzeitig kann ein ausgelöster Alarm dazu führen, dass sich Türen und Fenster verriegeln
Senkung des Energieverbrauch: Geräte sind so programmiert, dass sie möglichst wenig Strom verbrauchen. So kann man z.B. mit Hilfe von einem Timer einstellen, wann das Licht ausgehen soll
Sicherheitslücken in den Systemen
Die komplexe technische Vernetzungbringt auch einige Risiken mit sich, wie sich in den Bereichen des Datenschutzes und der IT-Sicherheit zeigt. Die Smart-Home-Anwendungen sind durchgehend mit dem Internet verbunden. Das macht sie sehr anfällig für den unautorisierten Zugriff durch Hackerangriffe, die sich so den Zugriff zu sämtlichen Geräten in einem Haushalt verschaffen können. Um das zu vermeiden ist das regelmäßige Durchführen von Updates essenziell. Viele Risiken entstehen durch den Anwender selbst. So können fehlende technische Vorkenntnisse und die daraus resultierenden Bedienungsfehler zu schwerwiegenden Sicherheitslücken führen. Daher ist es wichtig, sich mit der Technik der Geräte auseinander zu setzen und ggfs. nochmal die richtige Funktionsweise zu überprüfen. Es stellt sich zudem die Frage, inwiefern die Daten gespeichert und verarbeitet werden. Das ist oft nicht transparent für den Benutzer, und da es sich um sensible personenbezogene Daten wie Kameraaufzeichnungen handelt, ist dieser Punkt nicht zu missachten.
Personenbedingte Fehler
Neben den technischen Fehlerquellen können natürlich auch von Menschenhand erzeugte Fehler Sicherheislücken hervorrufen. Zum einen ist es wichtig, dass sich Anwender vor der Anschaffung intensiv mit der Technik befassen. Oftmals scheitert es an fehlender Planung und das dem Informationsmangel über die Anwendung. Das kann wiederrum zu Anwendungsfehlern führen, die schwerwiegende Sicherheitsmängel bilden können. Wir tendieren oft dazu, zu günstigeren Alternativen zu greifen, was in diesem Fall aber eine fehlende Sicherheitszertifizierung bedeutet und ebenfalls vermehrt Sicherheitslücken aufweißt. Eine noch ausführlichere Hilfe bietet der folgende Artikel: Diese 5 Fehler machen fast alle Smart Home Einsteiger (homeandsmart.de)
Einfacher Schutz im Alltag
Wie kann ich mich also vor den vielfältigen Angriffsmöglichkeiten schützen? Es sind eigentlich ein paar ganz simple Tipps, wie man den Sicherheitsstandard der Smart-Home-Anwendung hochhält:
keinen direkten Internetzugriff: ist ein System direkt mit dem Internet verbunden, ist es leichter für z.B. Hacker dieses zu finden und zu hacken. Am sichersten ist es, denn Zugriff über ein VPN zu nutzen
System regelmäßig aktualisieren: für jedes System gibt es reglemäßig Updates, diese sollte man zeitnah durchführen um Bugs und Fehler in der Software zu beheben.
sichere Passwörter: ein simpler, aber oft missachteter Tipp ist es, ein sicheres Passwort zu vergeben, dass eine Kompination aus Groß- und Kleinschrift, Sonderzeichen und Zahlen beinhaltet. Dieses sollte in regelmäßigen Abständen geändert werden.
unnötige Dienste ausschalten: schalten Sie nicht benötigte Anwendungen aus, denn was nicht läuft, kann nicht angegriffen werden
Fazit: trotz Sicherheitslücken wachsender Trend mit Luft nach oben
Was lässt sich nun abschließend festhalten? Wenn man einige grundlegende Sicherheitsvorkehrungen beachtet und sich selbst mit den technischen Anwendungen befasst bieten Smart-Home-Anwendungen eine gute Möglichkeit sich den Alltag einfacher zu gestalten. Smart-Home-Anwendungen stehen noch relativ am Anfang ihrer technischen Möglichkeiten und sind auch noch lange kein fester Bestandteil in einem durchschnittlichen Haushalt. Auch die Zukunftserwartungen sind noch nicht erfüllt worden.
«Wir glaubten damals, dass es eine allmächtige, zentrale Intelligenz geben werde, die je nach Stimmung eine automatische Lichtauswahl trifft, ohne unser Zutun Essen für den Kühlschrank nachbestellt und so weiter. Diese Vision ist nicht eingetreten, zumal die Installation und Konfiguration einer einzigen, zentralen Lösung viel zu komplex wäre. Stattdessen gibt es heute viele partielle Lösungen, beispielsweise für die Beleuchtung, die Soundanlagen oder die Sicherheit.»
Baumann, Melanie (2020): Diese 5 Fehler machen fast alle Smart Home Einsteiger. Smart Home Anfängerfehler und wie sie Einsteiger vermeiden. Zuletzt aktualisiert am 02.02.2020. Online unter https://www.homeandsmart.de/fehler-smart-home-einsteiger [Abruf am 24.01.2023]
Hüwe, Peter ; Hüwe, Stephan (2019): IoT at Home. Smart Gadgets mit Arduino, Rasperry Pi, ESP8266 und Calliope entwickeln. München : Carl Hanser Verlag
Ein Prompt ist eine Texteingabe bestehend aus wenigen Stichworten. Sie dient der KI eines Bildgenerators als Grundlage für das Erzeugen von Bildern und ermöglicht es jeder Person, auch dir, die eigenen kreativen Ideen in Bildern umzusetzen. Aber können einzelne Stichworte wirklich das Potenzial eines Kunstwerks innehaben?
Zur Definition von Kunst schreibt Brockhaus: „die Gesamtheit des vom Menschen Hervorgebrachten […] zu dessen Voraussetzungen die Verbindung von hervorragendem Können und großem geistigem Vermögen gehören.“[1] Eine KI benötigt nur ein paar Stichworte, sogenannte Prompts, und wenige Sekunden, um ein Bild zu generieren und liefert zusätzlich verschiedene Varianten.[2] Das Ergebnis kann von unzufrieden bis überragend präzise reichen. Dies steht in Abhängigkeit zum Prompt und der jeweiligen KI.[3]
Sei PromptkünstlerIn
Am Anfang steht nur eine Zeile und in diese gibst du ein paar Stichworte ein. Die Zeile gehört zu einer der zahlreichen meist offen zugänglichen Bildgeneratoren. Darunter zählen unter anderem Midjourney, Dall-E und Stable Diffusion. Wie sie im Einzelnen funktionieren, kann der jeweiligen Webseite entnommen werden. Was alle gemeinsam haben:
Du entscheidest über den Prompt. Deine Fantasie ist Voraussetzung für den Bildinhalt.
Nach wenigen Sekunden erhältst du in Anlehnung an deinen Prompt ein Bild. Meistens in mehreren Variationen.
Jetzt hast du ein Bild, an dem die Urheberrechte alleine dir gehören. Aber wie ist es zustande gekommen?
Wie funktioniert Text-zu-Bildsynthese?
Zunächst wird eine Trainingsdatenbank mit Millionen von Bildern mit Bildbeschreibungen benötigt.[4] Die Bildbeschreibungen stammen unter anderem aus dem „alt“ Text, wie man ihn bei Html verwendet, um Bildinhalte zu beschreiben.[5] Der KI wird diese Datenbank zur Verfügung gestellt, um mittels Deep Learning, einem Lernverfahren, ihr neuronales Netz zu trainieren. Das neuronale Netz stellt, in Anlehnung an die im menschlichen Gehirn befindlichen Neuronen, eine Struktur aus miteinander vernetzten Informationen dar.[6] Es ergibt sich eine für die KI logische Verbindung zwischen Text und Bildinhalt.[7]
Die KI nutzt einen Prozess namens „Diffusion“. Ein Muster aus zufälligen Pixeln wird soweit modifiziert, bis sich daraus ein sinnvolles Bild ergibt.[8] Da es sich um einen zufälligen Prozess handelt, wird bei gleichbleibendem Prompt niemals dasselbe Bild entstehen.[9]
Dall-E und die Welt der Kunst
Unter anderem befinden sich in der Trainingsdatenbank die Bilder bekannter KünstlerInnen. Du hast also die Möglichkeit, einen Prompt dazu zu verwenden, deren Technik zu imitieren. Die UrheberInnen wurden allerdings nicht gefragt, ob sie mit der Verwendung ihrer Werke in der Datenbank und dem daraus resultierenden Nachahmen ihrer Kunst, einverstanden sind. [10]
Einerseits wird es dir und jedem anderen ermöglicht, eure künstlerischen Ideen mit wenigen Einschränkungen zu verwirklichen, ohne zuvor jahrelang benötigte handwerkliche Erfahrung sammeln zu müssen. Andererseits gefährdet dies die Arbeit unzähliger freischaffender KünstlerInnen, deren Einkommen darauf beruht, Grafiken, Illustrationen, Fotografien, Konzepte und dergleichen zu schaffen.[11]Das synthetische Werk von Jason Allen, der damit einen Kunstwettbewerb gewann, führte erst kürzlich zu regen Diskussionen.
Prompkunst und ihre Grenzen
Auch wenn dich nun das Promptfieber gepackt hat, im Universum der synthetischen Bilder unterliegt deine Fantasie gewissen Einschränkungen. Grundsätzlich unzulässig ist die Erstellung von illegalem, gewalttätigem, sexuell explizitem oder anderweitig unangemessenem Inhalt.[12] Dies soll eine missbräuchliche Nutzung der KI und das Verbreiten problematischen Bildmaterials verhindern.[13]
Die Entwickler versuchen solche Bilder unter anderem durch Wortfilter bei der Prompteingabe und durch das Filtern unangemessener Inhalte in der Trainingsdatenbank zu verhindern.[14] Hierfür muss zunächst, beruhend auf individuellem Empfinden, definiert werden, welche Inhalte unangemessen sind.[15] Das Filtern hat unter anderem zur Folge, dass sich, wie im Fall von Dall-E, bei den Ergebnissen eine deutlichere Tendenz zu Genderstereotypen, wie beispielsweise nur noch Bilder von männlichen Geschäftsführern, abzeichnet. [16]
Einen genauen Grund konnten die Entwickler für diese Tendenz nicht nennen. Unter anderem stellten sie am Beispiel des männlichen Geschäftsführers die Hypothese auf, dass, auch wenn Männer und Frauen in der ursprünglichen Trainingsdatenbank in etwa gleichmäßig repräsentiert sind, Frauen häufiger in einem sexuellen Kontext dargestellt und somit gefiltert werden. Dem so entstehenden Ungleichgewicht der Geschlechter kann unter anderem dadurch entgegen gewirkt werden, indem die gefilterte Datenbank nun mit mehr Bildern von weiblichen Geschäftsführerinnen angereichert wird.[17]
Neben Filtern arbeiten die Entwickler der Bildgeneratoren auch an weiteren Schwierigkeiten. Dazu gehören unter anderem ein fehlendes Textverständnis der KI gegenüber bestimmten Prompts oder die teils unrealistische Abbildung von Personen oder Tieren in synthetischen Bildern.[18]
Ein Blick in die Zukunft
„our mission of creating AI that benefits humanity“
OpenAI
OpenAI, die Entwickler von Dall-E, formulieren auf ihrer Webseite diesen ambitionierten Wunsch. Unrealistisch ist dieser Anspruch nicht. Irgendwann soll die Leistung von KIs menschenähnliches Niveau erreichen, was in vielen wichtigen Bereichen wie zum Beispiel der Landwirtschaft, Automobilindustrie oder Pflege enorm hilfreich sein wird. [19]
Neben Bildern kann eine KI wie NUWA-Infinity mittlerweile sogar kurze Videoclips generieren. Zwar sind diese noch lange nicht perfekt, betrachtet man jedoch allein die rasante Entwicklung in den letzten Wochen, stellt sich die Frage, ob KIs irgendwann sogar in der Lage sind, ganze Filme synthetisch zu erstellen. Eine weitere Open Source KI von OpenAi namens ChatGPT, veröffentlicht im November 2022, ist bereits dazu in der Lage, wissenschaftliche Texte auf Grundlage von Texteingaben zu formulieren. [20]
Der Beginn einer neuen Kunstepoche?
Bislang reicht noch längst nicht jeder Prompt für ein Kunstwerk aus. Jason Allen investierte bereits mehrere Tage Arbeit mit Unterstützung eines Bildbearbeitungsprogramms, um sein beim Kunstwettbewerb eingereichtes Bild zu kreieren.[21] Die Gefährdung von KünstlerInnen durch Bildgeneratoren scheint zunächst zwar greifbar, aber wann die Arbeit von KIs tatsächlich menschenähnliches Niveau erreicht, bleibt vorerst eine Frage der Zeit.[22]
Ein Blick in die Vergangenheit hilft, um zu sehen, dass zumindest eine Definition von Kunst schon immer anpassungsfähig war. Auch die Entwicklung der Fotografie wurde lange Zeit nicht als Kunst anerkannt.[23] Und vielleicht wird eines Tages das Generieren synthetischer Bilder zu den Kunstmaßstäben einer zukünftigen Epoche gehören.
„Die Einschätzung von Kunst hängt von den Maßstäben einer Epoche und von der individuellen Sicht ab.“
tagesschau (2023): Software ChatGPT: Möglichkeiten und Grenzen künstlicher Intelligenz. Video publiziert am 12.01.2023 auf YouTube. Online unter https://www.youtube.com/watch?v=_ab6L50HlcI [Abruf am 29.01.2023]
Kommentare werden geladen …
Diese Website benutzt Cookies. Wenn du die Website weiter nutzt, gehen wir von deinem Einverständnis aus.