Visuelle Magie auf Instagram: Canva und KI-generierte Posts im Rampenlicht

Autorin: Anna Feldbarg


Willkommen in einer digitalen Ära, die uns unendliche kreative Möglichkeiten bietet! Vor allem Instagram hat eine Bühne geschaffen, auf der wir unser künstlerisches Talent entfalten und fesselnde Geschichten erzählen können. Und das Beste daran ist: Als Foodblogger:in kannst du deine Rezepte jetzt noch lebendiger gestalten! Dank der Zusammenarbeit zwischen Canva1 – einer herausragenden visuellen Design-Plattform, und der beeindruckenden KI-Generierung von ChatGPT2 – wird dein Instagram-Profil zu einem magischen Ort voller Innovation und Inspiration. Zögere nicht länger und tauche mit mir in die visuelle Magie von Instagram ein!

Inhaltsverzeichnis

Mit ChatGPT und Canva der Kreativität freien Lauf lassen

Lass die Flammen deiner Kreativität lodern. Auch wenn du als Foodblogger:in schon viele Gerichte kreiert hast, kann es immer wieder vorkommen, dass dir der Funke der Inspiration fehlt. Doch keine Sorge – hier kommt ChatGPT ins Spiel. Diese innovative KI-Plattform generiert Ideen und Texte für dich, damit du auch bei einem scheinbar simplen Rezept wie dem Tomaten-Mozzarella-Salat deine Leser:innen mit kreativen Beschreibungen begeistern kannst.

Info zu Künstliche Intelligenz

KI bezieht sich auf Menschen und Programme, die menschenähnliche Denk- und Entscheidungsprozesse simulieren können. In diesem Kontext wird KI verwendet, um Texte und Inhalte auf kreativer Weise zu generieren.3

Doch das ist erst der Anfang! Hier kommt die Macht von ChatGPT ins Spiel, welche den Ideen magisches Leben einhaucht und damit den Auftakt für eine atemberaubende Transformation in verführerische Instagram-Posts setzt.

Jetzt betritt Canva die Bühne und präsentiert stolz seine beeindruckenden Vorlagen und unzähligen Designelemente. Als Foodblogger:in hast du somit endlich das Werkzeug an der Hand, um deine kreativen Meisterwerke in visuelle Kunstwerke zu verwandeln! Greife jetzt geschickt auf die von ChatGPT erzeugten Texte zurück und erschaffe so eine holistische Erzählung, welche die Schönheit deiner kulinarischen Kreationen perfekt unterstreicht.

Schritt für Schritt: Vom Funken zur visuellen Magie auf Instagram

Screenshot1: Erstellter Prompt der meine Wünsche berücksichtigt

1. Magische Konzepte zum Leben erwecken

Starte deine visuelle Magie mit Instagram Reise mit ChatGPT durch das Generieren von inspirierenden Ideen und Textfragmenten. Anschließend erstellt ChatGPT eine strukturierte Tabelle für dich, die alle Elemente deiner Instagram-Posts organisiert – von überzeugenden Textvorschlägen bis hin zu passenden Hashtags und exakten Bildbeschreibungen. Diese zentrale Tabelle wird zum Dreh- und Angelpunkt deines gesamten Prozesses und schafft Ordnung für die anschließende visuelle Gestaltung.

Screenshot2: Ausschnitt der Erstellten Tabelle aus ChatGPT4

2. Canva: Die Bühne für visuelle Magie und ChatGPT

Wenn du eine Instagram-Vorlage kreieren möchtest, die perfekt zu deiner Marke passt, gibt es einige wichtige Schritte zu beachten. Zum Glück ist Canva eine großartige Lösung für alle deine Designbedürfnisse! Beginne damit, das richtige Format auszuwählen und sorgfältig ausgewählte Bausteine einzufügen, die gezielt Informationen aus der ChatGPT-Tabelle integrieren. Mit dieser soliden Grundlage kannst du dann dein visuelles Meisterwerk entwerfen und dein Publikum begeistern!

3. Effektive Magie mit Canva und ChatGPT

Mit einem Canva Pro-Konto erhältst du Zugang zur innovativen Funktion der automatischen Design-Erstellung.5 Beginne, indem du die Tabellendaten von ChatGPT in dein Canva-Konto importierst und genieße das Ergebnis! Mit nur einem Klick verknüpfst du die Bausteine der Vorlage mit den relevanten Informationen aus deinen Tabellen und beobachte, wie Canva magisch alle Elemente für dich anordnet. So einfach geht’s – lass dich begeistern!

4. Feinschliff und veröffentlichen: Instagram Posts den letzten Schliff geben

Die Feinabstimmung ist entscheidend. Ein kurzer Blick auf das fertige Design hilft, Details zu optimieren und sicherzustellen, dass jedes Element perfekt harmoniert. Sobald dein Werk fertig ist, kannst du es hochladen und auf Instagram veröffentlichen.

Screenshot3: Instagram Bildbeschreibung6

5. Magische Präsentation auf Instagram

Die sorgfältig erstellten Beiträge warten darauf, auf Instagram präsentiert zu werden. Integriere den von ChatGPT generierten Bildbeschreibungstext nahtlos in dein visuelles Gesamtkunstwerk und erreiche so ein perfektes Ergebnis. Lade mit einem Klick deine Kreationen hoch und teile inspirierende Geschichten sowie kulinarische Erlebnisse mit deiner Community – Schritt für Schritt zum Erfolg!

Zurück zu Schritt eins?

Die Macht der visuellen Magie

Deine visuelle Magie auf Instagram – die Reise von der ersten Idee bis zur Veröffentlichung wird durch die gekonnte Verschmelzung von Canva und ChatGPT zu einem visuellen Vergnügen der Extraklasse. Durch die Symbiose von Kreativität und Technologie entstehen so Instagram-Posts, die nicht nur visuell beeindrucken, sondern auch Geschichten auf unvergleichliche Weise erzählen.

Bist du bereit, deiner Kreativität freien Lauf zu lassen? Erwecke deine Instagram-Posts mit der Magie von Canva und der künstlichen Intelligenz von ChatGPT zum Leben! 🚀 Lass dich inspirieren und teile uns deine Gedanken gerne in den Kommentaren mit!

Video-Tutorial: Visuelle Magie mit Canva und ChatGPT in Aktion

Hier ein einleitendes Video-Tutorial, das den gesamten Prozess von Ideengenerierung bis zur Veröffentlichung auf Instagram zeigt7

Quiz: Teste dein Wissen über Canva, ChatGPT und visuelle Magie

Quellen

  1. Canva Pty Ltd(2023a):Nutzungsbedingungen. Online unter https://www.canva.com/de_de/richtlinien/terms-of-use/[Abruf am 24.08.2023 ] ↩︎
  2. OpenAI(2023a):What is ChatGPT? Online unter https://help.openai.com/en/articles/6783457-what-is-chatgpt [Abruf am 24.08.2023 ] ↩︎
  3. Funk, Michael(2023): Sprache und Wissen. In: Künstliche Intelligenz, Verkörperung und Autonomie. Wiesbaden: Springer Vieweg. S.3 Online unter https://doi.org/10.1007/978-3-658-41106-0_1 ↩︎
  4. OpenAI(2023b): Screenshot2. Online unter https://chat.openai.com/auth/login  ↩︎
  5. Canva Pty Ltd(2023b): Mehrere Designs gleichzeitig erstellen. Online unter https://www.canva.com/de_de/help/bulk-create/[Abruf am 24.08.2023 ] ↩︎
  6. Instagram(2023): Screenshot3. Online unter https://www.instagram.com/ ↩︎
  7. Simon, Felicia(2023): Künstliche Intelligenz erstellt Instagram Content für dich 🤫 Canva & ChatGPT Trick 🔥 einfach erklärt. Online unter https://www.youtube.com/watch?v=yMjDav11jow&ab_channel=FeliciaSimon [Abruf am 24.08.2023 ] ↩︎

Künstliche Intelligenz in der Produktion von Filmen

Autor*innen: Lukas Vojkovic und Ann-Christin Thoma


Übersicht

Intro

Künstliche Intelligenz (KI) wird normalerweise damit in Verbindung gebracht, Menschen bei Aufgaben zu unterstützen, die durch Automatisierung besser erledigt werden können.
Mit dem fortschreitenden technischen Wandel ist es der KI heutzutage aber nicht nur möglich, fortschriftliche visuelle Effekte in Filmen zu liefern oder den Videoschnitt zu erleichtern, sondern auch Prognosen hinsichtlich des möglichen Erfolgs eines Filmes zu liefern und ganze Storyboards zu verfassen.
Die KI entwickelt sich immer mehr zu einer unausweichlichen Kraft, die Filme zukünftig weiter aufarbeiten und stetig verbessern wird. 1

Die KI „Benjamin“ und ihr Kurzfilm „Sunspring“

Hinsichtlich der Verwendung von KI in der Filmproduktion sticht besonders der Science-Fiction-Kurzfilm „Sunspring“ ins Auge, welcher 2016 debütierte. Das Interessante an diesem Film ist, dass er auf den ersten Blick wie viele andere Science-Fiction-Filme wirken mag – bis zur Erkenntnis, dass dessen Drehbuch ausschließlich von einer KI geschrieben wurde, welche sich selbst den Namen “Benjamin” zuteilte.
Es handelt sich hierbei um ein rekurrentes neuronales Netzwerk namens LSTM
(long short-term memory), welches vorher mit Drehbüchern verschiedenster Science-Fiction-Filme sowie -Serien gespeist wurde. Trotz oder gerade wegen dieses daraus resultierenden, sehr kuriosen Drehbuchs wurde der Kurzfilm mit drei Schauspielenden gedreht und erhielt dadurch große Aufmerksamkeit. 2

Benjamin kreierte im selben Kurzfilm auch die Musik. Das neuronale Netzwerk wurde hier, ähnlich wie bei der vorangegangenen Vorgehensweise, mit vielen verschiedenen Einflüssen trainiert. In diesem Fall mit über 30.000 verschiedensten Popsongs. 3

Visuelle Effekte und Unterstützung in der Postproduktion

Als weitere Art der Unterstützung wird KI inzwischen im Zuge von weiteren bestehenden Produktionsabläufen sogar in Schnittprogramme implementiert. Dort kann sie unter anderem durch nur einen Klick Audio- oder auch Farbanpassungen vornehmen. 4
Doch nicht nur dort kommt künstliche Intelligenz in der Filmwelt der Postproduktion zum Einsatz. Im Bereich der visuellen Effekte kommt sie gerade beim Rotoskopieren zum Tragen, wo bestimmte Teile des Filmmaterials vom Hintergrund separiert werden. Rotoskopieren ist eine Technik, um animierte Filme und komplexe Bewegungsabläufe in Animationsfilmen realistischer wirken zu lassen. Als Beispiel dient hier das Unternehmen Array. Deren neuronales Netzwerk wurde mit Material gefüttert, welches von Visual Effect Artists arrangiert wurde. Nach ausreichendem Training kann das neuronale Netzwerk sogar ohne Unterstützung durch einen Greenscreen arbeiten. 5

Auch die Computersoftware “Massive” sticht im Zuge der visuellen Effekte ins Auge. Ursprünglich für die „Herr der Ringe“-Trilogie entwickelt war diese mit Hilfe von künstlicher Intelligenz in der Lage, computergenerierte Armeen zu erstellen sowie realistische Schlachten in enormen Ausmaßen zu simulieren. “Massiv” erschuf auch andere ikonische Kampfszenen der letzten Jahre, darunter Szenen aus „Game of Thrones“ sowie „Marvel’s Avengers: Endgame“. 6

Podcast “The Daily Charge”: How Lord of the Rings changed filmmaking

Den Erfolg eines Filmes vorhersagen

Ein ganz anderer Bereich, welcher durch KI revolutioniert wird, ist die prognostische Ebene. Denn sie ist inzwischen auch dazu in der Lage, Prognosen über den möglichen Erfolg eines Filmes zu treffen. Zum Beispiel soll die vom Datenwissenschaftler Yves Bergquist entwickelte KI „Corto“ dank künstlicher neuronaler Netze in der Lage sein, den Erfolg eines Films vorherzusagen. Das funktioniert nicht nur durch Analyse verschiedenster Elemente aus dem Film direkt, sondern auch über Daten aus sozialen Medien, wo die KI durch verschiedene Äußerungen die Stimmung sowie den kognitiven Zustand der Nutzenden ermittelt, die verschiedene Medieninhalte zugeführt bekommen haben. 7

Umwandlung alter Filmaufnahmen

Aber Künstliche Intelligenz kann auch für ganz andere Zwecke genutzt werden. So konvertierte ein YouTuber namens Denis Shiryaev eine über 100 Jahre alte Filmaufnahme der französischen Lumière-Brüder aus dem Jahr 1895 durch die Unterstützung einer KI auf das Videoformat 4k sowie die Bildrate auf 60 Bilder pro Sekunde. Somit verfrachtete er den Film durch Unterstützung einer KI technisch ins aktuelle Zeitalter. Hier bestand zwar durchaus noch Verbesserungspotential, allerdings geschah der Vorgang mit wenig Aufwand und wies erneut eindrucksvoll auf, zu was künstliche Intelligenz inzwischen in der Lage ist. 8

Quelle: Vimeo

Ersetzt die KI den Menschen?

Es ist wirklich erstaunlich zu sehen, was für einen großen Einfluss KI in der Welt der Filmproduktion hat und wie viele Bereiche dieser durch sie bereits vereinfacht werden können. Der damit verbundene technische Fortschritt eröffnete die letzten Jahre viele neue innovative Anwendungen in der gesamten Branche und ermöglicht Unternehmen nicht nur, die Effizienz ihrer Arbeitsabläufe zu steigern, sondern auch, ihre Arbeitskosten zu senken und mehr Umsatz zu generieren. 9

Trotz all dieser Vorteile sollte gerade ein Aspekt im Kopf verbleiben:

„KI ist weder nur ein Werkzeug noch ein vollständiger Ersatz für einen Schriftsteller. Man braucht eine Symbiose, um gemeinsam mit der Maschine Kunst zu kreieren.“ 10

Vladimir Alexeev

Quellen

1 Datta, Angana; Goswami, Ruchi (2020): The Film Industry Leaps into Artificial Intelligence: Scope and Challenges by the Filmmakers. Zuletzt aktualisiert am 02.10.2020. Online unter: https://link.springer.com/chapter/10.1007/978-981-15-6014-9_80 [Abruf am 22.11.2022]
2 Alexeev, Vladimir (2022): KI als Filmemacher: Wie man Kurzfilme nur mit Machine-Learning-Modellen macht. Zuletzt aktualisiert am 15.07.2022. Online unter https://1e9.community/t/ki-als-filmemacher-wie-man-kurzfilme-nur-mit-machine-learning-modellen-macht/17523 [Abruf am 27.11.2022]
3 Newitz, Annalee (2016): Movie written by algorithm turns out to be hilarious and intense. Zuletzt aktualisiert am 30.05.2021. Online unter https://arstechnica.com/gaming/2021/05/an-ai-wrote-this-movie-and-its-strangely-moving/ [Abruf am 23.11.2022]
4 Antunes, Jose (2018). Artificial Intelligence at NAB 2018: real world Applications. Zuletzt aktualisiert am 09.04.2018. Online unter https://www.provideocoalition.com/artificial-intelligence-at-nab-2018-real-world-applications/ [Abruf am 27.11.2022]
5 Metz, Cade (2018): Lights, Camera, Artificial Action: Start-Up Is Taking A.I. tot he Movies. The New York Times. Zuletzt aktualisiert am 26.03.2018. Online unter https://www.nytimes.com/2018/03/26/technology/artificial-intelligence-hollywood.html [Abruf am 22.11.2022]
6 Carson, Erin (2022): How ‘Lord of the Rings’ Used AI to Change Big-Screen Battles Forever. Zuletzt aktualisiert am 04.09.2022. Online unter https://www.cnet.com/culture/entertainment/features/how-lord-of-the-rings-used-ai-to-change-big-screen-battles-forever/ [Abruf am 30.11.2022]
7 Schneider, Vanessa (2019): Künstliche Intelligenz & Kultur: Warum Hollywood auf Algorithmen setzt. Zuletzt aktualisiert am 30.09.2019. Online unter https://www.br.de/kuenstliche-intelligenz/so-setzt-hollywood-auf-kuenstliche-intelligenz-machine-learning-100.html [Abruf am 24.11.2022]
8 Westphal, André (2020): Über 120 Jahre alter Film mit KI-Unterstützung zu 4K und 60 fps umgewandelt. Zuletzt aktualisiert am 07.02.2020. Online unter https://stadt-bremerhaven.de/ueber-120-jahre-alter-film-mit-ki-unterstuetzung-zu-4k-und-60-fps-umgewandelt/ [Abruf am 22.11.2022]
9 4 How Artificial Intelligence Is Used in the Film Industry. Online unter https://smartclick.ai/articles/how-artificial-intelligence-is-used-in-the-film-industry/ [Abruf am 28.11.2022]
10 Alexeev, Vladimir (2022): KI als Filmemacher: Wie man Kurzfilme nur mit Machine-Learning-Modellen macht. Zuletzt aktualisiert am 15.07.2022. Online unter https://1e9.community/t/ki-als-filmemacher-wie-man-kurzfilme-nur-mit-machine-learning-modellen-macht/17523 [Abruf am 28.11.2022]

Interaktive Videos auf der Leinwand

Autorinnen: Bonnie Huntemann und Nicole Hafner


Ein neues Filmerlebnis?

Die Filmindustrie und vor allem der Streaming-Anbieter Netflix haben in den letzten Jahren mit einem selbst produzierten Aufgebot an interaktiven Filmen eine Art Hype geschaffen.

Ob mit der ganzen Familie auf der Couch oder alleine in den öffentlichen Verkehrsmitteln: Zuschauer*innen empfinden eine starke Bindung zum Geschehen im Film. Mehr noch: durch die gefühlte Partizipation, die suggeriert wird und durch die Aufmerksamkeit, die vorausgesetzt wird um ein erfolgreiches interaktives Erlebnis zu erfahren, entsteht fast ein ähnlich starkes Gefühl von Teilhabe den Verlauf zu beeinflussen, wie bei modernen Videospielen.

Bild von StockSnap auf Pixabay

Inhaltsverzeichnis

  1. Ein neues Filmerlebnis?
  2. Der Beginn eines Hypes?
  3. Beispiele für interaktive Filme
  4. Wie “interaktiv” sind interaktive Filme wirklich?
  5. Quellen

Der Beginn eines Hypes?

Doch der Wunsch nach Interaktion mit dem Filmgeschehen ist keine neue Idee und hat seinen Ursprung schon gar nicht in der Streamingindustrie.

“Einen ersten Versuch mit interaktiven Filmelementen unternahm beispielsweise Winsor McCays Zeichentrick-Experiment Gertie the Dinosaur (USA 1914), für das der Regisseur sich bei jeder Vorführung vor der Leinwand positionierte und mit der gezeichneten Dinosaurierdame Gertie ‹interagierte›, die seine Befehle ‹befolgte› “

Auch wenn es sich hierbei zweifelsfrei nicht mal annähernd um tatsächliche Interaktion zwischen Publikum und Filmgeschehen handelt, wird deutlich, dass die Idee schon früh Wurzeln in der Filmindustrie geschlagen hat.

Aber was macht interaktive Filmelemente so interessant und in welchen Bereichen kann man Sie heute und in Zukunft nutzen?

“Videos zählen aktuell und vermutlich auch künftig zu den bedeutendsten digitalen Medien im Internet. Sie lassen sich für fast alle Anwendungsbereiche verwenden und können Sachverhalte und Zusammenhänge so anschaulich und authentisch darstellen, wie es mit keinem anderen Medientyp möglich ist.”

Die Filmindustrie entwickelt sich stetig weiter, immer auf der Suche nach einem neuen Trend, in den letzten 10 Jahren ging es beispielsweise von 3D über 4D zu interaktiven Filmen. Ziel ist es dabei dem Zuschauer immer mehr das Gefühl zu geben er wäre in das Geschehen involviert, ein Wandel von Betrachtung hin zur echten Interaktion.

Trailer von “Du gegen die Wildnis” (2019)

Beispiele für interaktive Filme aus den letzten Jahren

Wie “interaktiv” sind interaktive Filme wirklich?

Die Möglichkeit mitzuentscheiden, wie sich die Handlung im Film gestaltet erweckt im Betrachter zwar die glaubhafte Illusion von Interaktivität, dabei ist dies natürlich keine freie, selbst gefällte Entscheidung, wie wir sie aus dem realen Leben kennen.Denn Interaktivität im Film hat ihre Grenzen. Auch wenn vermeintliche Partizipation suggeriert wird, sind Entscheidungsmöglichkeiten, dadurch, dass sie schon bei der Produktion erdacht wurden, vorbestimmt und in einer Art Baum-Struktur deklariert. So ist es dem Zuschauer zwar nicht möglich irgendwie die Handlung zu beeinflussen, aber er kann in manchen Fällen doch zwischen zwei oder mehr vorgegebenen Möglichkeiten wählen.

Die Filmindustrie steht noch am Beginn der Entwicklung interaktiver Kinoerlebnisse, die zukünftigen Veröffentlichungen versprechen spannend zu werden, werden aber nie unser Bedürfnis nach echter Interaktivität decken können.

Quellen

Die KI DeepNash meistert Stratego

Autor*innen: Jessica Arnold und Jan Heinemeyer

DeepNash ist die neue KI der Firma Deepmind, die erstmals in der Lage ist das Brettspiel Stratego trotz unvollständiger Informationen zu meistern.


Darstellung des Brettspiels Stratego [3 ]

Inhalt

Die neue KI DeepNash

Während die künstliche Intelligenz „AlphaZero“ Schach und „MuZero“ als Nachfolger verschiedene Spiele der Spielkonsole Atari meisterte, veröffentlichte die Firma Deepmind die nächste Entwicklungsstufe. Diese KI trägt den Namen DeepNash. AlphaZero meisterte Brettspiele mit klaren Regeln über ein modell-basiertes Training und MuZero, die schwer in Regeln auszudrückenden Atari-Spiele durch ein modell-freies Training. DeepNash hingegen legt sowohl die Spielregeln wie auch das Modell eines Spiels für die Planung fest. Die Besonderheit ist hierbei, dass von der gängigen Methode der Monte-Carlo-Baumsuche abgewichen wird. In der nachfolgenden Tabelle wird die unterschiedliche Komplexität von Brettspielen nochmals deutlich. [1][6]

SchachPokerGo 19*19Stratego
durchschnittliche Züge je Spiel60153001000
mögliche Startaufstellungen110611066
Komplexität des Spielbaums1012310171036010535
Übersicht der Komplexität unterschiedlicher Brettspiele [3]

Die Nash-Spieltheorie

Das Besondere an DeepNash ist, dass es in den Spielen versucht ein Nash-Gleichgewicht zu erreichen. Hierdurch verläuft das Spiel stabil. Das Nash-Gleichgewicht ist nach dem Spieltheorie-Mathematiker Jon Forbes Nash benannt. Die Theorie folgt der Annahme, dass ein Abweichen der Strategie zu einem schlechteren Ergebnis führt. DeepNash und das Nash-Gleichgewicht folgen also konstant einer Strategie. Infolgedessen hat DeepNash mindestens eine 50%ige Chance zu gewinnen. [1][3]

Die KI DeepNash spielt Stratego

Youtube-Kanal Deepmind: Die erste Stratego Partie von DeepNash gegen einen menschlichen Gegner[2]

Die KI DeepNash nahm als Trainingsgrundlage das Brettspiel Stratego. Das Brettspiel hat im Schnitt 381 Spielzüge und die besondere Schwierigkeit, dass nicht alle Informationen von Beginn an gegeben sind, da mit verdeckten Figuren gespielt wird und der Gegner mit Hilfe von Bluffs i.d.R. seine Taktik verschleiert. Optimale Spielabläufe gibt es nicht, da die Züge inkonsequent sind, das heißt jederzeit ist das Spielergebnis offen. Es wird daher anders als beim Schach nicht in Zügen, sondern in Spielen gedacht. [1][3]

Die optimale Strategie in Stratego erreicht die KI nach 5,5 Milliarden simulierten Partien. [1] DeepNash besiegte damit 97% der derzeitigen Computersysteme und erreichte eine Siegesquote von 84% gegen menschliche Spieler auf der Online-Stratego-Plattform Gravon. DeepNash gelangte damit in die Top 3 der dortigen Bestenliste. Eine weitere Besonderheit der KI stellte die Anwendung menschlicher Spielstrategien dar. So zeigte DeepNash das Bluffen oder auch das Opfern von Figuren als Taktik. Der Algorithmus „Regularised Nash Dynamics“ (R-NaD) wird außerdem für Forschende als OpenSource Download auf Github zur Verfügung gestellt. [1][4][5]

Ausschnitt aus der OpenSource Publikation zu DeepNash[7]

Zukünftige KI Anwendungsfelder

DeepNash ist die nächste Weiterentwicklung, um Menschen in Brettspielen zu übertrumpfen und wird künftig als Grundlage für alltägliche Herausforderungen genutzt werden können. Insbesondere mit unvollständigen Informationen zu arbeiten stellt einen weiteren Meilenstein dar, der in der Lage ist bei komplexen Problemen wie der Optimierung des Verkehrssystems oder auch im Bereich des autonomen Fahrens – wie auch MuZero zuvor – einen Beitrag leisten zu können. [3][4][6]

Quiz

Teste nun dein Wissen über DeepNash in einem kleinen Quiz.

Über die Autoren

Die Autorin Jessica Arnold arbeitet derzeit in der Hochschulbibliothek Emden und studiert berufsbegleitend Informationsmanagement an der Hochschule Hannover.

Der Autor Jan Heinemeyer arbeitet derzeit in der Stadtbücherei Penzberg und studiert berufsbegleitend Informationsmanagement an der Hochschule Hannover.

Beide Autoren eint das private Interesse an Informatik, Gaming, KI und Brettspielen.

Quellen:

Fußnoten:

1: Bastian, Matthias (2022)

2: DeepMind (2023)

3: Perolat, Julien u.a. (2023)

4: Meier, Christian J. (2022)

5: Menge-Sonnentag, Rainald (2022)

6: Schreiner, Maximilian (2020)

7: Perolat, Julien u.a. (2022)

Literaturverzeichnis:

Bastian, Matthias (2022): Deepminds neue Spiele-KI soll ein Game-Changer in der echten Welt werden. . In: THE-DECODER.de, Ausgabe vom 04.12.2020. Online verfügbar unter https://the-decoder.de/deepminds-neue-spiele-ki-soll-ein-game-changer-in-der-echten-welt-werden/, zuletzt geprüft am 05.01.2023.

DeepMind (2023): DeepNash Stratego game 1. Online verfügbar unter https://www.youtube.com/watch?v=HaUdWoSMjSY, zuletzt aktualisiert am 05.01.2023, zuletzt geprüft am 05.01.2023.

Meier, Christian J. (2022): Künstliche Intelligenz spielt Stratego und besiegt Menschen: ein Durchbruch. In: Süddeutsche Zeitung, 02.12.2022. Online verfügbar unter https://www.sueddeutsche.de/wissen/kuenstliche-intelligenz-stratego-brettspiel-durchbruch-menschen-1.5707877, zuletzt geprüft am 05.01.2023.

Menge-Sonnentag, Rainald (2022): KI meistert nächstes komplexes Brettspiel: DeepNash siegt in Stratego. In: heise online, 05.12.2022. Online verfügbar unter https://www.heise.de/news/KI-meistert-naechstes-komplexes-Brettspiel-DeepNash-siegt-in-Stratego-7365933.html, zuletzt geprüft am 05.01.2023.

Perolat, Julien u.a. (2022): Mastering the Game of Stratego with Model-Free Multiagent Reinforcement Learning. Online unter https://arxiv.org/pdf/2206.15378.pdf [Abruf am 07.01.2023]

Perolat, Julien u.a. (2023): Mastering Stratego, the classic game of imperfect information. Online verfügbar unter https://www.deepmind.com/blog/mastering-stratego-the-classic-game-of-imperfect-information, zuletzt aktualisiert am 05.01.2023, zuletzt geprüft am 05.01.2023.

Schreiner, Maximilian (2020): Deepmind MuZero: Auf dem Weg zum Universalalgorithmus. In: THE-DECODER.de, Ausgabe vom 24.12.2020. Online unter https://the-decoder.de/deepmind-muzero-auf-dem-weg-zum-universalalgorithmus/#top, zuletzt geprüft am 05.01.2023.

Methoden zur Verbesserung der User Experience am Beispiel des Kano-Modells

Autorinnen: Jennifer Tews und Katharina Trommer


Die Kundschaft ist König – doch was erwartet sie eigentlich? Was erwarten Kund:innen von einem Produkt oder einer Dienstleistung und womit lassen sie sich begeistern? Für Unternehmen oder Dienstleister ist es wichtig, die Bedürfnisse seiner Kund:innen sowie deren Ansprüche und Wünsche zu kennen und im besten Fall zu erfüllen. Denn nur so können eine erhöhte Nachfrage und ein dementsprechendes Angebot gewährleistet werden. Eine Einführung in diese Thematik sowie das Kano-Modell als Methode, die Zufriedenheit der Kund:innen festzustellen, erhalten Sie in diesem Beitrag.

Inhalt

Wie Zufriedenheit in der Kundschaft entsteht

Ob Parkautomat oder Selbstbedienungskasse im Supermarkt – unser Alltag ist von interaktiven Produkten und Anwendungen geprägt. Dabei kommt es vor, dass wir mit einigen Systemen mühelos zurechtkommen und uns mit anderen schwertun. Dementsprechend hinterlassen Produkte oder Anwendungen einen positiven, geradezu großartigen Eindruck oder einen negativen und unbefriedigenden. Diese Erfahrung lässt sich in einem einfachen Begriff beschreiben: User Experience (kurz UX).[1]

Die User Experience beschreibt die Wahrnehmungen und Reaktionen einer Person auf die Nutzung eines Systems, Produktes oder einer Dienstleistung.[2] Sie rückt das subjektive Empfinden sowie die Bedürfnisbefriedigung der Nutzenden ins Zentrum, wobei emotionale Faktoren handlungsleitend sind. Ein positiv in Erinnerung gebliebenes Nutzungserlebnis kann dafür sorgen, dass Kund:innen ein Produkt weiterempfehlen oder noch einmal kaufen. Insbesondere die Ästhetik und intuitive Anwendbarkeit wirken dabei überzeugend.[3]

“Wenn sie ein großartiges Erlebnis schaffen, werden sich die Kund:innen gegenseitig davon erzählen. Sie müssen immer fantastisch sein.”

Jeff Bezos, Amazon

Einfach gesagt entscheiden sich Kund:innen beim Kauf für das Angebot, welches ihren Anforderungen und Wünschen am meisten entspricht. Für Unternehmen ist es daher sinnvoll, die Aspekte der User Experience zu berücksichtigen, um die Nutzungszufriedenheit zu steigern und eine positive Wahrnehmung des Produktes zu bewirken. Dies erfordert mitunter, sich von etablierten Praktiken bei der Produktentwicklung zu lösen und neue Wege einzuschlagen, um Produkte und Anwendungen noch besser an die Bedürfnisse der Nutzer:innen anzupassen.

Damit landen wir wieder bei unserer Einstiegsfrage, was Kund:innen erwarten? Um herauszufinden, womit Produkte und Dienstleistungen positive Eindrücke hinterlassen, ist die Analyse der Zufriedenheit der Kundschaft notwendig.

Das Kano-Modell – Kund:innenzufriedenheit sichtbar machen

Noriaki Kano

Das Kano-Modell ist eine Methode, um die Zusammenhänge zwischen dem Erreichen bestimmter Produkt-oder Dienstleistungseigenschaften und der erwarteten Kund:innenenzufriedenheit darzustellen. Der Schöpfer dieses Modells, Noriaki Kano, bezieht sich bei seinem Modell auf die Theorie von Frederick Herzberg. Diese besagt, dass nicht notwendigerweise ein linearer Zusammenhang zwischen der Erfüllung eines Bedürfnisses und der daraus resultierenden Zufriedenheit bzw. Unzufriedenheit bestehen muss.[4]

Das Kano-Modell und seine Bestandteile

Innerhalb des Kano-Modells wird zwischen verschiedenen Anforderungskategorien, auch Merkmale oder Faktoren genannt, unterschieden. Es gibt Basis-, Leistungs- und Begeisterungsfaktoren. In einigen Darstellungen wird das Modell durch Questionable, Indifferente Merkmale und Reverse Merkmale ergänzt. Alle Kategorien unterscheiden sich in ihrem Einfluss auf die Kund:innenzufriedenheit und werden im Vorfeld häufig mittels Interviewverfahren bestimmt. Um im Anschluss die Produkt- oder Dienstleistungsanforderungen den einzelnen Kategorien zuordnen zu können, werden Kund:innenenreaktionen bewertet. Dabei wird ein Fragetechnik angewendet, welches auf der Beantwortung zweier Fragen beruht – der funktionalen und der dysfunktionalen Frage.[4]

Die funktionale Frage

Die funktionale Frage ist positiv formuliert und bezieht sich auf die Reaktion der Kund:innen, wenn ein Produkt die jeweils abgefragte Eigenschaft besitzt.

Zum Beispiel:
Was würden Sie sagen, wenn das Produkt bzw. die Dienstleistung über das Merkmal XY verfügen würde?

Die dysfunktionale Frage

Die dysfunktionale Frage ist negativ formuliert und bezieht sich auf die Reaktion der Kund:innen, wenn diese Eigenschaft nicht vorhanden ist.

Zum Beispiel:
Was würden Sie sagen, wenn das Produkt bzw. die Dienstleistung NICHT über das Merkmal XY verfügen würde?

 

Basisfaktoren umfassen Eigenschaften, die von der Kundschaft als Muss für das Produkt vorausgesetzt, aber nicht explizit gefordert werden. Aus diesem Grund werden sie als „Basic“ oder „Must-Be“ bezeichnet. Da diese Faktoren als selbstverständlich erachtet werden, wirkt sich ihr Vorhandensein nicht positiv auf die Kund:innenzufriedenheit aus. Umgekehrt führt ihr Fehlen zu starker Unzufriedenheit.

Ein Beispiel dafür wären die Räder eines Fahrzeugs.

Anders verhält es sich mit den Leistungsfaktoren. Die Zufriedenheit der Kundschaft wächst proportional zum Erfüllungsgrad dieser Anforderungen. Je mehr ein Leistungsattribut erfüllt ist, desto positiver wirkt es sich auf die Kund:innenzufriedenheit aus und umgekehrt. Leistungsfaktoren fungieren häufig als Vergleichskriterium unterschiedlicher Produkte, Angebote oder Dienstleistungen und werden explizit von Kund:innen erwartet.

Ein Beispiel wäre ein Automotor mit besonders starker Leistung.

Begeisterungsfaktoren haben den größten Einfluss auf die Zufriedenheit der Kundschaft. Sie übersteigen deren Anforderungen, sorgen für Begeisterung und werden, ebenso wie die Basisfaktoren, nicht explizit von der Kundschaft verlangt. Im Gegensatz zu den Basisfaktoren werden sie aber nicht vorausgesetzt und lösen deswegen keine Unzufriedenheit aus, wenn sie nicht vorhanden sind. Durch Begeisterungsfaktoren können sich Produkte und Dienstleistungen deutlich von der Konkurrenz abheben. Bereits kleine Leistungssteigerungen können zu einer überproportionalen Steigerung der Kund:innenzufriedenheit führen. Allerdings sind Begeisterungsfaktoren nur schwer zu ermitteln.

Ein Begeisterungsfaktor im Auto könnte eine Sitzheizung sein.

Weitere Bestandteile

Als ergänzende Faktoren können auch Questionable, sowie Indifferente und Reverse Merkmale betrachtet werden.

Questionable weisen auf unlogische Antworten hin und treten auf, wenn sowohl die funktionale Frage als auch die dysfunktionale Frage positiv beziehungsweise negativ beantwortet werden.

Ein Beispiel ist die positive Einschätzung eines sowohl hohen als auch geringen Kraftstoffverbrauchs eines Autos.

Indifferente Merkmale spielen für das Kano-Modell lediglich eine untergeordnete Rolle, da das Vorhandensein oder Fehlen dieser Attribute weder positive noch negative Auswirkungen auf die Nutzungszufriedenheit hat.

Es macht beispielsweise keinen Unterschied, ob das Gaspedal eines Fahrzeugs blau oder schwarz ist. 

Bei Reversen Merkmalen sorgt ein hoher Erfüllungsgrad für Unzufriedenheit bei der Kundschaft. Ein nicht Erfüllen der Attribute führt häufig, aber nicht zwangsläufig zu einer Steigerung der Kund:innenzufriedenheit.

Autos mit besonders viel Hightech und Elektronik können auch Unzufriedenheit auslösen, da beispielsweise die Bedienung als zu kompliziert empfunden wird.[5], [6]

 

Das Kano-Modell einfach erklärt

Bessere User Experience dank Kano-Modell

Wer weiß, was die Kund:innen begeistert, kann Features bewusst einsetzen, um einen Wettbewerbsvorteil zu erlangen oder die Qualität des Produktes zu verbessern. Zudem lassen sich durch die Steigerung der User Experience unternehmerische Ziele als auch die Interessen der Kundschaft kombinieren. Das Kano-Modell ist eine geeignete Methode, um neue Konzepte, Ideen und Features zu testen und zu bewerten. Zusätzlich vermittelt es ein umfassendes Verständnis für die verschiedenen Anforderungen der Kundschaft, indem es das Verhältnis zwischen Produktanforderung und Kund:innenzufriedenheit abbildet. Kurz gesagt: durch das Kano-Modell lernen Sie die Wünsche und Ansprüche Ihrer Kund:innen kennen, welche sie gewinnbringend für die Verbesserung der User Experience Ihrer Produkte und Dienstleistungen einsetzen können.[7], [8]

Überzeugt?

Sie wollen gleich loslegen und die Zufriedenheit Ihrer Kundschaft mittels Kano-Modell herausfinden? Wir haben Ihnen eine kleine Übersicht mit weiterführenden Informationen zusammengestellt.

Aufgepasst? Testen Sie sich selbst!

Quellen

Literatur

  1. Burmeister, Michael: User Experience = Usability plus X? Online unter https://www.uid.com/de/aktuelles/user-experience-usability [Abruf am 15.11.2022]
  2. DIN EN ISO 9241-210, Ergonomie der Mensch-System-Interaktion. Teil 210, Menschzentrierte Gestaltung interaktiver Systeme (ISO 9241-210:2019)
  3. Richter, Michael; Flückiger, Markus (2016): Usability und UX kompakt. Produkte für Menschen. 4. Auflage. Berlin, Heidelberg: Springer Vieweg (IT kompakt)
  4. Graser, Laura; Nirschl, Marco (2020): Steigerung der Kundenzufriedenheit durch Gestaltung von Artikeldetailseiten am Beispiel von WITT WEIDEN. Amberg-Weiden: Ostbayerische Technische Hochschule (OTH) (Weidener Diskussionspapiere, Nr. 75 (Juni 2020))
  5. t2informatik GmbH (2022): Kano-Modell. Online unter https://t2informatik.de/wissen-kompakt/kano-modell/ [Abruf am 09.12.2022]
  6. Legend (2021): Kano-Modell ganz einfach erklärt. Video publiziert am 14.08.2021 auf YouTube. Online unter https://www.youtube.com/watch?v=j4aJK5ThyNI [Abruf am 20.12.2022]
  7. Pfeifer, Anne (2018): Vorteile und Nachteile der Kano-Methode. Zuletzt aktualisiert am 02.05.2018. Online unter https://usertimes.io/2018/05/02/kano-vor-und-nachteile/ [Abruf am 09.12.2022]
  8. Rehmann, Nico (2021): Was ist User Experience? Zuletzt aktualisiert am 05.08.2021. Online unter https://www.cio.de/a/was-ist-user-experience,3661318 [Abruf am 15.11.2022]

Abbildungen

Text-zu-Bildysnthese: Ist das nächste Kunstwerk nur noch einen Prompt entfernt?

Autorin: Annika Bleich


Ein Prompt ist eine Texteingabe bestehend aus wenigen Stichworten. Sie dient der KI eines Bildgenerators als Grundlage für das Erzeugen von Bildern und ermöglicht es jeder Person, auch dir, die eigenen kreativen Ideen in Bildern umzusetzen. Aber können einzelne Stichworte wirklich das Potenzial eines Kunstwerks innehaben?

Inhalt

Einführung

Zur Definition von Kunst schreibt Brockhaus: „die Gesamtheit des vom Menschen Hervorgebrachten […] zu dessen Voraussetzungen die Verbindung von hervorragendem Können und großem geistigem Vermögen gehören.“[1] Eine KI benötigt nur ein paar Stichworte, sogenannte Prompts, und wenige Sekunden, um ein Bild zu generieren und liefert zusätzlich verschiedene Varianten.[2] Das Ergebnis kann von unzufrieden bis überragend präzise reichen. Dies steht in Abhängigkeit zum Prompt und der jeweiligen KI.[3]

Sei PromptkünstlerIn

Am Anfang steht nur eine Zeile und in diese gibst du ein paar Stichworte ein. Die Zeile gehört zu einer der zahlreichen meist offen zugänglichen Bildgeneratoren. Darunter zählen unter anderem Midjourney, Dall-E und Stable Diffusion. Wie sie im Einzelnen funktionieren, kann der jeweiligen Webseite entnommen werden. Was alle gemeinsam haben:

  • Du entscheidest über den Prompt. Deine Fantasie ist Voraussetzung für den Bildinhalt.
  • Nach wenigen Sekunden erhältst du in Anlehnung an deinen Prompt ein Bild. Meistens in mehreren Variationen.

Jetzt hast du ein Bild, an dem die Urheberrechte alleine dir gehören. Aber wie ist es zustande gekommen?

Wie funktioniert Text-zu-Bildsynthese?

Zunächst wird eine Trainingsdatenbank mit Millionen von Bildern mit Bildbeschreibungen benötigt.[4] Die Bildbeschreibungen stammen unter anderem aus dem „alt“ Text, wie man ihn bei Html verwendet, um Bildinhalte zu beschreiben.[5] Der KI wird diese Datenbank zur Verfügung gestellt, um mittels Deep Learning, einem Lernverfahren, ihr neuronales Netz zu trainieren. Das neuronale Netz stellt, in Anlehnung an die im menschlichen Gehirn befindlichen Neuronen, eine Struktur aus miteinander vernetzten Informationen dar.[6] Es ergibt sich eine für die KI logische Verbindung zwischen Text und Bildinhalt.[7]

Die KI nutzt einen Prozess namens „Diffusion“. Ein Muster aus zufälligen Pixeln wird soweit modifiziert, bis sich daraus ein sinnvolles Bild ergibt.[8] Da es sich um einen zufälligen Prozess handelt, wird bei gleichbleibendem Prompt niemals dasselbe Bild entstehen.[9]

Dall-E und die Welt der Kunst

Unter anderem befinden sich in der Trainingsdatenbank die Bilder bekannter KünstlerInnen. Du hast also die Möglichkeit, einen Prompt dazu zu verwenden, deren Technik zu imitieren. Die UrheberInnen wurden allerdings nicht gefragt, ob sie mit der Verwendung ihrer Werke in der Datenbank und dem daraus resultierenden Nachahmen ihrer Kunst, einverstanden sind. [10]

Einerseits wird es dir und jedem anderen ermöglicht, eure künstlerischen Ideen mit wenigen Einschränkungen zu verwirklichen, ohne zuvor jahrelang benötigte handwerkliche Erfahrung sammeln zu müssen. Andererseits gefährdet dies die Arbeit unzähliger freischaffender KünstlerInnen, deren Einkommen darauf beruht, Grafiken, Illustrationen, Fotografien, Konzepte und dergleichen zu schaffen.[11]  Das synthetische Werk von Jason Allen, der damit einen Kunstwettbewerb gewann, führte erst kürzlich zu regen Diskussionen.

Prompkunst und ihre Grenzen

Auch wenn dich nun das Promptfieber gepackt hat, im Universum der synthetischen Bilder unterliegt deine Fantasie gewissen Einschränkungen. Grundsätzlich unzulässig ist die Erstellung von illegalem, gewalttätigem, sexuell explizitem oder anderweitig unangemessenem Inhalt.[12] Dies soll eine missbräuchliche Nutzung der KI und das Verbreiten problematischen Bildmaterials verhindern.[13]

Die Entwickler versuchen solche Bilder unter anderem durch Wortfilter bei der Prompteingabe und durch das Filtern unangemessener Inhalte in der Trainingsdatenbank zu verhindern.[14] Hierfür muss zunächst, beruhend auf individuellem Empfinden, definiert werden, welche Inhalte unangemessen sind.[15] Das Filtern hat unter anderem zur Folge, dass sich, wie im Fall von Dall-E, bei den Ergebnissen eine deutlichere Tendenz zu Genderstereotypen, wie beispielsweise nur noch Bilder von männlichen Geschäftsführern, abzeichnet. [16]

Einen genauen Grund konnten die Entwickler für diese Tendenz nicht nennen. Unter anderem stellten sie am Beispiel des männlichen Geschäftsführers die Hypothese auf, dass, auch wenn Männer und Frauen in der ursprünglichen Trainingsdatenbank in etwa gleichmäßig repräsentiert sind, Frauen häufiger in einem sexuellen Kontext dargestellt und somit gefiltert werden. Dem so entstehenden Ungleichgewicht der Geschlechter kann unter anderem dadurch entgegen gewirkt werden, indem die gefilterte Datenbank nun mit mehr Bildern von weiblichen Geschäftsführerinnen angereichert wird.[17]

Neben Filtern arbeiten die Entwickler der Bildgeneratoren auch an weiteren Schwierigkeiten. Dazu gehören unter anderem ein fehlendes Textverständnis der KI gegenüber bestimmten Prompts oder die teils unrealistische Abbildung von Personen oder Tieren in synthetischen Bildern.[18] 

Ein Blick in die Zukunft

our mission of creating AI that benefits humanity“

OpenAI

OpenAI, die Entwickler von Dall-E, formulieren auf ihrer Webseite diesen ambitionierten Wunsch. Unrealistisch ist dieser Anspruch nicht. Irgendwann soll die Leistung von KIs menschenähnliches Niveau erreichen, was in vielen wichtigen Bereichen wie zum Beispiel der Landwirtschaft, Automobilindustrie oder Pflege enorm hilfreich sein wird. [19]

Neben Bildern kann eine KI wie NUWA-Infinity mittlerweile sogar kurze Videoclips generieren. Zwar sind diese noch lange nicht perfekt, betrachtet man jedoch allein die rasante Entwicklung in den letzten Wochen, stellt sich die Frage, ob KIs irgendwann sogar in der Lage sind, ganze Filme synthetisch zu erstellen. Eine weitere Open Source KI von OpenAi namens ChatGPT, veröffentlicht im November 2022, ist bereits dazu in der Lage, wissenschaftliche Texte auf Grundlage von Texteingaben zu formulieren. [20]

Der Beginn einer neuen Kunstepoche?

Bislang reicht noch längst nicht jeder Prompt für ein Kunstwerk aus. Jason Allen investierte bereits mehrere Tage Arbeit mit Unterstützung eines Bildbearbeitungsprogramms, um sein beim Kunstwettbewerb eingereichtes Bild zu kreieren.[21] Die Gefährdung von KünstlerInnen durch Bildgeneratoren scheint zunächst zwar greifbar, aber wann die Arbeit von KIs tatsächlich menschenähnliches Niveau erreicht, bleibt vorerst eine Frage der Zeit.[22]

Ein Blick in die Vergangenheit hilft, um zu sehen, dass zumindest eine Definition von Kunst schon immer anpassungsfähig war. Auch die Entwicklung der Fotografie wurde lange Zeit nicht als Kunst anerkannt.[23] Und vielleicht wird eines Tages das Generieren synthetischer Bilder zu den Kunstmaßstäben einer zukünftigen Epoche gehören.

“Die Einschätzung von Kunst hängt von den Maßstäben einer Epoche und von der individuellen Sicht ab.”

Brockhaus Enzyklopädie Online

Literaturquellen

AI IMPACTS (2022): Will Superhuman AI be created? Online unter https://aiimpacts.org/argument-for-likelihood-of-superhuman-ai/ [Abruf am 10.01.2023]➝[19]

Brockhaus Enzyklopädie Online (o.J.): neuronale Netze (künstliche Intelligenz). Online unter https://brockhaus.de/ecs/enzy/article/neuronale-netze-kunstliche-intelligenz [Abruf am 10.01.2023]➝[1]➝[7]

Ford, Martin (2019): Die Intelligenz der Maschinen. Frechen: mitp Verlags GmbH & Co (mitp Professionals). Online unter https://content-select.com/de/portal/media/view/5e4ba26b-d1d4-49a1-93de-6b1fb0dd2d03 [Abruf am 10.01.2023] S. 9 ➝[6] ; S. 525 – 526 ➝[22]

Jäger, Jens (2009): Fotografie und Geschichte. Frankfurt am Main: Campus Verlag (Historische Einführungen). Online unter https://content-select.com/de/portal/media/view/519cc341-67b0-479d-9047-290f5dbbeaba [Abruf am 10.01.2023] S. 56➝[23]

Midjourney (2022): Content and Moderation. Online unter https://midjourney.gitbook.io/docs/content-and-moderation-policy [Abruf am 10.01.2023]➝[12] ➝[13] ➝[14]

Nichol, Alex (2022): Dall-E 2 Pre-Training Mitigations. Online unter https://openai.com/blog/dall-e-2-pre-training-mitigations/?itid=lk_inline_enhanced-template [Abruf am 10.01.2023]➝[16] ➝[17]

OpenAI (o.J.): Dall-E 2. Online unter https://openai.com/dall-e-2/ [Abruf am 10.01.2023]➝[8]

Rentjes, Thomas (2022): Foto-Synthese mit KI. Die Revolution der künstlichen Bilder. Online unter https://www.deutschlandfunkkultur.de/ki-technologie-revolution-kuenstliche-bilder-100.html [Abruf am 10.01.2023]➝[2] ➝[3] ➝[4] ➝[11] ➝[14] ➝[15] ➝[18] ➝[20]

Tiku, Nitasha (2022): AI can nox create any image in seconds, bringing wonder and danger. In: The Washington Post vom 22.09.2022. Online unter https://www.washingtonpost.com/technology/interactive/2022/artificial-intelligence-images-dall-e/ [Abruf am 10.01.2023]➝[10] ➝[21]

Vox (2022): The text-to-image revolution, explained. Video publiziert am 01.06.2022 auf YouTube. Online unter https://www.youtube.com/watch?v=SVcsDDABEkM [Abruf am 10.01.2023] (06:09)➝[5]; (09:35) ➝[9]

Bildquellen

Alle verwendeten Bilder stehen unter dem Copyright der Autorin © Annika Bleich (cc by-nc)

Videoquelle

tagesschau (2023): Software ChatGPT: Möglichkeiten und Grenzen künstlicher Intelligenz. Video publiziert am 12.01.2023 auf YouTube. Online unter https://www.youtube.com/watch?v=_ab6L50HlcI [Abruf am 29.01.2023]

E-Learning: Interaktive Videos in der Hochschullehre

Autorinnen: Charlotte Böddicker und Kim Kirner


Im Zuge der Corona-Pandemie hat das Thema E-Learning an Hochschulen weiter an Bedeutung gewonnen. Das erfordert von den Lehrenden die Weiterentwicklung alter und Umsetzung neuer digitaler Lehrmethoden. Eine Methode ist die Vermittlung von Lehrinhalten mithilfe interaktiver Videos. Doch wie setze ich diese ein und was sind überhaupt interaktive Videos? Mehr dazu erfahren Sie in diesem Beitrag.  

© Canva

Inhaltsverzeichnis

  1. Was sind interaktive Videos?
  2. Was können interaktive Videos in der Hochschullehre leisten?
  3. Welche Herausforderungen bieten interaktive Videos für die Hochschullehre?
  4. Für welche Art von Lehrinhalten eignen sich interaktive Videos?
  5. Wie erstelle ich ein interaktives Video? (Am Beispiel von ILIAS)

1. Was sind interaktive Videos?

Interaktive Videos bestehen aus zwei grundlegenden Komponenten: dynamische und audiovisuelle Medien (z.B. Videos oder Animationen) als Basis sowie darin eingebundene aktivierbare und zeitgestempelte Multimedia-Elemente (z.B. digitale Texte, Bilder, Graphiken, Links, Referenzen, Audio- oder Videodateien). Durch die Einbettung dieser Elemente wird die lineare Struktur eines Videos aufgebrochen, was dem Betrachtenden eine aktive Auseinandersetzung mit dem Inhalt – je nach Bedürfnis bzw. Wissensstand – ermöglicht. Im Kontext eines interaktiven Videos wird der passive Betrachtende also zum aktiven Nutzenden.

Geht man vom Einsatz interaktiver Videos im Bereich des E-Learning aus, kann man zwischen drei grundlegenden, kombinierbaren Formen differenzieren:

  • Interaktive Videos als Videos mit verzweigenden Handlungssträngen
  • Interaktive Videos als Videos mit bereitgestellten Zusatzinformationen
  • Interaktive Videos mit integrierten Zusatzfunktionen (Vgl. zu diesem Abschnitt: Lehner, Siegel 2009, S. 44-45)

Interaktive Videos mit verzweigenden Handlungssträngen

Interaktive Videos mit verzweigenden Handlungssträngen ermöglichen den Nutzenden, den weiteren Verlauf des Videos aktiv und je nach Bedürfnis zu beeinflussen. Im Kontext von E-Learning gewinnt diese Form des interaktiven Videos beispielswiese an Bedeutung, wenn es um die Vermittlung wichtiger Grundlagen zu einem bestimmten Thema geht: Der Lernende kann im Verlauf des Videos dann selbst entscheiden, ob er bereits zum nächsten Themenschwerpunkt übergehen möchte oder weitere, vertiefendere Informationen zum gerade dargestellten Themenschwerpunkt benötigt. (Vgl. zu diesem Abschnitt: Lehner, Siegel 2009, S. 45)

Interaktive Videos mit bereitgestellten Zusatzinformationen

Mit den bereitgestellten Zusatzinformationen sind die Möglichkeiten gemeint, bewegtes Bildmaterial mit wichtigen Informationen in Form von Annotationen und Kommentaren anzureichern. Sowohl die Erstellenden interaktiver Videos, als auch die Nutzenden können den dargestellten Inhalt durch Videoannotationen erweitern oder Kommentare beifügen, die zur Diskussion anregen. Studierende haben hierdurch außerdem die Möglichkeit, sich mit inhaltlichen Fragen an die Lehrenden zu wenden. Interaktive Videos dienen in diesem Sinne als „aktive und soziale Austauschplattform“ (Georg-August-Universität Göttingen o.J.) für Lehrende und Lernende – gerade beim E-Learning ist dieser Punkt nicht zu unterschätzen. (Vgl. zu diesem Abschnitt Lehner, Siegel 2009, S. 46)

Interaktive Videos mit integrierten Zusatzfunktionen

Unter den integrierten Zusatzfunktionen kann man im E-Learning Bereich beispielsweise die Möglichkeit fassen, Fragen verschiedenster Fragetypen oder Aufgabenstellungen im Video zu implementieren. Die Lehrenden können mithilfe dieser Zusatzfunktionen eine aktive Auseinandersetzung mit den dargestellten Inhalten fördern. Den Studierenden dienen Sie außerdem zur Einschätzung ihres Wissensstandes.

Ein interaktives Video

Die Umsetzung eines interaktiven Videos kann beispielsweise so aussehen:

© Bundeszentrale für politische Bildung / bpb 2015

2. Was können interaktive Videos in der Hochschullehre leisten?

Interaktive Videos können folgende Aspekte im Lehrprozess der Lehrenden und im Lernprozess der Studierenden erleichtern oder begünstigen:

  • Asynchrones Lernen (zeit- und ortsunabhängig)
  • Individuelle Gestaltung und Kontrolle des Lernprozesses
  • Förderung des Verstehens und Erinnerns der Lerninhalte durch visuelle Darstellung
  • Förderung des analytischen Denkens (Anwenden, Analysieren, Beurteilen und Gestalten) durch aktive Vermittlung von Lerninhalten
  • Förderung der intensiveren, inhaltlichen Auseinandersetzung und Entwicklung eigener Ideen durch aktives Erarbeiten der Lerninhalte und Filterung wichtiger Informationen (z.B. durch Annotationen, Kommentare, Fragen)
  • Anstoß zur Diskussion, sozialer Interaktion und Austausch: aktiver Reflektions- und Diskussionsprozess trotz räumlicher Distanz
  • Möglichkeit zum Feedback und zur Überprüfung des Lernerfolges
  • Umsetzung aufwendiger Formen der Wissensüberprüfung (z.B. Einbettung von Fragen verschiedener Fragetypen)
  • Spaß am Lernen durch kreative Lehrmethode

3. Welche Herausforderungen bieten interaktive Videos in der Hochschullehre?

Interaktive Videos können Lehrende und Lernende vor verschiedene Herausforderungen stellen, die es von der Hochschule zu berücksichtigen gilt. Eine Überwindung der Herausforderungen und die Lösung von Problemen kann nur in Zusammenarbeit und im gemeinsamen Austausch erfolgen.

Technische Herausforderungen und Infrastruktur

Um das E-Learning im Allgemeinen sowie das Lehren und Lernen mit interaktiven Videos überhaupt anbieten zu können, ist es notwendig, dass Hochschulen die entsprechende technische Infrastruktur bereitstellen. Diese kann die Lehrenden maßgeblich bei der Gestaltung ihrer Lehre unterstützen und sie darin bestärken auch auf digitale Lehrmethoden zu setzen. Optimal ist die Bereitstellung von Lernplattformen, mit deren Hilfe internetbasierte Lernmaterialen für E-Learning erstellt werden können. Im Umgang mit solchen Lernplattformen müssen Lehrende dann entsprechend geschult werden.

Didaktische Herausforderungen

Die Umsetzung didaktisch guter, interaktiver Videos stellt hohe Ansprüche an die Lehrenden. Die Videos müssen so gestaltet werden, dass sie die Studierenden in ihrem Lernprozess unterstützen und motivieren. In diesem Zusammenhang müssen Zusatzinformationen präzise formuliert und Zusatzfunktionen sinnvoll genutzt werden. Das interaktive Video soll die Studierenden zur intensiven Auseinandersetzung mit den Inhalten animieren und zur Diskussion anregen. In diesem Zuge sollte eine didaktische Beratung oder Fortbildung für die Lehrenden in Betracht gezogen werden. (Vgl. zu diesem Abschnitt: Krüger, Steffen, Vohle 2012, S. 206-209)

Probleme des Lernens mit Video

Dazu gehören u.a. technische Probleme, aber auch Studierende, die aufgrund mangelnder technischer Ausstattung oder Begebenheiten zu Hause keine Möglichkeit haben adäquat am E-Learning teilzunehmen. Des Weiteren muss berücksichtigt werden, dass nicht alle Studierenden von digitalen Lehrmethoden profitieren können, sondern den traditionellen Unterricht vorziehen. Außerdem kann die „Gefahr der Individualisierung“ (Dubs 2019, S. 35) bestehen, wenn Studierende sich ausschließlich auf das Video konzentrieren, die Interaktion in der Lerngruppe aber ansonsten ablehnen.

4. Für welche Art von Lehrinhalten eignen sich interaktive Videos?

Interaktive Videos eignen sich für…

  • Selbstlerneinheiten
  • die Einführung neuer Themen
  • die visuelle Darstellung von Lerninhalten
  • die Überprüfung des bisherigen Wissensstandes
  • die Darstellung/Behandlung praxisnaher Themen 
  • die aktive Gestaltung einer Vorlesungsaufzeichnung
  • die aktive Gestaltung einer asynchronen Lehreinheit
  • die Anregung eines Diskussionsprozesses zwischen Studierenden
  • die Analyse von Aufzeichnungen (z.B. Vorträge, Präsentationen, Filmsequenzen) (Vgl. Georg-August-Universität Göttingen o.J.)

5. Wie erstelle ich ein interaktives Video? (Am Beispiel von ILIAS)

ILIAS (Integriertes Lern-, Informations- und Arbeitskooperations-System) ist ein Open Source Learning Management System, das bereits an vielen Hochschulen zum Einsatz kommt. Mithilfe der Lernplattform ILIAS können Lern- und Übungsmaterialen leicht erstellt und den Lernenden zur Verfügung gestellt werden. (Vgl. zu diesem Abschnitt: ILIAS 2022)

Im Kontext der Erstellung interaktiver Videos bietet ILIAS das Interaktive Video Plug-In an, welches die Gestaltung und Bereitstellung interaktiver Videos ermöglicht. Ein Tutorial über die Möglichkeiten zur Gestaltung von interaktiven Videos mit ILIAS finden Sie hier:

© Universität Stuttgart 2022

Quellenverzeichnis

Bundeszentrale für politische Bildung / bpb (2015): Was ist eigentlich E-Learning?. Video publiziert am 11.09.2015 auf Youtube. Online unter https://www.youtube.com/watch?v=XHwDtmSFrOA [Abruf am 28.12.2022]

Dubs, Rolf (2019): Die Vorlesung der Zukunft. Theorie und Praxis der interaktiven Vorlesung. Opladen, Toronto: Verlag Barbara Budrich

Georg-August-Unversität Göttingen (o.J.): Interaktive Videos. Online unter https://www.uni-goettingen.de/de/576435.html [Abruf am 11.12.2022]

ILIAS (2022): Über das Open-Source-LMS ILIAS. Online unter https://www.ilias.de/open-source-lms-ilias/ [Abruf am 11.12.2022]

Krüger, Marc; Steffen, Ralf; Vohle, Frank (2012): Videos in der Lehre durch Annotationen reflektieren und aktiv diskutieren. In: Csanyi, Gottfried; Reichl, Franz; Steiner, Andreas (Hg.): Digitale Medien – Werkzeuge für exzellente Forschung und Lehre. Münster: Waxmann, S. 198-210

Lehner, Franz; Siegel, Beate (2009): E-Learning mit interaktiven Videos – Prototypisches Autorensystem und Bewertung von Anwendungsszenarien. In: Schwill, Andreas & Apostolopoulos, Nicolas (Hg.): DeLFI 2009 – 7. Tagung der Fachgruppe E-Learning der Gesellschaft für Informatik e.V.. Bonn: Gesellschaft für Informatik e.V., S. 43-54

Universität Stuttgart (2022): Interaktives Video in ILIAS. Video publiziert am 07.02.2022 auf Youtube. Online unter https://www.youtube.com/watch?v=jDrn2O7KcVo [Abruf am 11.12.2022]

Was hat User Experience mit SEO zu tun?

Autor*innen: Robin Alo und Davud Kilic

SEO ist undenkbar ohne User Experience! Warum? Das werden wir Ihnen in diesem Blogbeitrag aufklären. Viele glauben, dass SEO und User Experience zwei getrennte Dinge sind, jedoch haben sie viel mehr miteinander zu tun als man denkt. Vorerst wollen wir auf die Begrifflichkeiten SEO (Search Engine Optimization) und User Experience (Benutzererfahrung) eingehen, um ein klares Verständnis darüber zu haben.

User Experience – Deutsch: “Benutzererfahrung”

Warum SEO nicht ohne User Experience funktioniert

SEO rückt die User und nicht die Suchmaschinen, ins Zentrum. Bedeutet also, die Optimierung der User-Erfahrung wird in den Fokus gestellt und nicht die Suchmaschinenoptimierung.

Um das Nutzungserlebnis so schön wie möglich zu gestalten, muss die Journey ganz betrachtet werden. Dies beginnt schon mit der Google-Suche, indem der Nutzer seine Anfrage beginnt. Das Suchergebnis entscheidet, ob der Nutzer auf der Website landet und ob er sie weiter nutzen möchte. Die Qualität und Darstellung, welche den Nutzer weiter anregt oder abschreckt, sind sehr wichtige Aspekte in der Erstellung.

1. User Experience & SEO

UX – User Experience

Die User Experience beschreibt, wie sich Menschen beim Navigieren auf einer Website, bei der Nutzung einer mobilen App oder bei der Interaktion mit digitalen Produkten oder Diensten eines Unternehmens fühlen. Dazu gehören die Benutzeroberfläche, Benutzerfreundlichkeit und Benutzerforschung.

Was umfasst User Experience alles?

Designs für außergewöhnliche User Experience zielen darauf ab, den Endanwender glücklich zu machen. Daher muss ein Unternehmen ein klares Verständnis über die Bedürfnisse und Prioritäten der Nutzer haben, bevor ein UX realisiert werden kann. Anhand einer detaillierten Benutzerforschung sind UX-Designer in der Lage, die Funktionalität und den Wert jedes Aspekts der UX zu bewerten.

2. SEO – Suchmaschinenoptimierung

Englisch: “Search Engine Optimization”

SEO steht als Abkürzung für Search Engine Optimization und bezeichnet alle Maßnahmen technischer und inhaltlicher Natur, um die Rankings einer Website und deren Sichtbarkeit in den Ergebnislisten von Suchmaschinen zu verbessern.

Die Suchmaschinenoptimierung kann aufgeteilt werden in Onpage SEO und Offpage SEO und ist Teil des Online Marketings. Es dient der Verbesserung der User Experience.
Hier könnt ihr euch die Basics von SEO auch einfach angucken:

SEO Basics

Onpage und Offpage

Diese zwei großen Bereiche definiert die SEO. Maßnahmen, die auf der Website selbst durchgeführt werden, betrifft die Onpage-Optimierung. Bereiche außerhalb der Website werden durch die Offpage-Optimierung gedeckt.

Onpage

Technische Optimierung

  • Verbesserung von Texten mit relevanten Begriffen und Mehrwertbeschaffung für die User
  • Seite wird durch einfügen von Bildern oder Meta-Angaben besonders relevant für ein Thema

Technische Optimierung

  • Optimierungen am Server, Quellcode oder CMS

Mobile Optmierung

  • Optimierung einer Website für mobiles Endgerät
Offpage

Linkaufbau

  • Maßnahmen zur Steigerung der Domain-Popularität, zum Erhalt von mehr Backlinks
  • Trust der Website soll erhöht werden

Steigerung der Sichtbarkeit

  • Content Marketing und Social Media kann Sichtbarkeit im Netz verbessern

3. Ziele von SEO

Das Erreichen von Top-Positionen in den Suchergebnissen ist das Ziel der Search Engine Optimization. Je nach Art der Website können jedoch noch weitere Ziele definiert werden, wie zum Beispiel:

  • höhere Umsätze und mehr Gewinn bei Online Shops und anderen E-Commerce-Websites
  • Steigerung der Markenbekanntheit
  • Erhöhung der Reichweite
  • Verstärkung der Marktdurchdringung
  • Schaffung eines zusätzlichen Absatzkanals

Umgesetzt bedeutet das für einen Online-Shop den Umsatz überwiegend steigern zu wollen, im Gegensatz zu einem Blogbeitrag, indem die Reichweite erhöht werden soll.

4. Google definiert diese 5 Search Intentionen

  • 1. Visit in Person
    Adresse oder Ort wird gesucht
  • 2. Website
    Bereits bekannte Website soll gefunden werden
  • 3. Do
    Aktion wird angestrebt (Kauf, Download, Installation etc.)
  • 4. Know Simple
    Suche nach Information, die in ein bis zwei Sätzen beantwortbar ist
  • 5. Know
    Suche nach Informationen zu komplexeren Themen

5. Die drei Phasen der Google Suche

  1. Crawling: Google lädt Text, Bilder und Videos von im Internet gefundenen Seiten mit automatischen Programmen herunter – diese werden Crawler genannt.
  2. Indexierung: Google analysiert die Text-, Bild- und Videodateien auf der Seite und speichert die Informationen in einer großen Datenbank, dem Google-Index.
  3. Bereitstellung von Suchergebnissen: Wenn ein Nutzer eine Suchanfrage eingibt, gibt Google Informationen zurück, die für die Suchanfrage des Nutzers relevant sind. Quelle: https://developers.google.com/search/docs/fundamentals/how-search-works?hl=de#crawling

“Information is only useful when it can be understood.” – Muriel Cooper

-https://www.media.mit.edu/posts/muriel-cooper-lasting-imprint/

6. Warum User Experience mit SEO zusammenhängt

User Experience und SEO haben dieselben Ziele, die da wären:

  • Dem Nutzer das geben, was er braucht
  • Dem Nutzer die beste Such- oder Benutzererfahrung geben

UX-Designer setzen auf Interaktionen und Storytelling, um ein auf den Nutzer zugeschnittenes Erlebnis zu vermitteln. Auf der anderen Seite verlassen sich SEO-Experten auf Suchdaten direkt von den Nutzern, um das gleiche Erlebnis zu vermitteln. SEO hat die Daten, die UX braucht. UX hat das Webdesign-Gerüst, welches SEO braucht. Das zeigt, dass die Begriffe miteinander korrelieren.

Die Optimierung von Websites für die Suchmaschinen und die Gestaltung des Nutzererlebnisses führen also zu den selben Zielen.

Ähnliche Artikel

Quellen:

Picture by UX Indonesia on Unsplash

Picture by Duncan Meyer on Unsplash

Photo the white label (05. April 2018): SEO Teil 1 – die wichtigsten OnPage Rankingfaktoren für deinen Ticketshop. Online unter https://the-white-label.com/seo-onpage-rankingfaktoren-fuer-deinen-ticketshop/. Abruf am 23.12.2022

Liferay (2022): Was ist User Experience?. Online unter https://www.liferay.com/de/resources/l/user-experience. Abruf am 18.12.2022

Pereira, Joash (23. Juni 2020): Importance of UX in SEO. In: Medium. Online unter https://medium.com/edtech-in-depth-ischoolconnect/importance-of-ux-in-seo-7b0317404655. Abruf am 16.12.2022

LaFleur, Griffin (2022, April): Search engine optimization (SEO). Techtarget network. Online unter https://www.techtarget.com/whatis/definition/search-engine-optimization-SEO. Abruf am 22.12.2022

p2 media (2023): Suchmaschinenmarketing – die SEO Strategie für B2B. Online unter https://www.p2media.de/news/suchmaschinenmarketing-die-seo-strategie-fuer-b2b/. Abruf am 03.01.2023

Ist Python die Programmiersprache der Zukunft?

Autor*innen: Ömer Topcu und Anela Iljijazi

Python ist eine Programmiersprache, deren wichtigstes Merkmal die Einfachheit ist. Sie wird von einer aktiven Community auf der ganzen Welt entwickelt. Programmiersprachen sind für sich genommen vielfältig einsetzbar und werden gerade im Bereich der künstlichen Intelligenz häufig eingesetzt. Python hat Zukunft und hat sich dieses Jahr erneut vor Java auf Platz 2 der meistgenutzten Sprachen festgesetzt.

Python ist eine weit verbreitete Programmiersprache, welche von Guido van Rossum entwickelt und 1991 veröffentlicht wurde. Sie wird für Webentwicklung, Softwareentwicklung, Mathematik und Systemskripting verwendet und wurde mit dem Ziel einer guten Lesbarkeit von Programmen entwickelt . Ursprünglich wurde sie als Unterrichtssprache in der höheren Bildung und Ausbildung verwendet. Zudem ist sie plattformunabhängig und kann auf Mac, Windows und anderen Betriebssystemen ausgeführt werden.

Was kann man mit Python machen?

Python kann verwendet werden, um Webanwendungen auf dem Server zu erstellen. Darüber hinaus kann Python mit Software verwendet werden, um Workflows zu erstellen. Python kann Dateien lesen und ändern und sich mit Datenbanksystemen verbinden. Es wird häufig verwendet, um große Datenmengen zu verarbeiten und komplexe mathematische Berechnungen durchzuführen.

Warum Python verwenden?

Python ist plattformübergreifend und das bedeutet, dass es auf verschiedenen Plattformen, wie Windows, Mac usw. ausgeführt werden kann. Es hat eine einfache Grammatik, welche der englischen ähnelt. Seine Syntax ermöglicht es Entwicklern, Programme in weniger Zeilen zu schreiben. Python bietet auch Rapid Prototyping an. Python läuft also auf einem Interpretersystem, was bedeutet, dass Code ausgeführt werden kann, sobald er geschrieben ist. Diese Programmiersprache ist sehr flexibel und kann prozedural, objektorientiert oder funktional angegangen werden.

Historik:

Die Programmiersprache Python wurde Anfang der 1990er Jahre vom Niederländer Guido van Rossum am Centrum voor Wiskunde en Informatica (CWI) in Amsterdam entwickelt. Guido van Rossum lernte Programmieren während seines Mathematikstudiums an der Universität Amsterdam, denn er arbeitete dort als Wissenschaftler und entwickelte später eine neue Programmiersprache, um Basic zu ersetzen. Dies ist notwendig, da Wissenschaftler in der Lage sein müssen, sich selbst zu programmieren. Python begann als Skriptsprache für das verteilte Betriebssystem Amoeba. Python wurde als Nachfolger der ABC-Lehrsprache entwickelt und sollte auf dem verteilten Betriebssystem Amoeba laufen. Guido van Rossum war auch an der Entwicklung der ABC-Sprache beteiligt und somit fließen seine Erfahrungen mit ABC also auch in Python ein. Er bezeichnet sich selbst als Nerd und Computerfreak. Van Rossum, der 2019 in den Ruhestand ging, aber 2021 zu seinem derzeitigen Arbeitgeber Microsoft zurückkehrte, sagte:

Ich habe mich entschieden, zu meinen Wurzeln zurückzukehren.” (Vgl. Guido vaan Rossum)

Abbildung 3, Python Entwickler, Guido van Rossum

Vorteile von Python:

  • Python ist kostenlos und kann für viele Betriebssysteme heruntergeladen werden
  • Python ist sehr schnell und einfach zu erlernen
  • Python ist eine sehr vielfältige Programmiersprache 
  • wird ständig weiterentwickelt und aktualisiert
  • Der Python-Code gilt als besonders gut lesbar, was mit dem vorgegebenen strukturierten Programmierstil zusammenhängt 
  • Sie wird von viele große Firmen wie Google, Dropbox, Mozilla genutzt
  • Große Community 
  • Es kommt mit weniger Code als andere Programmiersprachen zu gleichen Ergebnissen

Nachteile von Python:

  • Python ist im Vergleich  zu anderen Programmiersprachen langsam 
  • Python wird zurzeit in 2 Versionen eingesetzt (Python2 und Python3)
  • Mit Python lassen sich auch Spiele programmieren

Anwendungsbereiche:

Python wird in vielen Bereichen in unserem Leben angewendet. Die bekanntesten Bereiche sind Webentwicklung, Spielentwicklung, Data Science und Machine Learning. 

1. Webentwicklung

Python unterstützt plattformübergreifende Betriebssysteme, was das Erstellen von Anwendungen erleichtert. Weltbekannte Anwendungen wie Drop oder YouTube verwenden Python, um gut zu funktionieren. Python wird für die Webentwicklung verwendet, dazu wird es vereinfacht und schnell, Webanwendungen zu erstellen. Aber wie ist das möglich? Pythons Framework zum Erstellen von Anwendungen macht dies möglich. Es gibt ein System zum Erstellen dieser Frameworks und eine Reihe von Bibliotheken, die verwendet werden können, um Protokolle wie HTTPS, FTP, SSL zu integrieren, um beispielsweise E-Mails zu verarbeiten. Die beliebtesten Frameworks sind Pyramid und Flask. 

2. Spielentwicklung

Python wird für interaktive Spiele verwendet. Es gibt Bibliotheken wie PySoy, eine 3D-Game-Engine, die Python 3 unterstützt, oder PyGame, eine Bibliothek, welche die Funktionalität bereitstellt. Populäre Spiele wie Online, Vega Strike, Civilization-IV wurden mit Python erstellt.

3. Data Science

Daten sind Geld, denn sie können Ihre Gewinne steigern, wenn Sie wissen, wie Sie relevante Informationen extrahieren, die Ihnen helfen, Ihr Risiko besser zu kalkulieren. Sie können Daten analysieren, verschiedene Operationen durchführen und notwendige Informationen extrahieren. Pandas oder NumPy (Bibliotheken) helfen dir dabei.

Mit Datenbanken wie Seaborn und Matplotlib können Sie Daten visualisieren.

4. Machine Learning

Wir entwickeln Algorithmen, die Computer selbst lernen lassen. Wir sind diejenigen, die sich darum kümmern. Python unterstützt diese Branche durch viele vorhandene Bibliotheken wie NumPy und Pandas.

Lernen Sie Algorithmen, verwenden Sie Bibliotheken und Sie haben eine Lösung für KI-Probleme. Ganz einfach. Wenn Sie jedoch den harten Weg gehen möchten, können Sie den Code selbst entwerfen, wenn er eine bessere Lösung bietet.

Was sind Funktionen in Python?

Eine Funktion ist ein erstellter Programmcode, der aus dem “top-down”-Ablauf eines Programms entnommen wird und ausschließlich aufgerufen werden muss oder kann, denn dadurch können wir diese Funktionen bei Bedarf öfter aufrufen und so sauberen Code mit weniger Fehlerquellen schreiben.

Also vergeben wir unserer Funktion einen Namen, den wir an jeder Stelle in unserem Python-Programm aufrufen können.

Um es am besten zu verstehen schauen sie sich das Video unten an: 

Link zum Video: https://www.youtube.com/watch?v=mgA-Ytr32Ys

Jetzt habe ich dich genug mit Informationen bombardiert. Die einzige Frage, die beantwortet werden sollte ist doch nur, ist Python unsere Zukunft ?.

Ist Python die Programmiersprache der Zukunft?

Der Entwickler Guido van Rossum äußert sich zum Thema, ob Python sich künftig weiterentwickeln wird:

„Ich glaube, Python wird weiter wachsen” (vgl. Stolens)

„Die größten Entwicklungen erwarte ich in den Python Bibliotheken – hier sehen wir sehr viele Ergänzungen. Was den Gebrauch von Python im Unterricht betrifft, hoffe ich, Schüler nehmen die Programmiersprache als einfach und spannend wahr und werden ermutigt, sie auch außerhalb der Schule anzuwenden. Ich
hoffe, es sind nicht nur irgendwelche einmaligen Projekte, sondern dass sie die Sprache weiter aktiv verwenden. Es wäre toll, wenn sie nach ihrem Abschluss eine Zukunft in einem MINT-Fach starten würden und sie ihr Python-Basiswissen dann für ihre eigene Forschung verwenden könnten!” (vgl. Stolens)

Stolens (2020): https://www.t3deutschland.de/de/t3-europe/edublogs/interview-guido-rossum (Abruf: 31.01.2022)

Die Forschung basiert auf Anfragen nach Tutorials zum Erlernen von Programmiersprachen. Google Trends stellt die Basis der Erkenntnisse dar und dient der Ermittlung der Beliebtheit der entsprechenden Programmiersprache. Laut der Statistik der PYPL befindet sich Python auf Platz 1 der meist gesuchten Programmiersprachen. Der prozentuale Abstand zum zweitplatzierten Java ist hier mit rund 10 % sogar noch größer und somit kam JavaScript auf den dritten Platz.

Abbildung 4, Statistik aus PYPL

Das Potential von Python ist da, denn Python hat gute Zukunftsaussichten und könnte daher die Programmiersprache der Zukunft werden.

Über die Autoren:

Anela Iljijazi: Anela Iljijazi studiert im 3. Semester Informationsmanagement. Sie absolviert das Studium an der Hochschule Hannover Fakultät III. Die Autorin wurde in Hannover geboren. Sie ist 20 Jahre alt. Neben ihrem Studium ist sie Kellnerin im Cheers Hannover.

Ömer Topcu: Ömer Topcu studiert im 3. Semester Informationsmanagement. Er absolviert das Studium an der Hochschule Hannover Fakultät III. Der Autor wurde in Hannover geboren und ist 20 Jahre alt. Er arbeitet in seiner Freizeit im Einzelhandel.

Quellenverzeichnis:

  • lerneprogrammieren (2022): Wofür wird Python verwendet? 10 Aufgaben und Anwendungsbereiche. URL: https://lerneprogrammieren.de/python-anwendungsbereiche/ (Abruf: 30.01.23)
  • PYPL (2023): PYPL PopularitY of Programming Language. URL: https://pypl.github.io/PYPL.html (Abruf: 30.01.23)
  • Stolens (2020): Die Python Power – erklärt von Python-Erfinder Guido van Rossum. URL: https//www.t3deutschland.de/de/t3-europe/edublogs/interview-guido-rossum (Abruf: 31.01.2023)
  • Morpheus (2015): Python Tutorial #12 – Funktionen. URL: https://youtu.be/mgA-Ytr32Ys (Abruf: 30.01.2023)
  • Abbildung 2, Programmieren mit Python (2022). URL https://fobizz.com/programmieren-mit-python-ganz-ohne-vorkenntnisse/
  • Sebastian Grüner (2021), Golem, Python-Gründer will doppelte Geschwindigkeit für die Sprachen, URL: https://www.golem.de/news/guido-van-rossum-python-gruender-will-doppelte-geschwindigkeit-fuer-die-sprache-2105-156491.html (Abruf 30.01.2023)
  • Koen Stulens (2020), t3deutschland, Die Python Power, URL: https://www.t3deutschland.de/de/t3-europe/edublogs/interview-guido-rossum(Abruf 30.01.2023)
  • Steemit (2018) Python für Anfänger #1, URL: https://steemit.com/deutsch/@rilc0n/python-fuer-anfaenger-1-einfuehrung-vor-und-nachteile(Abruf 30.01.2023)
  • Python, URL: https://www.python.org/ (Abruf 30.01.2023)

Gather.Town: Online-Lernen mit einem Twist

Die COVID-19-Pandemie zwang Lehrkräfte, ihre Unterrichtsmethoden zu ändern. Da Massenlockdowns weltweit die Norm waren, gewannen Videokonferenzplattformen wie Zoom, BigBlueButton und Microsoft Teams plötzlich an Beliebtheit. Dies veränderte die Unterrichtsatmosphäre für viele Lehrkräfte und Studierende schlagartig und brachte eine Vielzahl neuer Herausforderungen mit sich.

Diejenigen, die Online-Kurse und -Tutorien unterrichten müssen, können bestätigen, dass die Moderatoren häufig ins Leere sprechen. Dies liegt einerseits an Hardwarebeschränkungen, andererseits auch an einem gewissen Unwillen, Kameras oder Mikrofone einzuschalten. Dies wird durch die sogenannte “Zoom fatigue” (Zoom-Müdigkeit) noch weiter verstärkt.1 Einem Artikel der Stanford-Universität zufolge gibt es vier Hauptgründe, warum Menschen eine Zoom-Müdigkeit bekommen. Diese sind:

  1. Ein übermäßiger enger Augenkontakt ist sehr intensiv.
    .
  2. Sich bei Videochats ständig in Echtzeit zu sehen ist ermüdend.
    .
  3. Videochats schränken unsere gewohnte Beweglichkeit drastisch ein.
    .
  4. Die kognitive Belastung ist bei Videochats viel höher.2

Ein Forschungsbericht von René Riedl aus dem Jahr 2021 stimmt mit diesen Punkten überein und fügt noch einige weitere hinzu, wie z. B. die Versuchung, während Videokonferenzen Multitasking zu betreiben, was an sich schon Stress und Müdigkeit verursachen kann.3

Eine mögliche Lösung für diese Probleme könnte die Nutzung unkonventionellerer Plattformen sein, die Gamification mit Lernen verbinden. Aus Gründen der Vereinfachung wird sich dieser Artikel auf Gather konzentrieren.

Um Verwechslungen zwischen dem Unternehmen und dem Produkt zu vermeiden, wird die Plattform in diesem Artikel als Gather.Town bezeichnet.

Was ist Gather.Town?

Gather.Town ist eine browserbasierte Webkonferenzsoftware mit Pfiff. Im Gegensatz zu traditionellerer Webkonferenzsoftware wie Zoom oder BigBlueButton ermöglicht Gather.Town dem Veranstalter einen virtuellen Raum zu schaffen, in dem sich die Gäste mithilfe kleiner personalisierter Avatare bewegen können.4 Gather.Town ist zwar nicht die einzige Konferenzsoftware dieser Art (vgl. Wonder.me), aber der Charme von Gather.Town liegt in der Pixel-Videospielgrafik, die an ältere zweidimensionale Spiele der 80er und 90er Jahre erinnert.

Das interaktive Bild unten zeigt den Gather.Town-Raum, den wir für diesen Artikel erstellt haben. Sie können auf die Info-Symbole klicken, um mehr über die verschiedenen Funktionen zu erfahren.

Ihre Attraktivität

Auch der Kostenfaktor spielt eine große Rolle bei der Attraktivität von Gather.Town, da das Erstellen eines Raums für bis zu 25 Teilnehmende kostenlos ist. Der virtuelle Raum kann in verschiedene Räume aufgeteilt und ganz an die individuellen Bedürfnisse des Veranstalters angepasst werden, z. B. ein Breakout-Bereich, Vortragssaal oder ein Raum für Gespräche und Entspannung für Teilnehmende, die sich von den Sehenswürdigkeiten und Geräuschen der Veranstaltung erholen wollen. Von den Wänden über die Böden bis hin zu den Gegenständen und Texten in den Räumen kann alles individuell gestaltet werden. Bei größeren Konferenzen können diese Räume miteinander verbunden werden.5

Einem Raum beizutreten ist ebenfalls sehr einfach. Gather.Town-Mitglieder und Gäste können auf verschiedenen Arten in den Raum eingeladen werden:

  • durch Eingabe der URL für den Bereich.
    .
  • durch den Veranstalter, der einen eindeutigen Link oder einen Link zu einem bestimmten Tagungsort erstellt.
    .
  • über die Gather.Town-Plattform selbst.

.
Optionale Passwörter stellen außerdem sicher, dass nur die eingeladenen Personen die virtuellen Räume betreten können. Dies geschieht alles über den Browser, sodass weder der Veranstaltende noch die Teilnehmenden zusätzliche Software herunterladen müssen.6 Die meisten modernen Computer sollten in der Lage sein, Gather.Town ohne Probleme auszuführen. Bestimmte Einstellungen können zudem ein- und ausgeschaltet werden, um die Leistung zu verbessern. Eine Liste der Systemanforderungen steht auf der Entwicklerwebsite zur Verfügung.

Ihre Highlights

Dank Funktionen wie Spotlighting ist Gather.Town ideal für Präsentationen. Wenn der*die Moderator*in auf einer Spotlight-Kachel steht oder manuell angestrahlt wird, kann jede*r im Raum ihn*sie hören und sehen. Spotlight-Kacheln ermöglichen es einer oder mehreren Personen, ihre Audio-, Video- und/oder Bildschirminhalte für alle im Raum zu übertragen. Personen, die im Spotlight stehen, werden an den oberen Rand des Videokarussells gepinnt. Wenn der Avatar einer Person nicht auf einer Spotlight-Kachel steht, richtet sich die Audio-/Videoanzeige nach der Nähe zu anderen Teilnehmenden oder danach, ob sie sich gemeinsam in einem privaten Bereich befinden.7

Das folgende Video gibt einen kleinen Einblick in die Welt von Gather.Town.

“Introduction to the Gather Town platform” von ©Connected Data World (englischsprachig)

Wie kann Gather.Town zur Verbesserung des Lernumfelds beitragen?

Durch die Tatsache, dass sowohl Lehrende als auch Lernende seit der Coronapandemie viel mehr auf Bildschirme schauen und auch viel mehr in Videokonferenztools sitzen, kommt natürlich auch die Frage auf, wie man das Lernumfeld verbessern kann. Gather.Town bietet durch die Tatsache, dass man sich wie im realen Leben bewegen kann und nicht mit jedem kommunizieren muss, eine informelle Möglichkeit Kontakte zu knüpfen (zum Beispiel die grünen Wiesen Potsdams bei der 8. Jahrestagung des Verbands „Digital Humanities im deutschsprachigen Raum“, ausgerichtet von der Universität Potsdam und der Fachhochschule Potsdam).8 Damit bietet sich eine gute Möglichkeit barrierefrei mit anderen Menschen in Kontakt zu treten.

Apropos Barrierefreiheit: laut der offiziellen Website (Online-Leitfaden) von Gather Presence, Inc. arbeiten sie aktiv an der Verbesserung der Gather.Town-Erfahrung für Menschen, die zusätzliche Unterstützung  bei der Navigation und/oder dem Verständnis durch Dolmetschende benötigen.9

Auch durch die ganzen interaktiven Pixelbilder – wie Mikrofon, Tischgruppen und Flipcharts – wird eine Spielatmosphäre geschaffen und jede*r kann selbst entscheiden, wann er*sie was lernen möchte und mit wem er*sie dies tun will. Dadurch, dass sich die Kameras und Mikrofone erst bei Gruppenbildung einschalten, kann man auch den in der Einleitung genannten Punkten sehr gut entgegenwirken, weil man immer noch selber entscheiden kann, ob man noch fit genug für eine weitere Videokonferenz ist oder ob man lieber erst mal eine Pause einlegen will. Auch bewirkt Gather.Town, dass man zwischendurch auch einmal aufstehen kann ohne die Kamera ausschalten oder um eine Pause bitten zu müssen. Die farbenfrohe und reichhaltige Welt bietet darüber hinaus gerade genug Anreiz, damit die Teilnehmenden weniger geneigt sind, während der Vorträge bzw. Vorlesungen zu einer anderen Website zu wechseln oder Multitasking zu betreiben.

Erfahrungen aus Bildungseinrichtungen

Gather.Town ist noch nicht lange auf dem Markt, sodass die Erfahrungen aus den Bildungseinrichtungen noch nicht sehr umfangreich sind, aber es soll trotzdem versucht werden, einen kleinen Einblick in die Erfahrungen zu geben.

Staff Weeks sind in universitären Einrichtungen mittlerweile sehr beliebt, um den Austausch auf (inter)nationaler Ebene zu ermöglichen. Die SUB Göttingen hat 2021 eine virtuelle Staff Week veranstaltet. Sie wollten aber auch versuchen, das soziale Leben, welches bei solchen Veranstaltungen immer automatisch außerhalb der Vorträge entsteht, auch in den virtuellen Raum zu übertragen. Zoom und BigBlueButton haben sich nicht dafür angeboten, sodass sie einen virtuellen Konferenzraum mit Gruppentischen über Gather.Town eingerichtet haben. Sowohl die Teilnehmenden als auch die Veranstaltenden zogen ein (sehr) positives Fazit. Die SUB Göttingen gibt auch anderen Einrichtungen über das Magazin O-Bib wertvolle Tipps für eine Online-Staff Week.10

Ein Tweet über die Open Access Staff Week 2021

Gather.Town wird auch Bildungseinrichtungen vorgestellt und auch diese sind begeistert.11 Besonders interessant ist, dass trotz der Kürze der Zeit schon einige Universitäten Gather.Town nutzen und Schulungen/Anleitungen anbieten. Hier werden exemplarisch drei genannt: die Uni Konstanz, die Uni Weimar und die Uni Mainz. Natürlich wird Gather.Town auch außerhalb Deutschlands genutzt, beispielsweise von der Uni Bern.

Internationale Bildungseinrichtungen

Mit Blick auf die internationale Universitätslandschaft wurde zwischen 2020 und 2021 eine Fallstudie an der Queen’s University Belfast in Nordirland durchgeführt, um die Wirksamkeit von Gather.Town als Plattform für die Vermittlung praktischer Fähigkeiten zu ermitteln. Es zeigte sich, dass die teilnehmenden Studierenden Gather.Town gegenüber alternativen Online-Systemen für ihre Lehrveranstaltungen bevorzugten. Sowohl die Lehrkräfte als auch die Studierenden gaben an, dass die Hauptvorteile von Gather.Town in der Möglichkeit liegen, maßgeschneidertes und selbstbestimmtes Lernen zu unterstützen. Beide Gruppen betonten auch, dass ein wichtiges Element der Plattform darin besteht, dass sie die Möglichkeit bietet, mit anderen zu diskutieren und das Engagement der Teilnehmenden zu fördern.12 Eine andere Fallstudie, die am Karlsruher Institut für Technologie durchgeführt wurde, zeigt, dass Aufgaben mit hoher Interaktivität in ihrem Fall in Gather.Town besser funktionierten als in einer Präsenzumgebung.13

Fazit

Dieser Fachartikel soll nur einen kleinen Einblick in die Möglichkeiten von Gather.Town bieten. Insgesamt lässt sich sagen, dass Gather.Town eine “schöne Spielwiese” ist, um der Digitalisierung etwas Spielerisches und etwas anderes als die typischen Videokonferenztools zu ermöglichen und Abwechslung hineinzubringen. Auch kann man in Gather.Town die Realität besser abbilden als in anderen Tools. Natürlich muss diese Art von Videokonferenztools noch bekannter werden. Dann dürften sie aber gute Alternativen zu den bisher bekannten sein.

Wenn Sie Gather.Town selbst testen möchten, können Sie Ihren eigenen virtuellen Raum kostenlos erstellen oder den für diesen Fachbeitrag erstellten Raum testen. Viel Spaß!

Link zum Gather.Town Raum – Online-Lernen mit Twist.

Abschlussquiz

Jetzt ist es an der Zeit, Ihr Wissen zu testen. Sie haben den Artikel gelesen, das Video gesehen und den virtuellen Raum getestet. Machen Sie unseren Test und lassen Sie uns wissen, wie Sie abgeschnitten haben! #HS Hannover


Fußnoten

1 vgl. Riedl 2022, S. 155-157
2 vgl. zu diesem Abschnitt Ramachandran 2021
3 vgl. Riedl 2022, S. 163-164
4 vgl. Gather Presence, Inc. 2022b
5 vgl. Gather Presence, Inc. 2022a
6 vlg. zu diesem Abschnitt Eisenberg 2021 und Gather Presence, Inc. 2022c
7 vgl. Gather Presence, Inc. 2022e
8 vgl. Mischke 2022 S. 216
9 vgl. Gather Presence, Inc. 2022d
10 vgl. zu diesem Abschnitt Schneider 2021
11 vgl. Mittelhessen 2022
12 vgl. Williams u. McClure 2021, S. 1 und 8
13 vgl. Standl u. a. 2021, S. 87-88

References

Eisenberg, Lukas (2021): Gather.town. Hybrid Social Learning. Zuletzt aktualisiert am 19.05.2021. Online unter https://wiki.tum.de/display/learnsocial/gather.town [Abruf am 01.10.2022]

Gather Presence, Inc. (2022a): Create a Space. Zuletzt aktualisiert am 21.10.2022. Online unter https://support.gather.town/help/create-a-space [Abruf am 25.10.2022]

Gather Presence, Inc. (2022b): Gather. Building better teams, bit by bit. Online unter https://www.gather.town/ [Abruf am 25.10.2022]

Gather Presence, Inc. (2022c): Share Your Space. Zuletzt aktualisiert am 28.03.2022. Online unter https://support.gather.town/help/share-space [Abruf am 25.10.2022]

Gather Presence, Inc. (2022d): Design a More Accessible Space. Zuletzt aktualisiert am 04.04.2022. Online unter https://support.gather.town/help/accessibility-best-practices [Abruf am 26.10.2022]

Gather Presence, Inc. (2022e): Spotlighting. Zuletzt aktualisiert am 24.10.2022. Online unter https://support.gather.town/help/accessibility-best-practices [Abruf am 26.10.2022]

Mittelhessen (2022): Bildungseinrichtungen informieren sich über virtuelle Treffen in der “Gather Town”. Online unter https://www.mittelhessen.eu/mit-uns/aktuelles/541-mittelhessens-bildungseinrichtungen-informieren-sich-ueber-virtuelles-lernen-und-arbeiten-in-gather-town [Abruf am 20.Oktober 2022]

Mischke, Dennis (2022): Kulturen des digitalen Gedächtnisses. In: ABI Technik Jg. 42, H.3, S. 216 – 219. Online unter: https://www.degruyter.com/document/doi/10.1515/abitech-2022-0036/html [Abruf am 16.Oktober 2022]

Ramachandran, Vignesh (2021): Four causes for Zoom fatigue and their solutions. Zuletzt aktualisiert am 23.02.2021. Online unter https://news.stanford.edu/2021/02/23/four-causes-zoom-fatigue-solutions/ [Abruf am 15.10.2022]

Riedl, René (2022): On the stress potential of videoconferencing: definition and root causes of Zoom fatigue. In: Electronic markets, Jg. 32, H. 1, S. 153–177. Online unter https://doi.org/10.1007/s12525-021-00501-3

Schneider, Hannah; Kirchner, Andreas; Heber, Maximilian (2021): Netzwerken geht auch Online. In: O-Bib Jg. 8, H.2. Online unter: https://www.o-bib.de/bib/article/view/5709 [Abruf am 20.Oktober 2022]

Standl, Bernhard; Kühn, Thomas; Schlomske-Bodenstein, Nadine (2021): Student-Collaboration in Online Computer Science Courses. An Explorative Case Study. In: International Journal of Engineering Pedagogy, Jg. 11, H. 5, S. 87–104. Online unter https://online-journals.org/index.php/i-jep/article/view/22413

Williams, Paul N.; McClure, Colin Derek (2021): Gather.town: An opportunity for self-paced learning in a synchronous, distance-learning environment. In: Compass: Journal of Learning and Teaching, Jg. 14, H. 2. Online unter https://doi.org/10.21100/compass.v14i2.1232

Bildverzeichnis

Beitragsbild: ©Gather Presence, Inc, Screenshot aus Gather.Town RaumOnline-Lernen mit Twist. Bearbeitet von Krische.

1. Bild: Bild von Pixabay, https://pixabay.com/de/photos/online-meeting-videokonferenz-5183791/

2. Bild: ©Gather Presence, Inc, Screenshot aus Gather.Town RaumOnline-Lernen mit Twist

3. Bild: ©Gather Presence, Inc, Screenshot aus Gather.Town RaumOnline-Lernen mit Twist

4. Bild: Bild von open-access.net, Screenshot von Twitter, https://twitter.com/openaccessnet/status/1372254113203945473, Stand: 30.11.2022

Social-Media-Bild: ©Gather Presence, Inc, Screenshot aus Gather.Town Raum Online-Lernen mit Twist