Marketing mit KI: Einfach. Klar. Praxisnah.

Midjourney macht jetzt Videos – so geht’s!

rock&stars, Timo Brümmer, Leon Peters, KI Lotsen Season 1 Episode 35

Midjourney macht jetzt Videos – und beeindruckt dabei!
In dieser Folge erfährst du, wie du mit Midjourney nicht nur beeindruckende Bilder, sondern jetzt auch kurze Videos generieren kannst – schnell, intuitiv und überraschend detailreich. 

 

Wir zeigen dir Schritt für Schritt, wie du vom Startbild zum fertigen Clip kommst, welche Funktionen wirklich wichtig sind und wie du typische Fehler vermeidest.

 

Außerdem sprechen wir über erste Praxisbeispiele: Wo liegen die Stärken der neuen Videofunktion? Für welche Anwendungsfälle lohnt sich Midjourney besonders? Und wo stößt die KI noch an Grenzen? Ob Product Placement, Avatare oder dynamische Szenen – wir teilen konkrete Erfahrungen und Tipps, die dir viel Zeit und Geld sparen können.

 

Du bekommst auch einen Einblick, wie Midjourney im Vergleich zu anderen Tools wie Sora oder Heygen abschneidet – damit du die passende KI für deine Projekte findest.

 

Wenn du wissen willst, wie du mit wenigen Klicks eigene KI-Videos erstellst und welche Stolperfallen du kennen solltest, dann ist diese Folge Pflicht.

 

🎧 Jetzt reinhören, klüger testen – und vorne mitspielen!

Du hast Fragen oder Anmerkungen zum Podcast, dann kannst du uns direkt Feedback über diesen Link geben: https://rockandstars.de/feedback

Marketing mit KI: Einfach. Klar. Praxisnah. erscheint im zweiwöchentlichen Rhythmus. Daher aktiviere jetzt die Glocke oder folge dem Podcast, um mit KI dein Marketing immer auf dem aktuellen Stand zu halten.

Du kannst dich auch direkt mit uns vernetzen: https://rockandstars.de/podcast-marketing-mit-ki/

Timo Brümmer, COO rock&stars digital GmbH: https://www.linkedin.com/in/timo-bruemmer/
Leon Peters, Head of KI Lotsen bei Home United Management GmbH: https://www.linkedin.com/in/leon-peters-96b2521b6/

rock&stars digital GmbH: https://www.linkedin.com/company/rockandstars/
KI Lotsen: https://www.linkedin.com/company/ki-lotsen/

SPEAKER_00:

Und da ist halt Midjourney super gut geeignet, wenn dann die Person wirklich was tun soll. Also wie zum Beispiel auf einem Skateboard einen Olli machen, das ist halt super komplex, da ist richtig viel Movement drin. Und wie das umgesetzt wurde und auch wie das Skateboard sich gedreht hat, wie der Sprung war und wie die Person dann nachher wieder auf dem Skateboard gelandet ist, das hat mich wirklich fasziniert.

SPEAKER_01:

Leon, heute wollen wir vor allen Dingen mal wieder über das Thema Videogenerierung

SPEAKER_00:

sprechen. Ja, also... ist halt ein Thema, was wir jetzt schon wirklich häufig hatten. Und das ist vielleicht auch so ein bisschen dem geschuldet, wir hatten es ja auch schon mal in der Folge thematisiert, dass das Wettrennen in diesem Jahr sich vor allem um Videogenerierung dreht, zwischen den einzelnen KI- Unternehmen, die irgendwie schauen, dass sie sehr marktfähig sind, dass sie irgendwie so die Player auf dem Markt sind und dass Videogenerierung gerade das absolute Rennen. Und wir hatten es in der letzten Folge schon einmal ganz kurz angeteasert oder vorletzten Folge, dass Midjourney jetzt auch die Videogenerierung als Tool mit aufgenommen hat. Darum wird es heute ein bisschen gehen. Auch weil da nochmal ein paar neue Aspekte mitzukommen und seht es uns nach, dass es heute schon wieder um Videogenerierung geht. Also es gibt auf jeden Fall ein paar neue Punkte, die wir auf jeden Fall besprechen wollen. Und wir hatten das schon mal jetzt in der vorletzten Folge, eine Überraschung für dich. Das gefällt mir. Das können wir so weitermachen. Was... ist so ein Case, wo du denkst, das wäre richtig geil, wenn man das hinbekommt. Wir haben es schon häufig besprochen und ich habe dir auch häufig gesagt, so super funktioniert das noch nicht.

SPEAKER_01:

Wahrscheinlich spielt so oft das Thema an, Videos zu generieren, wo man Produkte sinnvoll mit einbinden kann. Also dass der Protagonist ein Produkt nimmt, daraus trinkt, das irgendwie von A nach B schleppt, was auch

SPEAKER_00:

immer. Ganz genau. Und das ist etwas, was... irgendwie bei uns im Alltag schon häufig ein Thema war. Wir haben es auch in Teilen schon ganz gut umgesetzt. In Teilen haben wir aber eben auch gesehen, dass das einfach noch nicht so auf dem Stand ist, wie wir es erwarten und dass das Produkt eben auch genau so dargestellt ist, wie wir das darstellen wollen und wie das Produkt auch tatsächlich ist. Und auch da gibt es große Neuigkeiten und zwar hat jetzt das Tool Hagen, was wir auch schon in mehreren Folgen thematisiert haben, jetzt ebenfalls ein Tool rausgebracht, wo ich wirklich ganz gezieltes Product Placement betreiben kann, auch da mit KI-Avataren arbeiten kann. Und das ist etwas, wo jetzt auch noch ein bisschen die Erfahrung aus der Praxis reinkommt. Also das werden wir sicherlich auch nochmal in der Folge aufgreifen und da nochmal reingehen. Auf jeden Fall sehen wir jetzt, dass all diese ganzen Punkte, die uns in der Vergangenheit jetzt schon das ein oder andere Kopfzerbrechen bereitet haben im Product Placement, jetzt sehr viel besser möglich sind. Und das, was ich gesehen habe, ist wirklich beeindruckend.

SPEAKER_01:

Ja, wunderbar. Das ist doch schon mal ein spannender Ausblick für heute. Dann lass uns trotzdem mit den Updates anfangen. Ganz klassisch. Was gibt es Neues aus der Welt?

SPEAKER_00:

Fangen wir vielleicht an mit einer Studie vom MIT. Die haben untersucht, welchen Einfluss das hat, wenn Menschen mit Chat-GBT arbeiten, auf die Intelligenz und Rechenfähigkeit des Gehirns. Und das ist wirklich erschreckend. Also... Auch das, denke ich, sollten wir immer mal wieder so thematisieren, um da auch zu sensibilisieren und auch da einen Blick für zu schaffen, dass es natürlich toll ist, mit solchen Technologien zu arbeiten. Und wir merken alle, wir sind super viel produktiver. Wir holen uns irgendwie Sparing-Partner dazu und entwickeln ganz, ganz schnell ganz, ganz viele Ideen, die auch gut sind, die reichhaltig sind. Und auf der anderen Seite hat jetzt eben auch diese Studie ergeben, dass nur rund drei, also das 83% der Menschen, die mit Chat-GBT arbeiten, nicht in der Lage waren, auch nur einen Satz zu zitieren von dem Ergebnis, das mit Chat-GBT erzeugt wurde. Und auch in anderen Teilen dieser Studie ist herausgekommen, dass wir unseren Kopf, wesentlich weniger nutzen und die Leistung unseres Gehirns weniger nutzen, als wenn wir uns selbst an eine Aufgabe heransetzen. Wenn man jetzt überlegt, dass wir so arbeiten, dass wir so lernen in der Schule und dass künstliche Intelligenz ja auch einfach einen ganz, ganz fundamentalen Aspekt mittlerweile in unserem Leben trägt und das auch deutlich wachsen wird in Zukunft, müssen wir uns ein bisschen überlegen, wie gehen wir mit diesen Herausforderungen um und wie finden wir Antworten darauf? Hast du eine Antwort darauf?

SPEAKER_01:

Eine Antwort habe ich nicht, aber ich erkenne es bei mir selber. Also wenn man Prompt schreibt, also im Sinne eines Briefings, dann merke ich schon selber, dass mir das Briefing schreiben, dass es mich schon stört, weil es so lange dauert. Man hat sich irgendwie so dran gewöhnt, dass das alles irgendwie möglichst die Arbeit abgenommen wird, noch schneller wird. Und mir fällt es teilweise selber schwer, sich da mal wirklich fünf Minuten einmal hinzusetzen und ein ganz sauberes Briefing zu entwickeln. Insofern verwundern mich die Ergebnisse nicht, aber die Folgen können natürlich schon sein. langfristig gesehen etwas schwierig sein.

SPEAKER_00:

Ja, und was ich auch sehe, wir hatten das auch schon mal thematisiert, künstliche Intelligenz hat ja keine Kreativität, also keine Kreativität in dem Sinne, wie wir es als Menschen kennen, sondern es ist ja alles gelernt auf der Grundlage der Daten und Ich hatte es, glaube ich, auch schon mal gesagt, ich bin ja Musiker und wenn ich jetzt irgendwie mich ans Klavier setze, dann entstehen manchmal ganz, ganz neue Dinge, die ich so noch gar nicht gespielt habe und die es so auch in der Form noch nicht gegeben hat. Und das Gleiche sehen wir in allen Bereichen und dafür muss man ja nicht unbedingt was Kreatives, Künstlerisches betrachten, sondern auch irgendwie was, wenn man sich eine Marketingstrategie überlegt, die ja nicht einfach nur ein Produkt sein soll von dem, was es irgendwie schon gab, sondern vielleicht auch mal wirklich was Neues setzen soll, was viral geht. Neues, was viral geht, ist ja irgendwie was, was komplett neu ist, was irgendwie das Interesse weckt und was abweicht von dem, was wir kennen. Und das kann künstliche Intelligenz nicht. Und wenn ich jetzt so sehe, wie ich arbeite mittlerweile, dass ich schon dazu neige, mit künstlicher Intelligenz sehr, sehr gute Ergebnisse zu erzielen, aber dass ich mich richtig reindenke in ein Thema und wirklich mal denke so, wie würde ich das machen und habe ich da irgendwie noch zusätzliche Ideen? Ich merke, dass das schon weniger wird und dass man so ein bisschen in so ein gemütliches Fahrwasser reinkommt, einfach weil, wenn man lernt, mit künstlicher Intelligenz gut zu arbeiten, kommt man ja auch zu sehr, sehr guten Ergebnissen, aber man kann halt nicht die Erwartungshaltung haben, wirklich was bahnbrechend Neues zu entwickeln und Das ist etwas, wo ich selber sehe, dass ich da einen Blick drauf haben muss.

SPEAKER_01:

Ich habe ein bisschen bei meinen letzten Custom-GPTs, die ich gebaut habe, dem entgegengewirkt, dass ich die immer so gebrieft habe, dass die extrem kritisch sein sollen. Also aus dem, was ich gerade gesagt habe, dass mein Briefing zu schlecht war, also für meine eigenen Maßstäbe, habe ich denen halt gesagt, okay, legt nicht einfach los und macht ein Ergebnis, sondern fragt extrem kritisch, dass ihr genau versteht, was ihr machen sollt. Weil ich selber eben gemerkt habe, dass du ansonsten so oberflächlich immer nur Ergebnisse kriegst, weil du auch oberflächlich gepromptet hast. Das hat ein bisschen geholfen. Aber ich gebe dir recht, man muss sich da auch selber manchmal so ein bisschen hinterfragen, ob man noch so den ganz großen Innovationsgrad dann herstellt oder ob es nicht doch vielfach nur reproduziertes Arbeiten ist.

SPEAKER_00:

Auf jeden Fall. Und das, was ich auch häufig irgendwie höre in den Workshops mit den Unternehmen, dass sie dann sagen so, ja, kritisch gesehen, Führt auch künstliche Intelligenz zur Verdummung der Gesellschaft? Auch das hatten wir irgendwie schon mal thematisiert. Und das ist auf jeden Fall ein Risiko da. Das zeigt diese Studie, das zeigt irgendwie auch die Praxis und auch die eigene Erfahrung, dass man einfach sehr viel gemütlicher wird. Ich sehe aber trotzdem, wenn man das im Blick behält, wenn man irgendwie das thematisiert, wenn man irgendwie schaut, wie man dann wirklich die Prozesse aufsetzt und die eben nicht einfach nur KI-gestützt sind, sondern der Mensch da eben auch eine ganz zentrale Rolle noch spielt, dass es auch dazu führen kann, dass wir eben genau das Gegenteilige sehen. Und auch das sehe ich in unserer Praxis in meinem Arbeitsbereich, aber jetzt auch im Vergleich mit den Mitarbeitenden und auch mit den Kundinnen und Kunden, dieses Upskilling. Also, dass man Fähigkeiten hat und Aufgaben übernimmt, die man vorher noch nicht übernehmen konnte. Und das ist eben genauso ein Gegenspieler zur Verdummung, wo ich plötzlich die Möglichkeit habe, deutlich mehr an Aufgaben zu übernehmen, die so vorher nicht in meinem Fähigkeitsfeld lagen. Okay, was gab es noch außer der Studie? Auch ganz spannend, einer der Top-Wissenschaftler von Microsoft hat sich so öffentlich gegen Trump gestellt und hat gesagt, oder hat es deutlich kritisiert, dass Trump ja jetzt so für die nächsten zehn Jahre die Innovation fördern möchte und Regulierung eigentlich gar nicht stattfinden soll. Also anders als in Europa, wo wir das KI-Gesetz haben, den EU-AI-Act, will halt Amerika vor allem auf Innovation setzen, Unternehmen, die KIs entwickeln, sollen möglichst frei sein und es geht jetzt einfach erstmal darum, irgendwie zu schauen, wie kriegt man diese geballte Superpower der künstlichen Intelligenz aktiviert. Und da hat dieser Wissenschaftler gesagt, dass er sieht, dass das langfristig und auch mittelfristig schon zu Wettbewerbs- Nachteilen führen kann, weil einfach da dieser wilde Westen herrscht. Es herrschen keine Standards, auf denen eben auch die Innovation aufgebaut werden kann. Und wenn jeder da seine eigenen Standards setzt oder seine eigenen Modelle so frei aufsetzt, kann das eben auch eine Genau gegenteilige Wirkung haben, dass du nachher ganz, ganz viele Unternehmen hast, die alle unterschiedliche Standards gesetzt haben, wo es nachher ganz, ganz schwierig wird, Antworten zu finden auf Probleme, die auch entstehen. Also auch da... birgt ja künstliche Intelligenz auch enorme Potenziale, wirklich schädlich, gefährlich zu sein. Und früher oder später wird man zu dem Punkt kommen, auch Regulierung reinzubringen. Und wenn du vorab nicht irgendwie gewisse Standards gesetzt hast, dann kann das eben im Nachhinein ziemlich um die Ohren fliegen. Also insofern auch das ganz spannend. Ich bin auch da sehr aufmerksam und verfolgt, wie so Amerika und auch China so die Regulierung angeht und sehe aktuell, dass da relativ wenig bis gar nichts kommt und bin sehr gespannt, wie sich das auch in Zukunft entwickelt.

SPEAKER_01:

Könnte ja vielleicht auch sogar mal eine Chance sein für die EU, wenn man, ich meine, das ist ja häufig ein Nachteil, den viele sehen, so diese Bürokratie und Datenschutz und so weiter. Vielleicht kann es ja auch mal ein Vorteil sein, dass man eben durch diese klaren Leitplanken vielleicht eine Umgebung schafft, die auch für die Unternehmen, die rein investieren in diese Themen, dann eine gewisse Sicherheit bringt und vielleicht dann eben auch eine Innovationskraft mit sich bringt, die Van woanders nicht

SPEAKER_00:

hat. Ja, absolut. Und da sehe ich jetzt eben auch tatsächlich eine Chance für den europäischen Markt, für die europäische Marktwirtschaft, sich da zu etablieren. Dann haben wir vielleicht jetzt kurz- und mittelfristig einen Nachteil. Wenn wir jetzt aber eben auch schauen, dass wir neben der Regulierung die Innovation fördern, wo es eben auch sehr, sehr spannende Projekte gibt, vor allem auch in Deutschland. Hamburg soll KI-Stadt werden. Also auch das ist ein sehr, sehr spannendes Projekt. Und Paris und Frankreich ist ebenfalls sehr, sehr innovativ voranschreiten was künstliche Intelligenz angeht. Wir sehen, dass in Europa auch viel passiert im innovativen Bereich. Wenn wir das jetzt hinbekommen, eben auch da Player zu entwickeln, die wirklich leistungsfähig sind und konkurrenzfähig sind zu OpenAI, Gemini und DeepSeek und so, dann sehe ich da einen absoluten langfristigen Vorteil, weil wir eben auch da die Standards gesetzt haben und da ganz klare Spielregeln auch formuliert haben.

SPEAKER_01:

Alles klar, haben wir noch ein Update?

SPEAKER_00:

Eins haben wir noch und zwar auch von Jeffrey Hinton, US-amerikanischer KI-Wissenschaftler und einer der renommiertesten KI-Wissenschaftler, wird so als der Godfather, der Pate von künstlicher Intelligenz auch häufig bezeichnet. Und der hatte so ein bisschen einen Ausblick gegeben, wie er einschätzt, welchen Einfluss künstliche Intelligenz auf unsere Jobs hat. und auf den Arbeitsmarkt hat. Und auch da ist eben nochmal deutlich hervorgekommen, sodass Künstliche Intelligenz immer leistungsfähiger wird, mittlerweile schon in vielen Aufgaben unterstützend wirkt als Hilfsmittel, das, was wir auch immer sagen. Und wir eben auch sehen, dass Künstliche Intelligenz sich ja auch deutlich schneller entwickelt, als wie wir irgendwie auch gesellschaftlich da nachziehen können. Und das bedeutet auch, dass Künstliche Intelligenz immer leistungsfähiger wird und dass vermeintliches Hoheitswissen. Ich hatte es jetzt auch gerade in einem Workshop irgendwie mit Informatikern, vor allem, wo einfach auch da so dieses Gefühl da ist, künstliche Intelligenz, das ist ja irgendwie auch so das, was man gelernt hat. Man hat studiert, man ist da irgendwie Experte, man ist da vielleicht sogar irgendwie der Beste in seinem Wirkungskreis und dann kommt da plötzlich eine künstliche Intelligenz und entwickelt mal was in fünf Minuten, wofür ich wahrscheinlich dann zwei Wochen dran gesessen hätte. Also man sieht auf jeden Fall auch da, dass da Drucksituationen entstehen und da entsteht in den Köpfen ganz, ganz schnell so ein Mensch gegen Maschine, weil man sich mit der Maschine vergleicht, mit der KI vergleicht und sagt so, ja, okay, aber Künstliche Intelligenz ist ja noch nicht so gut. Ich hatte es jetzt auch gerade auf meinem LinkedIn-Profil gesehen, so unter einem Post, wo es um fotorealistisches Prompten geht, wo Fotografinnen und Fotografen sich da so ein bisschen kritisch geäußert haben. Und ich habe da ein absolutes Verständnis für. Also ich habe ein absolutes Verständnis für dieses Gefühl, dass das irgendwie einen Druck verursacht, dass das irgendwie die Menschen eine Sorge oder vielleicht sogar Angst bringt. Und dann geht es eben darum, das mal aufzudröseln und auch zu schauen, welche Bedeutung denn auch wirklich jetzt immer noch kreative Berufe haben und Berufsgruppen allgemein haben. Fotografie, also Künstliche Intelligenz, es gibt so viele Anwendungsbereiche, wo Künstliche Intelligenz auch Momente gar nicht einfangen kann, weil die so intim sind, so menschlich, dass das nur ein Fotograf auch leisten kann, sowas einzufangen und eben nicht mit künstlicher Intelligenz zu erzeugen ist, dieses Gefühl und diese Stimmung. Dann sehen wir aber eben natürlich auch diese ganzen Hoheitsgebiete, diese ganzen Fachbereiche, wo wirklich Hardskills gefordert werden, wo künstliche Intelligenz einfach sehr, sehr leistungsstark jetzt schon ist und sehr viel leistungsstärker wird. Und da ist eben deutlich zu sehen, dass wenn du vielleicht zehn Leute für ein Projekt brauchst, dass du jetzt noch eine Person brauchst und dass Hardskills sowieso immer irrelevanter werden und Softskills dafür immer relevanter werden. Also ich denke, auch da wird sich so der Arbeitsmarkt hin Was hast du eigentlich gelernt, studiert? Weil vieles davon wird in Zukunft auch die künstliche Intelligenz übernehmen können.

SPEAKER_01:

Okay, spannend. Ja, das ist ein Thema, das werden wir immer wieder haben. Der Einfluss von KI auf den Jobmarkt und was das wirklich bedeutet, wenn wir nicht das letzte Mal darüber gesprochen haben. Lass uns zum Thema der Folge kommen, zum Thema Videogenerierung. Ich würde sagen, wir fangen mal mit Journey an. Vielleicht kurz um den Rahmen zu setzen. Mit Journey den meisten wird es als Bildgenerierungstool bekannt sein. So ist es eigentlich gestartet. Jetzt gibt es eine neue Videofunktion. Ich habe im Vorgespräch schon an deinen Augen erkannt, du bist sehr zufrieden. Erklär doch mal kurz, wie es funktioniert, bevor wir dann einmal auf die Anwendungsfälle drauf

SPEAKER_00:

gucken. Ja, also erstmal der ein oder andere... wird sich daran erinnern, dass ich Midjourney ganz schön kritisiert habe, als die Version 7 herausgekommen ist. Nicht, weil die schlecht ist, sondern einfach, weil zwischen der Version 6 und 7 jetzt über ein Jahr Zeit liegt. und andere KIs einfach sehr, sehr leistungsstark auch in der Bildgenerierung geworden sind. Und ich einfach gesehen habe, dass dieser Sprung, den Midjourney jetzt in einem Jahr gemacht hat, wirklich überschaubar war im Vergleich zu den anderen bildgenerierenden KIs. Und ist immer noch eine der besten bildgenerierenden KIs. Wir hatten ja auch da schon mehrere Folgen zu gemacht, so auch vor allem im Fotorealismus und im Detailgrad. Da ist Midjourney schon wirklich sehr, sehr leistungsstark. Aber meine Erwartungshaltung lag deutlich über dem, was Midjourney mit der Version 7 rausgebracht hat. Und jetzt, sehr, sehr aktuell, haben sie eben jetzt auch die Videogenerierung als weiteres Feature mit aufgenommen. Und damit haben sie mich wirklich absolut überzeugt. Also ich bin ein ganz, ganz großer Fan von dieser Fähigkeit, von diesem Tool. Ich habe damit jetzt selber schon viel gemacht. Und meine Erfahrung ist erstmal, dass es sehr intuitiv und einfach ist. Vielleicht erstmal, um auch das zu beschreiben, also wer Mid-Journey kennt, wir reden jetzt gerade nicht über Mid-Journey in Discord, weil das funktioniert aktuell nur in der Web-Oberfläche und ich würde sowieso empfehlen, mittlerweile auch nicht mehr in Discord zu arbeiten bei Mid-Journey, sondern auch nur noch die Browser-Systeme. Anwendung zu nehmen von Midjourney, also dass ich dann über midjourney.com auf die Seite gehe. Da kann ich alles auch online über den Webbrowser generieren. Und ich hatte erst ein bisschen gesucht und gedacht, okay, wo kriege ich das jetzt hin? Wo kann ich denn anklicken, dass ich jetzt ein Video generieren möchte? Und Midjourney macht das anders als viele andere Video generierende KIs, weil man startet nicht mit einem Prompt, sondern man startet mit einem Bild. Bedeutet, man braucht erstmal ein Bild. Das kann man mit JourneyDirect generieren, man kann aber auch ein Bild hochladen und das als Initialsequenz sehen, also dass das Startbild ist und dann habe ich eben die Möglichkeit, in den Bildsettings zu sagen, also entweder Auto-Video, dass ich irgendwie sage, das soll automatisch jetzt daraus ein Video generiert werden, heißt, wenn ich jetzt irgendwie ein Bild von einem Skater habe, dann sage ich irgendwie Auto-Video Generierung und irgendwie schnelles Movement oder wenig Movement und Mitchell überlegt sich, wie würde sich dieser Skater bewegen? Wie würde der Skater auf dem Skateboard fahren und generiert dann ein 5-Sekunden-Video. Und das ist schon erstmal sehr beachtlich, sehr beeindruckend und ist auch, glaube ich, ganz cool, auch da Ideen zu sammeln, wie könnte sich so ein Video jetzt entwickeln. Aber ich habe ja häufig auch ganz konkrete Ideen. Ich habe ganz konkrete Vorstellungen, was in diesem Video abgebildet werden soll, wie zum Beispiel, dass der Skater einen Ollie-Jump machen soll. So, und dann habe ich eben die Möglichkeit, eben auch so manuell das Video zu generieren und auch da zu sagen, ich will wenig Movement oder ich will viel Movement haben und habe dann ein Prompt, Also ich gehe dann wieder an die Promptleiste und prompte, was in diesem Video passiert. Und schreibe dann eben rein, Skater on a Skateboard, driving on the street and doing an Ollie-Jump oder so. Und dann bekomme ich mein 4-Sekunden-Video, aber auf der Grundlage meines Prompts. Immer 4 Sekunden, ne? Immer 4 Sekunden. 5 Sekunden, sorry, 5 Sekunden zu Anfang und dann habe ich die Möglichkeit, im nächsten Schritt, wenn ich das Video generiert habe, ich bekomme auch da immer 4 Video-Vorschläge, also auch das genauso, wie man es kennt von Mid-Journey, wenn man Bilder generiert, da werden ja auch immer 4 Bilder gleichzeitig generiert und so werden da 4 Videoschnipsel jeweils auf 5 Sekunden generiert, wo ich mir das Beste aussuchen kann. Dann, wenn ich auf das Video gehe, kann ich sagen Extend Video, also das Video erweitern und dann auch da wieder entweder automatisch erweitern oder manuell erweitern. Und jedes Mal, wenn ich das mache, bekomme ich dann eine Verlängerung des Videos um vier Sekunden. Und das kann ich insgesamt dann noch viermal machen. Also mein Initialvideo fünf Sekunden und dann viermal vier Sekunden Erweiterung. Kommen wir

SPEAKER_01:

auf 21 Sekunden.

SPEAKER_00:

Ja, und damit kann ich schon ganz gut arbeiten.

SPEAKER_01:

Und weil du sagtest, sozusagen Ausgangssituation ist immer das Bild, was hochgeladen wird, kann ich... imprompt eine Veränderung des Bildes mitgeben? Also wenn ich bei deinem Beispiel bleibe und das Skateboard ist blau, kann ich sagen, für das Video mach das bitte rot?

SPEAKER_00:

Das würde ich nicht machen, weil die Video-Generierungs-KI macht dann keinen Stilwechsel. oder es nicht dafür geeignet, einen Stilwechsel zu machen und eben auch jetzt so Kleinigkeiten anzupassen. Dafür lohnt es sich eher, dann im Bildgenerierungs-Editor von Midjourney zu arbeiten. Auch das haben viele noch nicht erkannt, also entdeckt, dass es bei Midjourney auf der Website so einen Editor gibt. Und da kann ich eben auch meine Bilder, die ich mit Midjourney erstellt habe, bearbeiten. Ich kann auch da Bilder hochladen und dann eben auch Bereiche auswählen, wie das Skateboard und das markieren und sagen, okay, das Skateboard soll rot sein und dann wird das Bild dementsprechend verändert, angepasst und das nehme ich dann als Initialbild für das Video. Aber im Video selbst würde ich sowas nicht prompten.

SPEAKER_01:

Und hast du schon erste Erfahrungswerte mit Product Placements? Also wenn ich wirklich ein bestimmtes Produkt auf dem Bild habe und dass die Video-KI dann auch erkennt, okay, das ist jetzt ein Produkt, das habe ich vielleicht selber vorher noch nicht gesehen, weil es ja kein generisches Bild jetzt ist wie ein

SPEAKER_00:

Skateboard. Das funktioniert. Auch das hatte ich schon ausprobiert. Ich hatte das für einen großen Online-Handel mal probiert und da war auch ein Schriftzug mit drauf und das war dementsprechend sehr relevant, dass man auch liest, was da dargestellt wird und wie das dargestellt wird und hatte das dementsprechend mal ausprobiert und da bin ich absolut überzeugt von, dass das sehr, sehr gut funktioniert hat und vor allem auch das räumliche Verständnis da gewesen ist. Also das räumliche Verständnis auch für das Produkt selbst. Und wenn da dann irgendwie eine Drehung drin ist oder so, oder letztendlich war da der Case, irgendwie so ein Paket einfach vor der Haustür liegen zu haben und das soll dann in das Haus geholt werden. Wir hatten das vorher auch durchgespielt mit Zora, Und Sora hat das absolut nicht hinbekommen. Also Sora hat einigermaßen okay noch das Logo mitbekommen und so, dass man die Schrift so erkannt hat. Aber das war im Video viel zu viel Information, als dass Sora das... lösen konnte. Und auch wenn man es irgendwie kleinteilig betrachtet hat, war allein das Problem da, dass jemand aus dieser Tür von innen kommt und diese Tür öffnet und rausgeht, das Paket in die Hand nimmt und wieder reingeht. Also dieses räumliche Verständnis, da hatte Sora deutliche Probleme mit. Und Kling hatte den gleichen Case auch deutlich besser lösen können und mit Mijani hatte ich es jetzt auch ausprobiert. Mit Journey hat es am allerbesten gelöst. Und wirklich auch so, dass dann, als die Tür sich geöffnet hat, hat man dann im Hintergrund so einen Kronleuchter im Eingangsfoyer gesehen und so. Also da waren richtig Details drin, die vorher in dem Kernbild ja gar nicht zu sehen waren. Und das ist wirklich beeindruckend, dieses räumliche Verständnis und auch das Komplexitätsverständnis.

SPEAKER_01:

Hast du bislang irgendwelche Grenzen gesehen, wo du gedacht hast, okay, das scheint noch nicht zu funktionieren?

SPEAKER_00:

Ja, also Product Placement zum Beispiel ist noch so ein Punkt, wo ich sehe, da ist ganz, ganz viel sehr gut. Und ich habe jetzt aber auch schon Hagen angesprochen, eingangs der Folge, wo Ich einfach sehe, das ist nochmal auf einem anderen Level. Und auch da lohnt es sich natürlich auch, die Kompetenzen der einzelnen KIs zusammenzubringen und irgendwie zu schauen, für welchen Case brauche ich was. Und ich würde jetzt nicht sehen, dass Midjourney das Allheilmittel ist für alles, was in die Videogenerierung geht. Sowieso nicht. Und da sind dann andere Tools besser geeignet, aber vor allem sowas, das Komplexitätsverständnis angeht, was das räumliche Verständnis angeht und auch die Dynamik der Videos angeht. Auch da sehe ich Midjourney mittlerweile schon sehr, sehr gut. Es ist immer noch so ein bisschen dieses Zeitlupending, was wir auch schon mal thematisiert haben, dass alles so ein bisschen sehr, ja, wie in Zeitlupe aussieht. Aber es ist auch da deutlich dynamischer als beim Sora zum Beispiel.

SPEAKER_01:

Und hast du auch schon mit eigenen Protagonisten quasi gearbeitet? Also dich selbst oder irgendeine andere Person hochgeladen, um zu schauen, ob das funktioniert?

SPEAKER_00:

Ja, und auch das ist ein absoluter USP von Midjourney. Ich kann ja in Midjourney auch wirklich Charaktere erstellen, Avatare erstellen. Das hat mir auch schon mal thematisiert in der Folge, wie man das macht und wie man da am besten vorgeht. Und Ich habe es einmal mit mir selbst gemacht, da ist immer eine leichte Verfremdung drin, wo ich aber auch die Vermutung habe, dass Midjourney das absichtlich macht, dass man eben keine Deepfakes erstellt. Aber wenn ich Bilder direkt in Midjourney erstelle, dann kann ich sehr, sehr gut mit diesen Bildern weiterarbeiten, auch mit den Charakteren weiterarbeiten und die eben auch in die Videos bringen. Und es ist auch schon... angekündigt worden, dass auch da ein stärkerer Fokus noch drauf liegen wird, eben auch diese Konsistenz der Gesichter, der Menschen und Charaktere durchzuziehen in den Videos. Und ich bin jetzt schon sehr beeindruckt davon. Aber auch da, wenn ich Avatare habe, wenn ich Charaktere habe, dann lohnt es sich eventuell auch eben zu Hagen zu greifen. Da habe ich dann aber weniger Kameramovement, ich kann weniger irgendwie das Setting beeinflussen, bestimmen, wie das sein soll, wie irgendwie auch da die Dynamik in dem Video sein soll. Es ist halt dann einfach ein Charakter, der frontal zur Kamera steht, gut geeignet für Erklärvideos und alles andere da ist halt mit Journey super gut geeignet, wenn dann die Person wirklich was tun soll. Also wie zum Beispiel auf einem Skateboard einen Olli machen, das ist halt super komplex, da ist richtig viel Movement drin. Und wie das umgesetzt wurde und auch wie das Skateboard sich gedreht hat, wie der Sprung war und wie die Person dann nachher wieder auf dem Skateboard gelandet ist, das hat mich wirklich fasziniert.

SPEAKER_01:

Das heißt, da wollte ich mich jetzt nochmal hin, so der Vergleich dann auch zu Hey Jen, nehme ich es richtig mit, wenn man eher Richtung Perfektion geht. Das heißt, ein Charakter, der möglichst original nachgebaut wird, mit verhältnismäßig wenig Freiraum. Oder ich habe ein Product Placement, wo ich ein Produkt habe, das möglichst perfekt inszeniert werden soll. Hier die Tendenz leicht zu hegen. Wenn ich auf der anderen Seite ein Video habe, wo es mir mehr um Aktionen geht, um das Setting grundsätzlich neu zu verändern, dann scheint mir Journey aktuell die bessere Wahl.

SPEAKER_00:

Ganz genau. Und auch so Stimmung einzufangen, das weiß ich, irgendwie gemütliches Grillen irgendwie in einem Stadtpark oder zu Hause mit der Familie und man will diese Situation einfangen, das kann ein Agent so nicht und dafür ist Midjourney sehr, sehr gut geeignet.

SPEAKER_01:

Wie lange dauert so ein Videoprozess, wenn ich jetzt mein, also gehen wir mal davon aus, das Bild ist final da in Midjourney, jetzt lade ich das hoch, mache mal ein Prompt, wie lange dauert die Generierung?

SPEAKER_00:

Die Generierung geht erstaunlich schnell, also wird so schätzen zwischen 30, 40 Sekunden. Und dann ist es natürlich die Frage, wie gut ist das Video? Also wie sehr will ich direkt mit dem Video weiterarbeiten? Wie sehr muss ich da nochmal an mein Prompt ran? Man muss auch sehen, dass es sehr kostenintensiv aktuell ist. Also das ist abgedeckte Videogenerierung über jedes Abo, was man hat bei Midjourney. Das heißt, jeder kann diese Videos generieren. Aber man zahlt achtmal so viel, als wenn man ein Bild generiert. Und damit sind die Credits, die man hat, im Monat natürlich auch schnell aufgebraucht. Das heißt, man sollte sich vorab natürlich schon ganz klar überlegen, was man darstellen will und wie man es darstellen möchte, damit man sich auf jeden Fall spart, da zu viele Credits auszugeben.

SPEAKER_01:

Sehr gut. Hast du sonst noch irgendwas im besonderen Anwendungsfall, wo du sagst, der funktioniert in deinen Augen besonders gut jetzt schon?

SPEAKER_00:

Also vielleicht nochmal was anderes bei Hagen, um auch nochmal den Fokus ein bisschen auf Hagen zu bringen. Was bei Hagen jetzt auch dazu kommt, ist, dass ich eine Möglichkeit habe, auch Gestik und Mimik mit zu bestimmen. und auch da aktiv zu werden. Das heißt, ich kann auch da die Speaker irgendwie deutlich lebendiger darstellen, dass sie nicht einfach so gerade vor der Kamera stehen und dann ihren Text runterrattern, sodass es auch da deutlich natürlicher ist. Das freut mich auch sehr, dass man eben auch da Gestik, Mimik mit reinbringen kann und auch das ja vor allem sehr, sehr wichtig ist, wenn ich irgendwie ein Produktplacement habe, dass wenn ich jetzt irgendwie eine Trinkflasche in der Hand halte, dass es nicht einfach nur ein Foto ist, was dann eingefroren wird und es bewegen sich nur die Lippen und der Kopf, sondern dass da eben auch so ein bisschen Interaktion mit dem Produkt entsteht. Und das ist mittlerweile eben auch möglich mit Hagen.

SPEAKER_01:

Okay, weil das war von meiner Seite auch immer ein Kritikpunkt vorher. Also ich fand eine Ja, du hast zu Beginn so einen Aha-Effekt, wo du denkst, oh cool, das funktioniert ja ganz gut. Wenn du dir dann aber so ein Erklärvideo mal drei Minuten anguckst, dann merkst du irgendwann schon, die Bewegung, die der da macht, das habe ich jetzt schon ein paar Mal gesehen, weil es immer wieder das Gleiche ist. Das scheint aber jetzt besser zu

SPEAKER_00:

sein. Ja, also ich muss mit Agent auf jeden Fall jetzt noch die Erfahrungen sammeln, die Cases durchspielen. Das ist noch viel neuer als mit Journey. Und mit Midjourney habe ich jetzt schon einige Cases durchgespielt und kann da eben jetzt auch schon sagen, dass das sehr empfehlenswert ist und ich auf jeden Fall alle Hörerinnen und Hörer aufrufen kann, die mit Midjourney arbeiten und die irgendwie Videos generieren wollen, da einfach mal das auszuprobieren, Erfahrungen zu sammeln.

SPEAKER_01:

Wunderbar, Leon. Viel Neues gelernt über ein Tool, das ich bislang auch noch nicht genutzt habe, aber das wird sich jetzt ändern. Also, vielen Dank euch. Ich hoffe, ihr habt auch was Neues mitgenommen und dann testet fleißig.

UNKNOWN:

Ciao.